VDL Seminar: Intelligentes Wissensmanagement mit KI- Nutzen, Risiken, Nebenwirkungen
Foto: VDL
Vom 8. bis 10. Februar 2026 fand in Hannover in Kooperation mit der dbb akademie das VDL-Seminar „Intelligentes Wissensmanagement mit KI-gestützten Strategien und Lösungen“ statt. Umfangreiche Wissensbestände liegen häufig in unstrukturierten Daten wie Texten, Bildern sowie Audio- und Videoaufnahmen verborgen. Nicht nur in Behörden, auch in Unternehmen, Verbänden und Vereinen sind solche Erfahrungs- und Wissensschätze zu heben. Auch auf den Computern in Privatbereich warten persönliche Erinnerungen, Reiseberichte, Korrespondenz und unstrukturiertes Bildmaterial auf ihre Wiederentdeckung. Im Mittelpunkt des Seminars stand die Frage, wie Künstliche Intelligenz (KI) das Wissensmanagement nachhaltig verbessern und diese Informationsquellen systematisch erschließen und nutzbar machen kann.
Für den sicheren und effektiven Einsatz von KI-Tools wie ChatGPT, Copilot und anderen ist es allerdings sinnvoll zu verstehen, womit wir es hier zu tun haben – und welche Risiken und Nebenwirkungen damit einhergehen. Das war ein Schwerpunkt der Ausführungen von Nils-Michael Becker, dem Dozenten der dbb-akademie, der als Jurist, Journalist und Informatiker mit langjähriger Erfahrung zu den Experten auf diesem Gebiet gehört. Wir wollten von ihm lernen, Strukturen und Muster zu erkennen, einen Blick für das Ganze zu entwickeln und KI einerseits sinnvoll einzusetzen, uns aber andererseits auch einen kritischen Abstand zu bewahren.
Der Künstlichen Intelligenz liegen sogenannte „Large Language Models“ (LLM), also Sprachmodelle zugrunde, die anhand von Wahrscheinlichkeiten und Algorithmen auf der Basis einer Eingabe, z.B. einer Aufgabenstellung, Informationen generieren und Problemlösungen aufzeigen können. Grundlage sind gigantische Datenbanken, mit denen die KI trainiert wird. Die Leistungsfähigkeit einer KI steht und fällt zum einen mit der verfügbaren Datenbasis und zum anderen mit der Formulierung der jeweiligen Aufgabe. Das geschieht in Form von Prompts, mit denen der Anwender Aufträge an die KI konkretisiert. Zur Einordnung der gelieferten Ergebnisse sollte der Anwender folgende Fakten im Bewusstsein behalten:
- ChatGPT und Co. kennen nur das Material, mit dem sie trainiert wurden. Aus dieser Basis erstellen sie die Antwort. Was aktuell in der Welt passiert, weiß die KI nicht, solange diese Entwicklungen nicht neu in die Trainingsbasis eingepflegt wurden. Deshalb kann sie aktuelle Entwicklungen oft nicht in ihre Antwort einspeisen, und auf Fakten basierende Antworten können veraltet sein. Beispiel: Die Umbenennung des Golfs von Mexiko in den Golf von Amerika durch US-Präsident Trump ist bei ChatGPT noch nicht angekommen (Stand: 12. März 2026).
- ChatGPT und Co. können nicht raten, was der Anwender meint, insofern kommt es darauf an, Prompts präzise zu formulieren. Wird sowohl dem Anwender als auch der KI eine konkrete Rolle zugewiesen, orientiert sie sich an diesen Vorgaben und die Antwort hat eine entsprechend hohe Zielgenauigkeit. Komplexe Fragestellungen sollten auf mehrere Prompts aufgeteilt werden.
- ChatGPT und Co. sind darauf trainiert, dem Anwender zu gefallen. Wenn sie keine passenden Antworten in ihrem Fundus haben, neigen sie dazu, zu „halluzinieren“, also Ergebnisse zu erfinden, die der Anwender vermeintlich hören will.
- ChatGPT und Co. haben keinen „ethischen Kompass“ und kein „Problem“ damit, z.B. Anleitungen zum Bau von Sprengsätzen zu liefern oder jemanden in einer Depression noch zu bestärken.
Fazit: Die Verantwortung liegt immer beim Anwender, der allerdings der KI nicht blind vertrauen und Ergebnisse kritisch hinterfragen sollte. Man kann – und sollte – die KI auch zur Überprüfung ihrer eigenen Ergebnisse auffordern und ihr Fehler nachweisen, auf die sie gelegentlich zerknirscht reagiert. Hilfreich ist auch die Aufforderung, die Quellen anzugeben.
Richtig angewendet, kann KI eine Vielzahl von Aufgaben übernehmen, die wir im Rahmen des dreitägigen Seminars nur partiell ausprobieren konnten. Einige für uns besonders interessante Aspekte sind:
- Arbeiten an Texten und Dokumenten: Suchen, Zusammenfassen, Verschlagworten, Inhalte selektieren und für unterschiedliche Zwecke und Zielgruppen beschreiben. Textsammlungen strukturieren, archivieren.
- Meetings und Sitzungen aufzeichnen und per Protokollassistent zusammenfassen und nachbearbeiten lassen. To-do-Listen erstellen und Erledigung nachvollziehen.
- Analyse von Bild-, Video- und Audiodaten zur Erschließung und Verarbeitung von nicht textbasiertem Wissen.
- Erschließung von Wissen im Studium: Suche, systematische Aufbereitung und Analyse von wissenschaftlichen Quellen, Erstellung von prüfungsrelevanten Synopsen, Entwicklung von Abfragemechanismen als Lerntool.
- Weitergabe von Wissen und Erfahrung: Unterstützung von De-Boarding und On-Boarding von Mitarbeitern, um Erfahrungswissen zu sichern und Einarbeitung zu beschleunigen. Auch bei der Einarbeitung neu gewählter Vorstandsmitglieder im Verband ist dieser Aspekt wertvoll.
- Anonymisierung: Gewährleistung der Einhaltung von Datenschutzvorgaben und weiteren rechtlichen und ethischen Schranken.
ChatGPT und Co. sind machtvolle Instrumente, mit denen nicht nur Gutes getan, sondern auch Missbrauch getrieben werden kann – und zunehmend wird. Immer wieder ist auch in der Diskussion, mit welchen Quellen LLMs trainiert werden und inwieweit dabei das Urheberrecht eingehalten wird – was zu Recht bezweifelt werden kann. Alles, was durch KI verarbeitet, ausgewertet etc. wird, wandert automatisch auch in den großen Datenfundus, aus dem KI ihr Wissen bezieht. Anders wäre das „Selbstlernen“ der LLM auch gar nicht möglich. In der Regel liegen diese Datenbanken auf amerikanischen Servern und sind vor dem Zugriff der amerikanischen Administration nicht grundsätzlich geschützt. Folglich muss der Anwender sich genau überlegen, ob personenbezogene und andere sensible Daten und vertrauliche Informationen in solchen Datenspeichern etwas verloren haben. Das gilt insbesondere für die Verarbeitung eigener Daten und Dokumente. Vor diesem Hintergrund habe ich mich dagegen entschieden, alte Protokolle von Vorstandssitzungen durch ChatGPT auswerten udn zusammenfassen zu lassen – schade eigentlich . . .
Licht und Schatten liegen mitunter eng beeinander. Abstinenz ist allerdings keine Option, vor allem im beruflichen Kontext. Wir nehmen aus diesem sehr informativen Seminar die Ermutigung mit, uns diese Materie intensiv zu erschließen und die Möglichkeiten, die ChatGPT und Co. zu bieten haben, verantwortungsbewusst zu nutzen. Das nächste Seminar könnte zum Beispiel das effektive Prompten, Tools zur Analyse von statistischen Quellen oder die Nutzung von KI zum Programmieren von nützlichen Tools beinhalten.
Hinweis: Für diesen Text wurde zunächst von ChatGPT ein Text auf der Basis des Seminarprogramms erstellt, der dann auf der Grundlage eigener Eindrücke und Erkenntnisse überarbeitet und ergänzt wurde.
Text: Ruth Franken


VDL Dammeier - frei
Stadt Offenburg. Freigegeben für alle Verwendungen 5.2.2026