27. Oktober 2025
Von Sven Millischer
In der professionellen Informationsgewinnung ist bei KI-Sprachmodellen kritische Zurückhaltung geboten. Denn nicht Faktizität, sondern Wahrscheinlichkeiten bestimmen deren Output. Für gerichtsfeste Belege braucht es weiterhin erfahrene Analysten, die methodisch stringent Erkenntnisse recherchieren, dokumentieren und bewerten.
Vertrauen ist gut, Kontrolle ist besser. Was einst als Führungsprinzip galt, muss heute im Kontext der Künstlichen Intelligenz fast schon mantraartig wiederholt werden. Denn Menschen vertrauen per se leicht. Und manchmal leider zu Unrecht. So zeigt eine Studie von Microsoft Research unter mehreren hundert erfahrenen Wissensarbeitern eine bedenkliche Beziehung. Ein höheres Vertrauen in generative Künstliche Intelligenz korreliert mit weniger kritischem Denken. Die KI-gläubigen Wissensarbeiter bildeten weniger Hypothesen, überprüften weniger Quellen oder berücksichtigten seltener unterschiedliche Perspektiven, so das Fazit der Studie. Mit anderen Worten: Die geschwinden und geschliffenen Antworten der KI-Sprachmodelle bestätigten sie scheinbar in ihren Überzeugungen.
Nun könnte man dieses Forschungsergebnis als zufällig und wenig stichhaltig abtun, da die Zahl der Teilnehmenden mit gut 300 Personen kaum repräsentativ ist und es sich um selbstberichtete Angaben der Wissensarbeiter handelte. Dennoch verdeutlicht das Resultat das inhärente Dilemma in der Nutzung eines jeden grossen KI-Sprachmodells (LLM): Ob ChatGPT, Gemini oder Claude – es handelt sich bei allen öffentlichen LLM am Ende um enorm komplexe, vielschichtige Statistikmodelle, die Sprache auf der Basis von Wahrscheinlichkeiten berechnen.
Unzutreffende Zusammenhänge
Daraus folgt: Large Language Models liefern zwar Antworten, die plausibel und überzeugend klingen, aber nicht unbedingt zwingend solche, die faktisch korrekt sind. Gerade wenn Aufgaben zu komplex oder mehrdeutig werden, neigen LLM in der Tendenz dazu, Inhalte zu „halluzinieren“ statt ein kategorisches Scheitern einzuräumen. Die Konsequenzen für faktengetreue und gerichtsfeste Recherchen nach den Methoden der Open Source Intelligence (OSINT) sind folgenschwer: Der Benutzer muss damit rechnen, dass das LLM vielleicht geschliffene Plausibilität liefert statt harter Fakten, und dies auch noch mit grosser Autorität und Überzeugungskraft. Bei spezifischen Personen- oder Unternehmensrecherchen, wie sie in der professionellen OSINT-Arbeit häufig vorkommen, besteht bei LLM die Gefahr, dass biografische oder Unternehmensdetails verwechselt oder falsch kombiniert werden. Was einem als Analyst bleibt, ist der konsequente Rückgriff auf zugrundeliegende Primärquellen, wodurch jedoch die Effizienzgewinne der KI rasch wieder schwinden.
Hinzu kommt, dass gerade die Quellenlage im Bereich der Künstlichen Intelligenz bis heute mehr als undurchsichtig ist. Mit welcher universalen „Wissensbibliothek“ die heutigen grossen Sprachmodelle tatsächlich trainiert wurden und werden, ist nicht sauber geklärt. Und welche Quellen dabei wie gewichtet und bewertet wurden, entzieht sich ebenfalls der Kontrolle durch die Öffentlichkeit. Dieser Umstand wiegt umso schwerer, da staatliche Akteure wie Russland die LLM inzwischen möglicherweise als Abnehmer für gezielte Propaganda entdeckt haben, und Inhalte im Netz erzeugen, die für LLM als Agit-Prop-Material gedacht sind. Noch ist unklar, ob die LLM tatsächlich aktiv auf Desinformation verweisen, oder ob sie auf solche Desinformations-Quellen verweisen, weil sie aus Mangel an Alternative vorhandene Lücken zu füllen suchen.
Erfahrung und ständige Selbstprüfung
Im Umkehrschluss bedeutet dies: Die meistgenutzten LLM sind in ihrem antrainierten Wissensbestand eine Black Box, und so zusagen die Antithese zur professionellen Open-Source-Intelligence-Analyse. Bei der OSINT-Analyse werden öffentlich zugängliche Informationen aus unterschiedlichen Quellen systematisch ausgewertet, um daraus verlässliche Erkenntnisse über Ereignisse, Personen oder Strukturen zu gewinnen. Zum OSINT-Handwerk gehört, Daten zu archivieren, Quellen zu verifizieren und logische Verbindungen herzustellen – von Personen über Orte bis hin zu Mustern. Nur wer mit einer prüfbaren Frage, einer Hypothese, die widerlegt werden kann, und einer sauberen Methodik arbeitet, erzielt faktentreue und gerichtsfeste Rechercheergebnisse. Intelligent genutzt, kann eine KI dabei helfen, gerade bei der Analyse, Aufbereitung und Strukturierung von Daten. Entscheidend bleiben aber Erfahrung, kritisches Denken und ständige Selbstprüfung.
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.