Einführung
Campbell Brown ist nicht nur eine bekannte TV-Reporterin, sondern auch die erste und einzige Nachrichtenchefin, die Facebook (heute Meta) je hatte. Nach einem Jahrzehnt im Journalismus hat sie ein neues Projekt gestartet: Forum AI. In Gesprächen mit TechCrunch erklärte sie, warum sie den Kampf um zuverlässige Informationen jetzt an Künstliche Intelligenz (KI) weitergibt.
Forum AI – ein Prüfstand für High‑Stakes‑Themen
Das Unternehmen konzentriert sich auf Themen, die keine einfachen Ja‑oder‑Nein‑Antworten zulassen – geopolitische Entwicklungen, psychische Gesundheit, Finanzfragen und Personalentscheidungen. Brown nennt diese Bereiche „High‑Stakes“, weil falsche Aussagen gravierende Konsequenzen nach sich ziehen können.
Expertenbasierte Benchmarks
Um die Leistungsfähigkeit großer Sprachmodelle zu messen, rekrutiert Forum AI die führenden Köpfe ihres jeweiligen Feldes. Beim geopolitischen Segment konnten bereits Größen wie Historiker Niall Ferguson, Publizist Fareed Zakaria, Außenminister Tony Blinken, der frühere Sprecher des Repräsentantenhauses Kevin McCarthy und ehemalige Cybersicherheitschefin Anne Neuberger gewonnen werden. Diese Experten erarbeiten Bewertungsmaßstäbe, die anschließend von trainierten KI‑Richtern in großem Maßstab angewendet werden.
Das Ziel: 90 % Übereinstimmung
Laut Brown erreicht das System bereits eine etwa 90‑prozentige Übereinstimmung mit den menschlichen Gutachtern – ein Schwellenwert, den sie als hinreichend für praktische Anwendungen ansieht.
Warum das jetzt? – Der Auslöser bei Meta
Der Wendepunkt war für Brown die Veröffentlichung von ChatGPT. Sie erkannte sofort, dass ein Sprachmodell schnell zur Hauptschnittstelle für Informationen werden würde – und dass die Qualität der bereitgestellten Fakten noch dringend verbesserungsbedürftig war. Der Gedanke, dass ihre eigenen Kinder durch fehlerhafte Angaben „dümmer“ werden könnten, trieb sie zu handeln.
Erste Befunde – Bias und Fehlinterpretationen
Erste Tests der führenden Modelle zeigten, dass viele von ihnen sichtbare Verzerrungen aufweisen. Beispielsweise zog Googles Gemini Inhalte von Webseiten der Kommunistischen Partei Chinas heran, obwohl das Thema nichts mit China zu tun hatte. Ein genereller linker politischer Bias war ebenso erkennbar. Weitere Defizite bestanden in fehlendem Kontext, übersehenen Perspektiven und sogar in der simplen Verdrehen von Argumenten (Straw‑Manning).
Lernen aus den Fehlern von Social Media
Brown erinnert sich an ihre Zeit bei Facebook, wo ein falscher Fokus auf Nutzerbindung zu ungewollten Auswirkungen führte. Das damalige Faktencheck‑Programm, das sie entwickelt hatte, wurde schließlich eingestellt. Sie warnt davor, dass die Optimierung für reine Engagement‑Metriken die Wahrheit untergräbt.
Die Chance: KI für die Wahrheit nutzen
Der entscheidende Unterschied zu sozialen Netzwerken liegt laut Brown darin, dass Unternehmen, die KI für Kreditvergabe, Versicherung oder Personalentscheidungen einsetzen, klare Haftungsrisiken haben. Diese Akteure verlangen daher zuverlässige, nachvollziehbare Ergebnisse – ein Anreiz, der die Entwicklung von vertrauenswürdigen Modellen vorantreiben kann.
Herausforderungen im Compliance‑Markt
Trotz der wachsenden Nachfrage steckt die Branche noch in den Kinderschuhen. Viele Firmen begnügen sich mit simplen Checklisten und standardisierten Benchmarks, die Brown als unzureichend beurteilt. Selbst das kürzlich in New York City eingeführte Gesetz zur Vermeidung von Einstellungsbias hat gezeigt, dass mehr als die Hälfte der untersuchten KI‑Systeme Verstöße hatte, die nicht entdeckt wurden.
Ausblick
Brown ist überzeugt, dass KI sowohl Gefahr als auch Chance birgt. Entscheidend ist, ob Unternehmen ihren Nutzern lediglich das bieten, was sie wollen, oder ob sie auf die Bereitstellung wahrheitsgetreuer Informationen setzen. Mit Forum AI will sie den Weg zu besser geprüfter KI ebnen – ein Schritt, der aus ihrer Sicht nicht nur die digitale Informationslandschaft, sondern auch das gesellschaftliche Vertrauen nachhaltig stärken könnte.