Was auch ohne KI Spaß macht (Bild © Leithold)In Natürlich intelligent, dem KI-Newsletter von Zeit online, beleuchtet Marie Kilg die Versteckspiele der Großen in der KI-Branche (Elon Musk, Open AI, Google, Microsoft).
Ursprünglich war man sich dort einig, dass Künstliche Allgemeinintelligenz (englisch Artificial General Intelligence = AGI) zum Wohle der Menschheit, nicht einzelner Unternehmen, zu entwickeln sei. Wegen ihres Gefahrenpotenzials ein löblicher Gedanke, aber das Klima ist offenbar umgeschlagen. Kilg berichtet, dass auch OpenAI und Google immer wieder Forschungsberichte veröffentlichen, die diese Bezeichnung nicht verdient hätten. Sie hielten Datengrundlagen und wichtige Spezifikationen ihrer Modelle zurück, protzten mit Autorenlisten und Fachbegriffen, „um darüber hinwegzutäuschen, dass es eigentlich vor allem PR-Mitteilungen sind“, sagt Kilg. Die Geheimhaltung werde in branchenüblicher Blasensprache damit begründet, dass es zu gefährlich sei, alle Details ihrer Modelle zu veröffentlichen. So aber könne keiner die Schlüsse der Entwickler in den Unternehmen analysieren, auch nicht das kokette Geständnis, KI sei ja „überhaupt übermenschlich oder gefährlich.“
So komme ein unwissenschaftlicher Zirkelschluss zustande, wendet Kilg ein. Naive Investoren könne man damit anlocken, aber für sichere KI-Forschung wäre nur wirkliche Offenheit von Vorteil: „Die Offenheit, die sich die OpenAI-Gründer in den Namen geschrieben haben.“ Aber die konnten oder wollten sie nie wahr machen, schließt Kilg. Das Schlimmste stehe uns erst noch bevor, zitiert der Spiegel Oren Etzioni, emeritierter KI-Professor an der University of Washington. Aus seiner Sicht handeln die Techkonzerne unverantwortlich. Während sie auf der Münchener Sicherheitskonferenz Besserung geloben, lobbyieren sie zur gleichen Zeit – mit Verweis auf die Meinungsfreiheit! – in Washington und Brüssel für weniger Moderation und weniger Inhaltskontrolle auf ihren Plattformen.
Das Ausmaß des Problems wird weithin unterschätzt. Wer einer Falschinformation glaubt, lässt sich bekanntlich nicht umstimmen, nachdem er auf Fehler und ihre Korrektur hingewiesen wird. Gerade Verschwörungsmystiker „glauben, sie seien die letzten wirklich korrekt informierten Menschen im Universum. Da müssen wir viel früher ansetzen, beim System dahinter“, sagt Yasmin Green von der google-internen Jigsaw-Einheit zur Bekämpfung von Falschinformationen. Maßgeblich für Sprachfreunde wird sein, dass man mit Nutzen und Gefahren zumindest der generativen Intelligenz vertraut wird. Das ist jener Teilbereich der KI, in dem schon jetzt die Anfertigung von Falschmeldungen (geschrieben, gesprochen, gefilmt) besonders effizient gelingt. Im Wahljahr 2024 finden jedenfalls Orgien der unentdeckten Fälscherei statt. Siehe mehr darüber auch im Spiegel.