Ende März unterzeichneten mehr als 1.000 Technologieführer, Forscher und andere Experten, die an und um künstliche Intelligenz arbeiten, einen offenen Brief, in dem sie davor warnten, dass KI-Technologien „ernsthafte Risiken für die Gesellschaft und die Menschheit“ darstellen.
Die Gruppe, zu der auch Elon Musk, CEO von Tesla und Eigentümer von Twitter, gehörte, forderte die KI-Labore auf, die Entwicklung ihrer leistungsstärksten Systeme für sechs Monate einzustellen, damit sie die Risiken hinter der Technologie besser verstehen können.
„Starke KI-Systeme sollten nur dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv sein werden und ihre Risiken kontrolliert werden können“, heißt es in dem Schreiben.
Der Brief, der inzwischen mehr als 27.000 Unterschriften hat, war knapp gehalten. Ihre Sprache war breit. Und einige der Namen hinter dem Brief scheinen ein ambivalentes Verhältnis zu KI zu haben: Mr. Musk zum Beispiel baut sein eigenes Unternehmen für künstliche Intelligenz auf und ist ein wichtiger Spender der Organisation, die den Brief geschrieben hat.
Aber der Brief stellt eine wachsende Besorgnis unter KI-Experten dar, dass die neuesten Systeme, insbesondere GPT-4, die vom San Francisco Startup OpenAI eingeführte Technologie, der Gesellschaft Schaden zufügen könnten. Sie glaubten, dass zukünftige Regime gefährlicher sein würden.
Einige Pfähle sind eingetroffen. Andere nicht für Monate oder Jahre. Wieder andere sind nur Annahmen.
„Unsere Fähigkeit zu verstehen, was in starken KI-Systemen schiefgehen kann, ist sehr schwach“, sagte Yoshua Bengio, Professor und Forscher für künstliche Intelligenz an der Universität von Montreal. „Also müssen wir sehr vorsichtig sein.“
Warum sind sie besorgt?
Dr. Bengio ist vielleicht die wichtigste Person, die den Brief unterzeichnet hat.
In Zusammenarbeit mit anderen Wissenschaftlern – Geoffrey Hinton, bis vor kurzem Forscher bei Google, und Yann LeCun, jetzt leitender Wissenschaftler für künstliche Intelligenz bei Meta, Eigentümer von Facebook – hat Dr. Bengio die letzten vier Jahrzehnte damit verbracht, die Technologie zu entwickeln, die Systeme wie GPT-4 antreibt . 2018 wurden Forscher für ihre Arbeit an neuronalen Netzen mit dem Turing Award ausgezeichnet, der oft als „Nobelpreis für Computer“ bezeichnet wird.
Ein neuronales Netzwerk ist ein mathematisches System, das Fähigkeiten durch die Analyse von Daten lernt. Vor etwa fünf Jahren begannen Unternehmen wie Google, Microsoft und OpenAI mit dem Aufbau neuronaler Netze, die aus riesigen Mengen an digitalem Text, sogenannten Large Language Models oder LLMs, lernten.
Durch die Identifizierung von Mustern in diesem Text lernt der LLM, selbst Texte zu erstellen, einschließlich Blogbeiträgen, Gedichten und Computerprogrammen. Sie können sogar ein Gespräch führen.
Diese Technologie kann Computerprogrammierern, Autoren und anderen Mitarbeitern dabei helfen, Ideen zu entwickeln und Dinge schneller zu erledigen. Aber Dr. Bengio und andere Experten warnen auch davor, dass LLMs unerwünschtes und unerwartetes Verhalten lernen können.
Diese Systeme können unwahre, voreingenommene und andere toxische Informationen generieren. Systeme wie GPT-4 verwechseln Fakten und Rahmeninformationen, ein Phänomen, das „Halluzinationen“ genannt wird.
Unternehmen arbeiten daran, diese Probleme zu lösen. Experten wie Dr. Bengio befürchten jedoch, dass neue Risiken entstehen, wenn Forscher diese Systeme leistungsfähiger machen.
Kurzfristige Risiken: Fehlinformationen
Da diese Systeme Informationen scheinbar völlig zuverlässig darstellen, kann es schwierig sein, Fakten von Fiktion zu trennen, wenn sie verwendet werden. Experten befürchten, dass sich die Menschen auf diese Systeme verlassen werden, wenn es um medizinische Beratung, emotionale Unterstützung und die Rohdaten geht, die sie verwenden, um Entscheidungen zu treffen.
„Es gibt keine Garantie dafür, dass diese Systeme bei jeder Aufgabe, die Sie ihnen zuweisen, korrekt sind“, sagte Subbarao Kambhampati, Professor für Informatik an der Arizona State University.
Experten befürchten auch, dass Menschen diese Systeme missbrauchen werden, um Desinformationen zu verbreiten. Da sie menschenähnlich sprechen können, können sie überraschend überzeugend sein.
„Wir haben jetzt Systeme, die durch natürliche Sprache mit uns interagieren können, und wir können nicht zwischen dem Echten und dem Falschen unterscheiden“, sagte Dr. Bengio.
Mittelfristige Risiken: Arbeitsplatzverlust
Experten befürchten, dass die neue künstliche Intelligenz Arbeitsplätze vernichten könnte. Derzeit tendieren Technologien wie GPT-4 dazu, menschliche Arbeiter zu ergänzen. Aber OpenAI räumt ein, dass es einige Arbeiter ersetzen könnte, einschließlich der Leute, die Online-Inhalte moderieren.
Sie können die Arbeit von Rechtsanwälten, Buchhaltern oder Ärzten noch nicht nachbilden. Aber sie können Rechtsanwaltsfachangestellte, persönliche Assistenten und Übersetzer ersetzen.
Von OpenAI-Forschern verfasstes Papier Es wurde geschätzt, dass bei 80 Prozent der US-Belegschaft mindestens 10 Prozent ihrer Arbeitsaufgaben von LLM betroffen sein könnten und dass bei 19 Prozent der Arbeitnehmer mindestens 50 Prozent ihrer Aufgaben betroffen sein könnten.
„Es gibt Anzeichen dafür, dass Routinejobs verschwinden“, sagte Oren Etzioni, Gründungs-CEO des Allen Institute for Artificial Intelligence, einem Forschungslabor in Seattle.
Langfristige Risiken: Kontrollverlust
Einige der Unterzeichner des Briefes glauben auch, dass künstliche Intelligenz unserer Kontrolle entgleiten oder die Menschheit zerstören kann. Viele Experten sagen jedoch, dass dies stark übertrieben ist.
Der Brief wurde von einer Gruppe des Future of Life Institute verfasst, einer Organisation, die sich der Erforschung existenzieller Risiken für die Menschheit verschrieben hat. Sie warnen davor, dass KI-Systeme ernsthafte und unerwartete Probleme verursachen können, weil sie aus den riesigen Datenmengen, die sie analysieren, oft unerwartetes Verhalten lernen.
Sie befürchten, dass, wenn Unternehmen LLM mit anderen Internetdiensten verbinden, diese Systeme unerwartete Kräfte erlangen könnten, da sie ihren eigenen Computercode schreiben können. Sie sagen, dass Entwickler neue Risiken schaffen werden, wenn sie leistungsstarken KI-Systemen erlauben, ihren Code auszuführen.
sagte Anthony Aguirre, ein theoretischer Kosmologe und Physiker an der University of California, Santa Cruz und Mitbegründer des Future Life Institute.
„Wenn Sie ein weniger wahrscheinliches Szenario nehmen – wo die Dinge wirklich losgehen, wo es keine wirkliche Governance gibt, wo diese Systeme stärker werden, als wir dachten – dann werden die Dinge wirklich verrückt“, sagte er.
Dr. Etzioni sagte, das Gerede über existenzielle Risiken sei hypothetisch. Aber er sagte, andere Risiken – vor allem Fehlinformationen – seien keine Spekulation mehr.
„Jetzt haben wir einige echte Probleme“, sagte er. „Sie sind in gutem Glauben. Sie erfordern eine verantwortungsvolle Reaktion. Sie können Vorschriften und Gesetze erfordern.“
„Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer.“
More Stories
Wie die KI-Experten im neuen Gemini Gems-Programm von Google Ihre SEO steigern können
Leaks enthüllen den Namen und das Design des angeblichen PS5 Pro-Geräts
Apple führt mit dem neuesten iOS-Update die KI-Objektentfernung in Fotos ein