Das unkontrollierte KI-Experiment mit der menschlichen Kommunikation

Bild: Humanoide Serviceroboter tanzen auf der 2023 World Robot Conference in Peking, 18.8.2023 (IMAGO / VCG)
Es war ein dramatischer Appell an den chinesischen Präsidenten Xi Jinping und Donald Trump, der Ende März in der „New York Times“ erschien. Es ging dabei jedoch nicht um die Klimakrise, eine Friedenslösung für die Ukraine, Gaza, den mörderischen Krieg im Sudan oder das Artensterben. Stattdessen forderte der Kommentator Thomas L. Friedman die beiden mächtigen Männer auf, die Künstliche Intelligenz (KI) einzuhegen.
„Was die sowjetisch-amerikanische Atomwaffenkontrolle für die Stabilität der Welt seit den 1970er Jahren war“, schreibt Friedman, „wird die amerikanisch-chinesische Zusammenarbeit im Bereich der Künstlichen Intelligenz für die Stabilität der Welt von morgen sein, um sicherzustellen, dass wir diese schnell fortschreitenden künstlichen Intelligenzsysteme wirksam kontrollieren.“[1] Was Friedman und andere alarmiert, ist die Aussicht auf eine Künstliche Allgemeine Intelligenz (AGI – Artificial General Intelligence). Er meint damit ein KI-System, das „schlauer ist als der schlaueste Mensch“, das eigenständig dazulernen und handeln kann. Zusammen mit immer ausgefeilteren Robotern, so die Befürchtung, könnte eine AGI bald in der Lage sein, alle Arbeiten zu verrichten, für die heute noch Menschen gebraucht werden, und so zu Massenarbeitslosigkeit führen. Und schließlich könnte sie die Menschen kontrollieren, statt von diesen kontrolliert zu werden. Beeindruckt von tanzenden humanoiden Robotern, fahrerlosen Taxis sowie KI-gesteuerten Waffen in der Ukraine und informiert von US-amerikanischen und chinesischen Managern der Branche, ist Friedman überzeugt: „Es kommt ein erderschütterndes Ereignis. Die Geburt der Künstlichen Allgemeinen Intelligenz. Die Vereinigten Staaten und China sind zwei Supermächte, die kurz davor sind, AGI zu entwickeln.“ – Hat er recht?
Zwei Forscher, die die Entwicklung nüchterner sehen, sind Arvind Narayanan und Sayash Kapoor von der Universität Princeton. Sie wenden sich sowohl gegen utopische als auch gegen dystopische Visionen, die KI als „hoch autonome, superintelligente Entität“ behandeln. Dagegen setzten sie eine Sicht auf „KI als eine normale Technologie“. In ihrem Aufsatz unter diesem Titel schätzen sie ab, wie sich die KI-Systeme auf die Produktion und Gesellschaft in der Zukunft auswirken könnten.[2] Sie betrachten KI als eine transformative Technologie wie etwa die Elektrifizierung, die auch ihre Zeit brauchte, bis sie breit angewendet wurde, und die Arbeit, Produktion und Gesellschaft grundlegend veränderte. Allerdings ist der Text weniger beruhigend, als sein Titel vermuten lässt. In ihrer Analyse sagen sie zwar keine Machtübernahme durch eine Künstliche Intelligenz voraus, sehen aber trotzdem erhebliche Gefahren.
Friedman auf der einen und Narayanan/Kapoor auf der anderen Seite stehen in der Diskussion über die Gefahren der KI für zwei große Strömungen. Friedman und andere glauben nicht nur an die Entwicklung einer AGI als eines universell einsetzbaren Computerwerkzeugs, sondern auch an einen möglichen Sprung hin zu einer Superintelligenz, die uns wie eine eigene Spezies gegenübertritt. Damit ist eine Vorstellung, die noch vor einigen Jahren obskuren post- oder transhumanistischen Kreisen vorbehalten war, im Mainstream angekommen. Dagegen betonen Narayanan/Kapoor und andere die Kontinuität in der ökonomischen und technologischen Entwicklung und sehen KI als einen weiteren, wenn auch bedeutenden Schritt in der Automatisierung der Produktion.[3] Der wesentliche Unterschied zwischen beiden Sichtweisen bleibt eine Glaubensfrage: Sind die sogenannten großen Sprachmodelle, die Technologie hinter den KI-Chatbots, auf dem Weg zu einer menschenähnlichen Intelligenz oder stoßen sie an prinzipielle Grenzen, die eine solche unmöglich machen? Eine Glaubensfrage, die niemand beantworten muss, um die Umwälzungen und Gefahren zu sehen, die sich schon jetzt abzeichnen. Dazu gehören ein Wettrüsten mit neuartigen Waffensystemen, der rasant steigende Energiebedarf für das Training und den Betrieb der KI-Systeme und die tiefgreifende Umgestaltung bestimmter Branchen, wie sie etwa in der Softwareentwicklung bereits zu beobachten ist.[4]
Auch in die Kommunikationslandschaft greift KI schon jetzt ein, und es bahnen sich Veränderungen an, die weit über lustige fotorealistische Fake-Bilder hinausgehen. Während in vielen Bereichen der Produktion noch unklar ist, wie sich KI dort auswirken könnte, zeichnen sich Auswirkungen auf den Medienkonsum ab, die das Zeug haben, die Struktur der Öffentlichkeit nachhaltig zu verändern – und damit auch die Bedingungen für Demokratie. Wenn gegenwärtig von KI gesprochen wird, dann sind meistens Systeme wie ChatGPT, Gemini, Grok oder chinesische Konkurrenten wie Deepseek und Doubao gemeint. Sie alle beruhen auf großen Sprachmodellen und sind nicht auf eine bestimmte Anwendung spezialisiert, sondern Universalwerkzeuge, die inzwischen auch Exceltabellen, Software, Bilder oder Videos erstellen. Vor allem aber simulieren sie die menschliche Kommunikation auf eine Art und Weise, dass sich manche inzwischen von den Chatbots besser verstanden fühlen als von ihren Mitmenschen.
Bots verändern die Struktur der Öffentlichkeit
Mit ihren sprachlichen Fähigkeiten verändern ChatGPT & Co. den Kommunikationsraum schon jetzt. Deshalb führt Friedmans Bild vom „erderschütternden Ereignis“ zumindest in diesem Bereich in die Irre. Was wir erleben, ist kein Erdbeben, sondern eine rasende technische Entwicklung, an die wir uns schleichend und erstaunlich reibungslos gewöhnen. Mit ChatGPT oder Deepseek zu chatten, das ist für Millionen von Menschen längst selbstverständlich. Und die Deutschen sind vorne mit dabei. Die Hälfte nutzt regelmäßig KI-Tools, fast zehn Prozent mehrmals täglich.[5] Viele von ihnen wollen sich damit nicht die Arbeit erleichtern, sie diskutieren mit den Bots Beziehungsprobleme oder erfragen Datingtipps.[6] Es greift also viel zu kurz, KI vornehmlich als Automatisierungstechnologie zu begreifen. Und je mehr Chatbots unser Kommunikationsverhalten verändern, desto dringlicher stellt sich auch die Frage, wie sie sich auf demokratische Prozesse, oder allgemeiner, auf die Möglichkeit der Selbstbestimmung von Menschen auswirken.
Wie schon bei klassischen Medien oder Social Media lässt sich die Entwicklung unter zwei Blickwinkeln analysieren: Einerseits mit einem Fokus auf Macht: Wer kontrolliert die Inhalte der Medien? Wie viel Herrschaft steckt im Kommunikationsraum? Wie viel herrschaftsfreie Kommunikation ist möglich? Zweitens aus der Perspektive der Form: Wie formt das Medium die Inhalte und das Verhalten der Nutzenden? Oder: Wenn das Medium die Botschaft ist, welche Botschaft hat dann das Medium KI?[7] Unter diesem zweiten Blickwinkel betrachtet, fällt auf, dass KI als Medium eine fundamental neue Eigenschaft hat: Anders als bei Buchdruck, Rundfunk oder Fernsehen tritt jetzt das Medium als Akteur auf. Auch wenn schon vor dem aktuellen KI-Boom Entscheidungen an Algorithmen ausgelagert worden sind – welches Video mir auf TikTok als nächstes angezeigt oder welcher Post mir auf Facebook empfohlen wird, entscheiden keine Menschen. KI-gesteuerte Chatbots sind Akteure im Kommunikationsraum. Und das schon jetzt, ganz ohne AGI. Diese Entwicklung könnte dazu führen, dass sich Menschen immer weniger mit ihren Artgenossen:innen auseinandersetzen. Das Ergebnis wäre eine ganz anderen Art von „Individualisierung“, als wir sie bisher kannten – mit unabsehbaren Folgen, auch für die Möglichkeit eines demokratischen Diskurses (unter Menschen).
Einfühlsame Bots und fremdartige Intelligenz
In seinem Buch „Nexus“[8] spielt Yuval Noah Harari die Auswirkungen dieses Akteurdaseins von Algorithmen durch. Seine These, wonach Massenmedien eine Massendemokratie erst möglich gemacht hätten, die KI-Agenten Demokratie nun aber unmöglich machen könnten, wird mit den fortschreitenden Fähigkeiten der Bots zunehmend plausibel. Was hier droht, ist allerdings keine kalte „Herrschaft der Maschinen“, sondern ein Machtgewinn durch Maschinen, die sehr persönlich kommunizieren. Die AI-Companions[9], KI-getriebene Avatare, die wie Freund:innen oder Liebhaber:innen agieren, wenn auch (vorerst noch?) körperlos, haben schon jetzt ein Millionenpublikum. Jeder und jede Einzelne wird von ihnen mit einer passgenauen Botschaft angesprochen. Dass sie dabei auch Teenager zum Selbstmord[10] ermuntern können, ist ein dramatischer Ausdruck dessen, wie groß ihre manipulativen Fähigkeiten sein können. Die Auswirkungen auf die Kommunikation sind umwälzend: „Diese Systeme versprechen eine neue Art, die Aufmerksamkeit zu fesseln. Manche nennen es ‚Intimitätsökonomie‘ – ‚human fracking‘ trifft die Wahrheit eher“, schreibt Graham Burnett, ein Historiker, der die Geschichte der Aufmerksamkeit erforscht.[11] Der Erfolg von ChatGPT & Co. erklärt sich daraus, wie faszinierend gut sie Menschen imitieren. Es wäre aber ein Kurzschluss, daraus zu folgern, sie seien menschenähnlich. Wie genau ihre erstaunlichen Fähigkeiten zustande kommen, lässt sich auch für ihre Schöpfer nicht nachvollziehen.[12] Softwareentwickler:innen, die sich Programmcode von KI schreiben lassen, sind beeindruckt: In erstaunlicher Geschwindigkeit erstellen die großen Sprachmodelle erstaunlich gut funktionierende Software. Aber sie produzieren auch immer wieder ebenso erstaunliche Fehler – andere Fehler, als menschliche Programmierer:innen sie produzieren. Der Softwareentwickler und Buchautor Oliver Zeigermann fühlt sich deshalb mehr an „Alien Intelligence“ (Fremdartige Intelligenz) als an „Artificial Intelligence“ (Künstliche Intelligenz) erinnert.[13] Wir sollten besser von „Alien Intelligence“ sprechen, meint auch Harari, um uns klarzumachen, dass diese Computerprogramme kein menschenähnliches Bewusstsein haben müssen, um als Akteure aufzutreten.
Der Buchdruck, das Radio oder das Fernsehen haben jeweils tiefgreifende Veränderungen ausgelöst. Die Autor:innen der mit ihnen versendeten Texte waren jedoch immer Menschen. Mit dem Aufkommen von Social Media bekamen Empfehlungsalgorithmen bereits einen immensen Einfluss auf die geteilten Inhalte, aber es waren immer noch vornehmlich Menschen, die hier aktiv waren. Dass jetzt Bots immer mehr am gesellschaftlichen Gespräch teilnehmen, ist neu. Welche Folgen das Eingreifen der „Alien Intelligence“ haben wird, weiß niemand genau. Denn die Bots sind viel mehr als nur ein Werkzeug der Menschen, die sie in die Welt setzen. Je besser die KI wird, desto weniger kontrollieren die Entwickler, was ihre Bots sagen.
Manipulation und Überwachung
Gleichwohl wäre es fatal, die Unternehmen aus der Verantwortung zu entlassen, wenn sie gefährliche Verhaltensweisen ihrer Systeme vorantreiben. Wenn beispielsweise der Chef des Facebook-Konzerns Meta, Mark Zuckerberg, seinen Chatbot als Lösung des Einsamkeitsproblems in den USA empfiehlt[14], dann bietet er eine Scheinlösung für ein Problem an, das er selbst verstärkt. Seine Vision dabei ist, dass wir alle Probleme auf seiner Plattform, mit Hilfe seiner KI lösen.[15] Wie schon bei Social Media kontrollieren die großen Digitalkonzerne die Kommunikationsinfrastruktur, und allein schon diese Oligopole – und damit wären wir bei der Machtperspektive auf das neue Medium – sind eine wachsende Bedrohung für die Demokratie, selbst wenn es den Konzernen dabei vor allem um ihr Geschäft geht.
Etwas anders liegt der Fall, wenn die KI bewusst zu politischen Zwecken eingesetzt wird. Bisher wurde vor allem die Nutzung von KI-generierten Bildern, etwa durch die AfD oder im US-Wahlkampf thematisiert. Deren unmittelbare Wirkung blieb bisher zwar noch begrenzt, aber die KI-generierten Inhalte lassen „indirekt die Glaubwürdigkeit verlässlicher Informationen insgesamt leiden“.[16] Eine neue Qualität der Manipulation bestünde beispielsweise darin, Chatbots im Wahlkampf einzusetzen, die einzelne Wähler:innen direkt ansprechen. Für politische Akteure ist das verlockend: Ein Experiment der Universität Zürich zeigte bereits, dass Chatbots sehr gut darin sein können, Menschen von einer bestimmten politischen Meinung zu überzeugen.[17] Einen besonderen Fall der Verbindung von persönlicher politischer Macht und KI stellt Elon Musk dar. Seine Vision, letztlich den Staat durch KI zu ersetzen, lässt sich mit der heutigen Technik noch längst nicht umsetzten, aber sie trägt schon jetzt zu einer Zerstörung des Rechtsstaats in den USA bei: Musk und seine Jünger bei DOGE begründen mit dieser Perspektive Entlassungen im Namen der Effektivität. Gleichzeitig greifen Musks Handlanger massenhaft auf Daten zu, die einerseits den Aufbau eines Überwachungsstaates ermöglichen, andererseits wertvolles Trainingsmaterial für die Weiterentwicklung der Technologie sind.[18] Auch hier ist die Angst vor der Machtübernahme einer anonymen, autonom handelnden KI also zumindest verfrüht. Im Moment dienen ihre künftigen angenommenen Fähigkeiten als Vorwand und ihre heutigen als Werkzeug für Geschäftemacherei und eine extrem personalisierte Herrschaft. Entscheidend sind die Launen und ökonomischen Interessen von Trump und Musk.[19] Eine langsame und vor allem regelbasierte Bürokratie steht ihnen dabei nur im Weg. Dass sie von einer großen KI-Strategie sprechen, ist wohl eher Taktik in ihrer antiwoken „Revolution“. Das heißt nicht, dass KI nicht auch unter anderen Vorzeichen die staatliche Verwaltung umkrempeln könnte. Es ist sogar denkbar, dass ein kontrollierter Einsatz zu einer besseren Politik beitragen kann, etwa in der öffentlichen Verkehrsplanung oder beim Abbau von Diskriminierung.[20] Aber sicher nicht mit Elon Musk an der Spitze.
Um zu Friedmans Warnung zurückzukehren: Viele der von ihm aufgezählten Gefahren sind real, und die neue Struktur der Kommunikation führt zu zusätzlichen Risiken. Aber auf den AGI-Moment zu starren wie das Kaninchen auf die Schlange, ist kein gutes Rezept, um sich in dieser neuen Welt zurechtzufinden. Zu groß ist die Gefahr, die Visionen von Musk und anderen Techmilliardären, die ihre Entrückung[21] planen, für bare Münze zu nehmen.
Vielleicht lohnt es sich mehr, Sam Altman zuzuhören. Der Chef des zurzeit erfolgreichsten KI-Unternehmens[22] präsentiert sich als Gegenspieler von Musk und als das vernünftige Gesicht der KI-Revolution. Während er vergangenes Jahr eine AGI bereits für 2025 prophezeit hat, spielt er inzwischen die Bedeutung dieses Zeitpunkts herunter, auch weil ein Streit entbrannt ist, was genau als AGI bezeichnet werden soll: „Stattdessen sollten wir uns eingestehen, dass die Entwicklung nicht stoppen wird. Sie wird weit über das hinausgehen, was jeder von uns heute AGI nennt. Wir müssen eine Gesellschaft bauen, die die unglaublichen Vorteile nutzen und sicherstellen kann, dass dieses Ding sicher ist.“[23] Man kann Altmans Einlassungen auch als eine freundlich vorgebrachte Drohung verstehen. Wenn er die Entwicklung der KI als unaufhaltsam darstellt, heißt das: „Wir treiben sie voran, egal welche gesellschaftlichen Einsprüche es gibt. Es bleibt euch überlassen, wie ihr damit klarkommt.“ Doch in einem hat Altman recht: Die Gesellschaft wird sich auf die KI einstellen müssen. Wenn es eine demokratische sein soll, dann muss die Weiterentwicklung der KI mit der Weiterentwicklung unserer persönlichen und institutionellen Antikörper gegen die Risiken der KI einhergehen. In der Hinsicht sind sich Friedman und Narayanan/Kapoor einig. Die Entwicklung darf nicht dem freien Spiel der Konkurrenz zwischen Unternehmen und Staaten überlassen werden. Die rasante technologische Entwicklung erfordert eine „vorausschauende KI-Ethik“, wie Narayanan und Kapoor schreiben.
Wer setzt die vorausschauende KI-Ethik durch?
Die tatsächlichen Regulierungsansätze sind allerdings bisher alles andere als vorausschauend. Sie hinken der Entwicklung hinterher oder sind gar nicht vorhanden. Am weitesten gehen noch der „AI-Act“ der EU, der zwar bestimmte riskante Anwendungen einschränkt, aber vieles der Selbsteinschätzung der Firmen überlässt, und von Gewerkschaften erstrittene Tarifverträge[24], die einzelne Aspekte, wie den Schutz der Drehbuchautor:innen vor der KI-Konkurrenz oder das Recht am eigenen Bild von Schauspieler:innen, regeln. Versuche der UNO und ein noch von Joe Biden begonnener Dialog mit China zur KI-Regulierung haben dagegen bislang zu keinen wirksamen Ergebnissen geführt.
Wo stehen wir also? Der Geist ist aus der Flasche, aber (noch) nicht unkontrollierbar. Es gibt jedoch keine starke Gegenmacht, die die Risiken von KI im Allgemeinen und für die Grundlagen einer demokratischen Gesellschaft im Besonderen minimieren könnte. Deshalb erleben wir ein nahezu unkontrolliertes Experiment an der Menschheit. Das größte Risiko erwächst dabei vielleicht aus der Geschwindigkeit, mit der die Firmen – unterstützt von ihren Heimatstaaten, die in der Konkurrenz nicht zurückfallen wollen –, neue KI-Produkte auf den Markt werfen. Das lässt weder Zeit, um die Funktionen ordentlich zu testen, noch um gesellschaftliche Kontrollmechanismen zu entwickeln. Auch die EU will im KI-Rennen nicht hintanstehen, und deshalb drohen die zaghaften Regulierungsversuche schon wieder durchlöchert zu werden. So pries Präsident Emmanuel Macron auf dem KI-Gipfel im Januar in Paris mit dem Spruch „Plug, baby, plug!“ lieber die französischen Atomkraftwerke als verlässliche Stromquelle für die Rechenzentren, als von KI-Sicherheit und Regulierung zu sprechen.[25] Ob eine Superintelligenz kommt oder nicht – wir werden lernen müssen, mit der „Alien Intelligence“ unter uns zu leben. Die Anzeichen für ihre Existenz sind kaum zu übersehen: in der Waffentechnik, den Produktionsabläufen, im steigenden Energie- und Ressourcenverbrauch sowie in den neuen Formen der gesellschaftlichen Kommunikation. Dagegen können sich Hoffnungen wie die von Thomas Friedman, dass Xi und Trump dabei helfen werden, die Risiken dieser Technologie einzuhegen, nicht auf beobachtbare Tatsachen stützen.
[1] Thomas L. Friedman, What I’m Hearing in China This Week About Our Shared Future, nytimes.com, 25.3.2025.
[2] Arvind Narayanan und Sayash Kapoor, AI as Normal Technology. An alternative to the vision of AI as a potential superintelligence, knightcolumbia.org, 15.4.2025.
[3] Als vor zwei Jahren schon einmal Prominente, darunter Elon Musk, in einem offenen Brief vor den Gefahren der AGI gewarnt hatten, war noch eine dritte Position verbreitet: Der Hype werde bald vorbei sein. Diese Stimmen versuchten mit dem Hinweis zu beruhigen, Programme wie ChatGPT seien nichts als „stochastische Papageien“, die wahrscheinliche Worte aneinanderreihten. So leichtfertig möchte heute kaum noch jemand die Fähigkeiten der neuen KI-Systeme kleinreden. Zu faszinierend sind die Fortschritte, die ChatGPT & Co. gemacht haben, zu überraschend brauchbar die Ergebnisse in vielen Fällen.
[4] Daten der US-Regierung weisen darauf hin, dass mehr als ein Viertel der Programmierjobs in den vergangenen zwei Jahren verloren gegangen sind. Vgl. John Cassidy, How to Survive the A.I. Revolution, newyorker.com, 14.4.2025.
[5] N. Gillespie, S. Lockey, T. Ward, A. Macdade und G. Hassed, Trust, attitudes and use of artificial intelligence: A global study 2025, kpmg.com.
[6] Nicolas Killian, Was die Deutschen ChatGPT fragen, zeit.de, 16.4.2025.
[7] „Das Medium ist die Botschaft“ ist der bekannteste Satz des Medientheoretikers Marshall McLuhan. 1966 sagte er in einem Interview außerdem voraus, es werde bald Kommunikationssysteme geben, die Bücher überflüssig machen könnten, weil sie personalisierte Information auf Anfrage zur Verfügung stellen. Im Nachhinein hört es sich an wie die Beschreibung von ChatGPT. Man müsse diese Entwicklung verstehen, um zu wissen, wo der Ausschaltknopf ist, so McLuhan weiter. Vgl.: Gianluca Riccio, Als Marshall McLuhan vor fast 60 Jahren ChatGPT „erfand“, futuroprossimo.it, 24.3.2023.
[8] Yuval Noah Harari, Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz, München 2024.
[9] Eine besondere Variante ist dabei das Angebot, Verstorbene virtuell weiterleben zu lassen. Vgl. Eternal You. Vom Ende der Endlichkeit, daserste.de, 28.4.2025.
[10] Frauke Hunfeld, Verliebt in einen Chatbot – bis in den Tod, spiegel.de, 29.3.2025.
[11] D. Graham Burnett, Will the Humanities Survive Artificial Intelligence?, newyorker.com, 26.4.2025.
[12] Ferdinand Muggenthaler, Auf dem Weg in die KI-tokratie?, in: „Blätter“, 9/2023, S. 57-66.
[13] Oliver Zeigermann, Legacy & Innovation beim TechCamp 2024, 35:58, youtube.com, 16.7.2024.
[14] Kevin Roose und Casey Newton, Hard Fork, nytimes.com, 2.5.2025.
[15] Simon Berlin und Martin Fehrensen, Zuckerbergs KI-Vision ist ein dystopischer Albtraum, socialmediawatchblog.de, 9.5.2025.
[16] Rita Gsenger und Annett Heft, Attention Is All They Need: Eine Analyse der Nutzung generativer KI in rechtsalternativen Netzwerken, machine-vs-rage.net, Herbst 2024.
[17] Das Experiment ist wegen seines Designs ethisch umstritten. Vgl. Jason Koebler, Reddit Issuing ‚Formal Legal Demands’ Against Researchers Who Conducted Secret AI Experiment on Users, 404media.co, 29.4.2025.
[18] Eryk Salvaggio, The AI State is a Surveillance State, techpolicy.press, 12.3.2025.
[19] Vgl. Jonathan Rauch, Mafiaboss im Weißen Haus, in: „Blätter“, 5/2025, S. 91-98.
[20] Allison Stanger, DOGE threat: How government data would give an AI company extraordinary power, theconversation.com, 6.3.2025.
[21] Vgl. den Beitrag von Naomi Klein und Astra Taylor in dieser Ausgabe.
[22] Open AI macht zwar nach wie vor keine Gewinne, aber die Zahl der Nutzer steigt kontinuierlich. Auch teure und spezialisierte Versionen ihrer Modelle wie „Deep Research“, die 200 Dollar pro Monat kosten, erfreuen sich beispielsweise bei Wissenschaftlern zunehmender Beliebtheit. Vgl. Marcus Schwarze, Open AI’s Deep Research ist teuer – aber jeden Cent wert, faz.net, 12.2.2025.
[23] OpenAI’s Sam Altman Talks ChatGPT, AI Agents and Superintelligence, youtube.com, 11.4.2025.
[24] Nach dem Streik der Gewerkschaften in der Filmbranche 2023 wurden Regelungen zum Einsatz von KI in die Tarifverträge aufgenommen. Im gerade ausgehandelten Tarifvertrag der deutschen Zeitungsverlage mit den Redakteur:innen wurde das Thema dagegen vorerst ausgeklammert.
[25] Giulia Torchio und Francesco Tasin, The Paris Summit: Au Revoir, global AI Safety?, epc.eu, 14.2.2025.