Generative KI revolutioniert die Arbeits- und Medienwelt. Doch wie gehen wir mit der Flut von maschinell erstellten Inhalten um? Und wie können wir z. B. sicherstellen, dass KI in den Medien verantwortungsvoll eingesetzt wird? Armin Schroeder, Managing Director & Partner CROSSMEDIA Düsseldorf, plädiert für eine sorgfältige Auseinandersetzung mit der neuen Technologie – sowohl in Bezug auf ihre Potenziale als auch auf ihre Grenzen:
In den letzten Jahren haben wir eine bemerkenswerte Entwicklung im Bereich der Künstlichen Intelligenz (KI) erlebt, insbesondere im Bereich der generativen KI. Generative KI-Modelle wie GPT-3 (Generative Pre-trained Transformer 3) haben die Art und Weise, wie wir Texte, Bilder und sogar Musik generieren können, revolutioniert.
Dieser Text ist nicht von mir. Er stammt von ChatGPT. Es sind die ersten Sätze eines Artikels, den das Programm auf den Befehl „Schreibe einen Essay über die Entwicklungen bei generativer KI“ ausgespuckt hat. Jeder dieser Sätze stimmt. Auch die folgenden Absätze des 500 Wörter langen Beitrags haben Hand und Fuß. Alle wesentlichen Aspekte des Themas werden korrekt abgehandelt.
Wofür ein Mensch mehrere Stunden bräuchte, hat ChatGPT innerhalb weniger Sekunden produziert – und das in erstaunlicher inhaltlicher und sprachlicher Qualität. Die Software ist der wichtigste Protagonist einer neuen Generation von superintelligenten lernenden Maschinen. Sie sind dabei, unser Privat- und Arbeitsleben von Grund auf zu verändern.
A Star is Born
Der Tag, der unsere Arbeitswelt für immer verändert hat, lässt sich genau datieren: Es ist der 30. November 2022. An diesem Tag macht das kalifornische Unternehmen OpenAI seine neue KI im Internet frei zugänglich. Fünf Tage später haben sich bereits weltweit mehr als eine Million Nutzer angemeldet. Anfang Februar, zwei Monate später, nutzen schon 100 Millionen Menschen weltweit das Programm. Keine Technologie hat sich jemals so schnell verbreitet.
Der Tag, an dem ChatGPT in die Welt kam, ist eine Zäsur der Technologiegeschichte – vergleichbar nur mit dem 9. Januar 2007, als Steve Jobs im schwarzen Rollkragenpollover auf einer Bühne des Moscone Centers in San Francisco das erste iPhone vorstellte. Mit einem Unterschied: Diese neue KI-Generation krempelt unseren Alltag noch stärker und schneller um als die Smartphone-Revolution vor 16 Jahren.
Denn ChatGPT, Googles Konkurrenz-Produkt BERT und andere so genannte generative KI-Programme stoßen in eine neue Dimension vor. Sie verhalten sich zu früheren operationalen KI-Generationen in etwa so wie frühmenschliche Höhlenmalereien zu Michelangelos Fresken in der Sixtinischen Kapelle.
Wissenschaftler sprechen nicht ohne Grund vom Beginn des „Generativen Zeitalters“. Diese KI-Programme sind schöpferisch. Wie ihre operativen Vorgänger verarbeiten sie immense Datenmengen – aber nicht mehr allein mit dem Ziel, Prozesse zu optimieren oder zu automatisieren. Generative KI erschafft auf der Basis maschinellen Lernens völlig neue Inhalte: in Form von Programmiercodes, Bildern oder Texten. Operative KI hat Werkzeuge geschaffen, um Arbeit zu erleichtern. Generative KI hat das Potenzial, diese Arbeit selbst zu übernehmen.
Generative Künstliche Intelligenz ist längst Teil unseres Alltags. Vielfach werden ihre Produkte dabei gar nicht als solche erkannt. Marken wie Coca-Cola, Becks oder Prada lassen längst Bilder für Werbekampagnen von KIs erzeugen. Die Fastfood-Kette Burger King hat sogar kürzlich den „Cheeseburger Nugget“ auf den Markt gebracht – ein Gericht, dass allein der Phantasie des Bildgerators Midjourney entsprungen ist. Universitäten und Schulen suchen händeringend nach Wegen, wie sie Aufsätzen und Seminararbeiten auf die Schliche kommen, die von ChatGPT verfasst wurden. Und Menschen ohne jede Programmierkenntnisse erstellen mit Hilfe von KI komplexe Software.
KI durchdringt sämtliche Bereiche und Branchen. Aber nirgends werfen diese Veränderungen so viele Fragen auf wie in den Medien.
Maschinengemachte Bilder, Texte und Videos sind bereits heute weit verbreitet. In naher Zukunft aber könnten sie nicht mehr die Ausnahme, sondern die Regel sein. Experten prognostizieren, dass bereits 2026 bis zu 90 Prozent sämtlicher Online-Inhalte nicht mehr von Menschen, sondern von Maschinen erstellt werden. Das eröffnet faszinierende Perspektiven, birgt aber auch Risiken.
Die eine Seite: Künstliche Intelligenz kann Medien besser, effizienter und relevanter machen. Redaktionen setzen Texterstellungs-Programme bereits seit Jahren ein, um standardisierte Formate wie einfache Meldungen oder Sport-berichte zu erstellen. KI hilft Journalisten bei der Analyse großer Datenmengen. Ohne diese Unterstützung wären zum Beispiel große Enthüllungen wie die Berichte zu den Panama-Papers gar nicht möglich gewesen.
Die Kehrseite: Programme wie Dall-E, Midjourney, Stable Diffusion oder GPT-4 erstellen Bilder und Texte, die auch Experten kaum noch als maschinengemacht erkennen können. Das berührt eine Kernfrage des Journalismus: Was ist die Wahrheit?
Maschinen können lügen
Im März gedachten Millionen von Menschen einer Tsunami-Katastrophe vor der Küste Oregons im Jahr 2001. Tausende Menschen – so war es zu lesen – starben, Hunderttausende verloren ihre Wohnung. Auf der Social-Media-Plattform Reddit veröffentlichte ein User Bilder von weinenden Familien und dem damaligen Präsidenten George W. Bush zu Besuch im Katastrophengebiet. Allein: Dieses Unglück hat es nie gegeben. Es ist ein Produkt generativer Maschinenphantasie. Digitale Scheinwelten wie diese können zum Problem auch für professionelle Medien werden. Die Frage lautet: Wie bleiben Medienmarken glaubwürdig, wenn die digitale Öffentlichkeit zunehmend mit solchen Fakes geflutet wird?
Eine weitere Gefahr: Künstliche Intelligenz hat per se keinen ethischen Kompass. Die selbstlernenden Algorithmen reproduzieren vielmehr nur virtuos, was sie vorfinden und was man ihnen vorgibt – auch Vorurteile und Diskriminierungen. So wird diese Technologie im schlechtesten Fall zum Verstärker von Unconscious Bias oder gar Verschwörungstheorien, welche zu hinterfragen eigentlich die Aufgabe von Medien wäre. Das Netz ist bereits heute voll von Beispielen dafür.
Die professionelle Nutzung der neuen KI-Technologie erfordert Verantwortung. Nicht allein von den Medienhäusern selbst, auch von den werbungtreibenden Unternehmen. Die fortschreitende Automatisierung des Medien-Systems vollzieht sich nämlich auch an einer zweiten Front. Nicht nur Medieninhalte werden zunehmend maschinell erstellt. Künstliche Intelligenz entscheidet auch immer mehr über die Frage, in welche Umfelder wie viel Werbegeld investiert wird.
Digitale Anzeigenplätze werden heute in ähnlicher Form in Echtzeit gehandelt wie Aktien. Auch hier kann KI zum Verstärker problematischer Entscheidungsmuster werden. Im so-genannten programmatischen Werbe-Ökosystem landen Marken mit ihren Botschaften deshalb nicht automatisch in den besten und qualitativ hochwertigsten Umfeldern. Oft platzieren die Algorithmen sie vielmehr in den Kanälen, die am wenigsten Anzeigengeld kosten. Dies berührt eine andere hochrelevante Frage: die der Finanzierung von Medien.
In zwei entscheidenden Bereichen des Mediensystems werden Entscheidungen auf diese Weise nach dem Prinzip der größtmöglichen Effektivität an Algorithmen und Maschinen delegiert: bei der Produktion von Inhalten und bei deren Finanzierung. Dies birgt die Gefahr, dass sich alles auf dem kleinsten gemeinsamen Nenner einpendelt. Das Resultat wäre eine gigantische Sea of Sameness. Am Ende leidet so die Qualität.
Warum sind diese Fragen vor allem für die Medienbranche so brisant? Weil es keine Branche wie jede andere ist. Unabhängige Medien und unabhängiger Journalismus sind wesentliche Fundamente für eine demokratische Gesellschaft. Medien, die an Glaubwürdigkeit und Qualität verlieren und die sich nicht mehr refinanzieren lassen, sind nicht nur ein Problem für die betroffenen Unternehmen. Sie sind letztlich ein Problem für das demokratische Gemeinwesen.
Verantwortung und Transparenz sind deshalb Schlüsselbegriffe beim Einsatz von generativer KI, mit denen sich Unternehmen auseinandersetzen müssen. Um sich an diesen Maßstäben zu orientieren, hilft es, eine Kernfrage zu stellen: Fungiert KI als Copilot? Unterstützt sie also den Menschen, der aber nach wie vor das Steuer in der Hand behält und den Kurs bestimmt? Oder ist sie Substitut und übernimmt die führende Rolle im Cockpit?
Ein kleines Beispiel dazu aus unserem Agentur-Alltag. Wir haben auf der Basis von GPT-4 ein Tool entwickelt und mit dem Wissen unserer Branche gefüttert: sämtlichen prämierten Kampagnen des renommierten Marketing-Preises Effie. Unser Ziel: zusätzliche Inspiration für kreative Media unserer Kunden auf Knopfdruck. Das Ergebnis: Der Großteil der Vorschläge ist nicht brauchbar, einige sind sogar blanker Unsinn. Meist ist jedoch ein wirklich guter Ansatz dabei. Die KI ist somit hilfreich, um zu inspirieren, ähnlich einem zusätzlichen Kollegen, der sich am Brainstorming beteiligt. Um den gesamten Prozess der Ideenfindung, Bewertung und Ausarbeitung zu vollziehen, erfordert es allerdings deutlich komplexere Anwendungen – und einen weiteren Reifegrad der KI-Modelle.
Sea of Sameness verhindern
Der Kollege KI kann uns also beim Denken unterstützen. Die Ergebnisse müssen aber kritisch hinterfragt werden. Wer Künstliche Intelligenz professionell nutzt, sollte genau wissen, nach welchen Maßstäben sie funktioniert und ihre Datenquellen kennen. Es gilt nach wie vor der Satz, der als Selbstverständnis im Eingangsbereich unserer Agentur an der Wand zu lesen ist: Selber denken macht schlau.
Der Einsatz der superschlauen Programme wird unsere Art zu arbeiten fundamental verändern. Algorithmen werden immer mehr Fleißarbeiten übernehmen, die bislang viel Aufwand gekostet haben. Verantwortlich eingesetzt, können sie so Kapazität für Jobs schaffen, die umso qualifizierter sein werden.
Im Fall der Medienwirtschaft gilt dies umso mehr. Wenn die Maschinen lügen können, kommt es umso mehr auf die Menschen an, welche die richtigen Maßstäbe setzen. Auf Medienmarken und Journalisten, die für Glaubwürdigkeit und Wahrheit stehen. Nur so lassen sich Fakes und Vorurteile wirksam von Fakten unterscheiden. Oder, wie Adrian Kreye in der Süddeutschen Zeitung schreibt: Die „Kernkompetenz des Journalismus“ haben die Ingenieure den KIs bislang nicht beibringen können: „kritisches Denken“. Denn „das lässt sich nicht berechnen“. Die Frage nach dem Umgang mit generativer KI stellt sich aber nicht nur im Bereich der Medien. Alle Branchen und Unternehmen stehen vor ähnlichen Fragen und Herausforderungen.
Jetzt mit dem Thema beschäftigen
Wie also umgehen mit dieser neuen Dimension Künstlicher Intelligenz? Der wesentliche Rat lautet: Beschäftigen Sie sich konkret damit. Und zwar jetzt. Das Thema scheint noch sehr abstrakt und weit weg, sowohl inhaltlich wie zeitlich. Das ist ein Irrtum. Selbst nach den Maßstäben der hochbeschleunigten digitalen Transformation entwickelt sich die KI-Technologie in einem Turbo-Tempo weiter, das wir so bislang nicht kannten. Die Konsequenzen sind keine Zukunftsmusik. Sie betreffen bereits das Hier und Jetzt. Das praktische Verständnis von generativer KI ist vielfach noch höchst unterentwickelt. Vor ein paar Wochen haben wir einen Kunden aufgefordert, der Bildgenerierungs-KI Midjourney sein Büro zu beschreiben. Das Bild, welches das Programm auf diesen Input hin erstellt hat, hatte nicht die geringste Ähnlichkeit mit dem realen Raum. Der Grund: Unser Kunde wusste nicht, wie man mit dem Programm zu sprechen hat. Um das beste Ergebnis zu erzielen, muss man genau wissen, wie die Eingaben (Prompts) formuliert sein müssen. Und genau dieses Vokabular im Zusammenspiel mit den aktuellen Chat-KIs sollte jeder einmal erleben. Nur wer schlau fragt, bekommt auch schlaue Antworten.
Ein weiterer Rat: Finden Sie die Aspekte beim Einsatz von KI, die für Ihr Unternehmen bereits heute relevant sind und Potenzial haben – und seien sie noch so klein. Delegieren Sie das Thema nicht allein an einzelne Experten und Digitalverantwortliche. Nehmen Sie möglichst die gesamte Organisation mit. Bei Crossmedia haben wir Anfang des Jahres ein horizontales KI-Team gegründet, das Potenziale dieser Technologie für unser Geschäft frühzeitig identifizieren und erschließen soll. Die fünfköpfige Arbeitsgruppe deckt ein breites Spektrum unserer Agentur ab: vom Experten bis zum interessierten Auszubildenen – alle aus unterschiedlichen Abteilungen. Denken Sie das Thema KI durchaus in Extremen. Diese Technologie trägt ein großes Potenzial für die völlige Disruption langjähriger Geschäftsmodelle in sich. Die Leitfrage nach der Co-Piloten-Funktion von KI ist zwar wichtig. Aber in der Praxis wird es gar nicht so einfach sein, die Grenze zwischen Mensch und Maschine genau zu definieren. Sie wird sich wahrscheinlich wesentlich weiter verschieben, als wir noch vor kurzem für möglich gehalten haben. Nur eine Unternehmenskultur, die zulässt, die gewohnte Welt auch radikal in Frage zu stellen, wird für die kommenden Veränderungen wirklich gerüstet sein.
Der Einsatz von Künstlicher Intelligenz erfordert deshalb beides: Mut und Offenheit für Neues. Aber auch kritisches Denken und Verantwortung. Die lernenden Maschinen sind letztlich große Verstärker: gedankenlos eingesetzt von Vorurteilen und problematischen Entscheidungsmustern. Oder hocheffiziente Unterstützer, die uns den Rücken für das Wesentliche freihalten können. Das sieht im Prinzip übrigens auch der Kollege ChatGPT ähnlich. Lassen wir ihn zum Schluss noch einmal zu Wort kommen:
Die aktuellen Entwicklungen im Bereich der generativen KI sind zweifellos faszinierend und haben das Potenzial, viele Aspekte unseres Lebens zu verändern. Von der Kreativwirtschaft bis zur medizinischen Forschung bieten diese Technologien zahlreiche Möglichkeiten zur Verbesserung und Innovation. Dennoch dürfen wir nicht die ethischen und sozialen Implikationen aus den Augen verlieren. Eine verantwortungsvolle Entwicklung und Anwendung von generativer KI erfordert eine sorgfältige Abwägung der Chancen und Risiken, um sicherzustellen, dass die Vorteile für die Gesellschaft maximiert und die negativen Auswirkungen minimiert werden.
Dieser Artikel ist zuerst am 09.09.2023 auf onlythebest.de erschienen.
Was denkst du?