Subscribe to RSS
DOI: 10.1055/a-2512-8710
Zu viele Zähne und zu wenige Finger!? Kommunikationswissenschaftliche Tagung über KI-generierte Bilder im November 2024 in Bremen

Das Zeitalter der künstlichen Intelligenz (KI) wurde spätestens im November 2022 eingeläutet, als das Unternehmen OpenAI das generative KI-Tool ChatGPT in der Version 3.5 der Öffentlichkeit frei zur Verfügung stellte. Das löste einen regelrechten KI-Hype aus. Denn erstmals konnte die Allgemeinbevölkerung sich selbst von der Leistungsfähigkeit generativer KI überzeugen und die Technologie im Alltag erproben. Die Nutzung von text- und bilderzeugenden KI-Modellen wächst seitdem stetig, sowohl in privaten wie auch in öffentlichen Zusammenhängen: Diverse Zeitungen drucken KI-generierte Artikel und Bilder, Radiosendungen spielen KI-generierte Playlists, Nachrichtensender lassen die Meldungen für einzelne Zuschauer*innen personalisiert durch KI erstellen und von KI-gesteuerten Agenten vorlesen – dabei sieht das Ergebnis genauso aus, als ob menschliche Nachrichtensprecher*innen tätig wären (z. B. https://www.channel1.ai/). In Wahlkämpfen und im politischen Aktivismus spielen emotionalisierende KI-Bilder eine große Rolle, beobachtbar in Deutschland ebenso wie beispielweise in den USA.
Diese und weitere Entwicklungen nahm eine kommunikationswissenschaftliche Tagung zu KI-generierten Bildern in den Blick, die vom 20. bis 22. November 2024 im Haus der Wissenschaft in Bremen stattfand, also mitten im Stadtzentrum neben Dom und Rathaus. Organisiert wurde sie von der Fachgruppe „Visuelle Kommunikation“ der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK; https://www.dgpuk.de) zusammen mit der Division „Visual Communication Studies“ der International Communication Association (ICA; https://www.icahdq.org/). Die Tagung fand auf Englisch statt unter dem Titel „Generative Images — Generative Imageries: Challenges of Visual Communication (Research) in the Age of AI“ (https://gi.uni-bremen.de/). Gastgeberin Stephanie Geise, Professorin und Leiterin des Labs „Politische Kommunikation und Innovative Methoden“ am Zentrum für Medien-, Kommunikations- und Informationsforschung (ZeMKI) der Universität Bremen (https://zemki.uni-bremen.de/das-zemki/), und ihr Team begrüßten rund 60 Teilnehmende aus Deutschland, Österreich und der Schweiz, aus den Niederlanden, Dänemark, Belgien, Norwegen, Schweden und Australien. Alle Vorträge fanden im Plenum statt und waren gebündelt in sieben Sessions zu Forschungsmethoden, Geschlechterfragen, politischem Wandel, Publikumswahrnehmungen, Journalismus, politischem Aktivismus und multimodaler Kommunikation.
Auch wenn die Tagung sich nicht ausdrücklich mit sexualbezogener KI-Nutzung beschäftigt hat, sind viele der diskutierten Phänomene und Entwicklungen für die Sexualwissenschaft von großer Bedeutung. Ein Überschneidungsbereich beider Disziplinen ist etwa die Beschäftigung mit medialer Sexualisierung, Körperbildern und Geschlechterdarstellungen. Was bedeutet es etwa, dass KI-Modelle aufgrund ihrer Trainingsdaten und Architekturen oftmals zunächst sehr stereotype und sexualisierte Bilder von Frauen liefern? Was müssen Nutzende wissen, um durch die Wahl des KI-Modells und geeignete Eingabeaufforderungen (engl. prompts) KI-Bildmaterial zu erhalten, das geschlechtliche und sexuelle Vielfalt angemessen repräsentiert? Welche Rolle spielen KI-Bilder im Aktivismus für und gegen Feminismus, Trans-Rechte oder Sexuelle Bildung? Und inwiefern kommen dabei auch Kunstbezüge zum Tragen, etwa wenn die KI „Feminismus“ mit Bildern der Malerin Frida Kahlo visualisiert? Wer sich in der Sexualforschung mit derartigen Fragen beschäftigt, kann aus der kommunikationswissenschaftlichen Tagung zu KI-Bildern interessante Impulse mitnehmen, von denen im Folgenden einige exemplarisch aufgegriffen werden.
Mit KI lässt sich heute sehr einfach, schnell und in riesigen Mengen Bildmaterial erstellen, das keinerlei Bezug zur materiellen Realität aufweist und trotzdem täuschend echt wie ein Foto oder Video aussieht. Diese echt wirkenden KI-Bilder können sehr überzeugend und berührend wirken, öffnen Tür und Tor für Manipulation. In öffentlichen Debatten ist gar schon vom „Ende der Wahrheit“ die Rede. Denn dokumentarisches Foto- und Videomaterial, das früher als Beleg für reale Ereignisse zählen konnte, steht heute unter dem Generalverdacht, womöglich bloß irreführendender KI-generierter „Fake“ zu sein. Diverse Tagungsbeiträge wiesen darauf hin, dass wir tatsächlich eine Zeitenwende erleben und dass großer Bedarf besteht, auf Seiten der Medienproduktion den Umgang mit KI-Bildmaterial zu regulieren und auf Seiten der Mediennutzenden entsprechende KI-Kompetenz zu stärken.
So ist es gar nicht so leicht zu sagen, ob nun der international beachtete KI-Skandal bei der Schweizer Gratiszeitung „20 Minuten“ im September 2024 als Negativ- oder als Positivbeispiel zu werten ist. Die Zeitung hatte zum eigenen 25. Jubiläum diverse Publikumszuschriften veröffentlicht. So äußerten sich unter anderem „Remo“ und „Darrell“ begeistert über das Blatt. Doch diese Leserbriefe waren von Zeitungsmitarbeiter*innen selbstgeschrieben und die Porträtfotos von „Remo“ und „Darrell“ mit KI erzeugt, wie ein Leser mit KI-Kompetenz festgestellt und auf X/Twitter gepostet hatte. Die Zeitung räumte die Fälschung ein. Negativ zu bewerten ist, dass tatsächlich bis heute viele Medienhäuser keine klaren und öffentlich einsehbaren Regeln dazu haben, wie sie mit KI-generiertem Text- und Bildmaterial umgehen, in welchen Kontexten sie es nutzen und wie sie es für das Publikum gut erkennbar kennzeichnen. Es besteht zwar allgemeiner Konsens, dass der Umgang mit KI-Material „transparent“ sein müsse, doch was das im Einzelnen bedeutet, ist noch nicht ausreichend festgelegt — so das Fazit einer von Seraina Tarnutzer und Sina Blassnig (Universität Freiburg, Schweiz) präsentierten Studie, die anhand einer Stichprobe von Zeitungen geprüft hatte, a) ob diese über öffentlich verfügbare KI-Richtlinien verfügen und b) wie detailliert diese ausgearbeitet sind. Mangelnde Transparenz beim Umgang mit KI-Bildern konstatierte auch eine Studie aus den Niederlanden von Astrid Vandendaele, Jaap de Jong und Maartje van der Woude (Universität Leiden). Wenn schon Medienhäuser hier bislang oft kein klares Regularium haben, kann man nur ahnen, dass und wie unterschiedliche Interessengruppen mit gefälschten Testimonials, Meinungsbekundungen und Zeugenaussagen operieren.
Positiv zu bewerten an dem „20 Minuten“-Fall ist andererseits, dass die KI-Kompetenz bei Teilen des Publikums bereits so gut ausgeprägt ist, dass sie ungekennzeichnetes KI-Material dennoch als solches identifizieren und ihre Kritik so wirkungsvoll öffentlich machen können, dass die Medienhäuser dann auch reagieren müssen. Ganz konkret hatte der kritische Leser und Twitter-Nutzer festgestellt, dass die gefälschten Porträtfotos von der KI-Plattform „This Person does not exist“ (https://thispersondoesnotexist.com/) stammten. Denn diese erzeugt zwar einen Output, der täuschend echt Porträtfotos nachahmt, doch die Position der Augen hat auf allen Bildern dieselben X- und Y-Koordinaten. Auf der Tagung widmeten sich mehrere Studien der Frage, woran KI-Bildmaterial erkennbar ist. Nach wie vor entlarvend bei der Darstellung von Menschen sind die typischen KI-Fehler wie zu viele oder zu wenige Zähne, Zehen oder Finger. Auch bei Schriftzügen, Schildern und Symbolen ist KI-Output oft fehlerhaft. Um auf die KI-Herkunft eines vermeintlich authentischen Bildes hinzuweisen, werden dann typischerweise die augenfälligen Fehler rot umkreist und kommentiert. So tun das zum Beispiel KI-kritische Facebook-Nutzende auf dem Profil „Best talents“ (https://www.facebook.com/p/Best-talents-61556462827457/). „Best talents“ zeigt KI-Bilder von überwiegend weißen, normschönen, heterosexuellen Militär-Familien in den USA, was gemäß einer Studie von Paul Pressmann und Cornelius Puschmann (Universität Bremen) Anti-KI-Protest in den Kommentarspalten auslöst. Welche Merkmale von Bildern dazu führen, dass Menschen sie als authentisch oder aber als KI-generiert einordnen, untersuchten Marion Müller und Lea Schmelz (Universität Trier) mit einer Q-Sort-Studie: Die Teilnehmenden sortierten vorgelegtes Bildmaterial unter anderem gemäß Authentizität und wurden zu ihren Sortierungen befragt. Dabei zeigte sich unter anderem, dass ein „unperfektes“ Aussehen des Bildes es authentischer erscheinen lässt. Doch derartige Studien sind immer nur Momentaufnahmen. Denn Merkmale von KI-Bildern, die sie als solche identifizierbar machen — seien es falsche Finger, Wortsalat bei Schriftzügen, zu leuchtende Farben oder übermäßige Symmetrie — werden vermutlich technisch bald zu umgehen sein.
Für die Reflexion des aktuellen Medienwandels durch KI bedeutsam ist Historisierung. So ist die aktuelle Aufregung um das „Ende der Wahrheit“ nur eine Neuauflage der Diskussion, die schon in den 1990er-Jahren angesichts des Aufkommens digitaler Bilder und entsprechender Bildbearbeitungsmöglichkeiten geführt wurde. Und auch mit analogen Fotografien wird getrickst: Ein dokumentarisches analoges Foto ist kein Beweis für irgendetwas, es kann eine inszenierte Szene zeigen und/oder durch den gewählten Bildausschnitt eine manipulative Botschaft liefern. Daher plädierte Stefan Meier (Universität Koblenz) dafür, sich von der Illusion zu lösen, die Foto- oder Videografie habe per se irgendeinen Beweischarakter bezüglich Realität. Vielmehr müsse man Fotos und Videos immer als Diskursbeiträge verstehen, deren Bedeutung und Wirkung am zugeschriebenen Bedeutungskontext hängt. Auch andere Vortrags- und Diskussionsbeiträge mahnten immer wieder zur Vorsicht: Gefahren, die wir heute den KI-Bildern zuschreiben, sind oft generelle Probleme beim kulturellen Umgang mit Bildmaterial, seien es ein vorschnell zugeschriebener Wahrheitscharakter, ungerechtfertigte Manipulationsvorwürfe, allgegenwärtige Stereotypisierungen oder auch Probleme bei der Visualisierung abstrakter Konzepte wie „Krieg“, „Feminismus“ oder „Zukunft“. Mit ihrer Analyse zu KI-generierten Zukunftsbildern gewann Alina Solotarov (Fraunhofer-Institut für System- und Innovationsforschung, Freie Universität Berlin) den Best Paper Award. Ihre Befunde zeigten u. a., dass die KI sich selbst bislang stereotyp als humanoiden Roboter verbildlicht.
Wer sexuelle KI-Bilder oder sexualbezogene KI-Nutzung im Allgemeinen erforscht, kann deutschsprachige Beiträge jederzeit bei der „Zeitschrift für Sexualforschung“ einsenden. Englischsprachige Beiträge sind willkommen bei „Archives of Sexual Behavior“, dem Organ der International Academy of Sex Research (IASR; https://www.iasrsite.org/). Für die dort geplante Special Section zu „Artificial Intelligence and Sexuality“ können auch ohne vorherige Abstract-Anmeldung bis zum 1. Juli 2025 theoretische und empirische Kurz- und Langbeiträge eingereicht werden (https://link.springer.com/journal/10508/updates/27497494).
Publication History
Article published online:
18 March 2025
© 2025. Thieme. All rights reserved.
Georg Thieme Verlag KG
Oswald-Hesse-Straße 50, 70469 Stuttgart, Germany