Zwischen Heilversprechen und Sorgenkind: Die dunkle Seite der KI-Kunst

OpenAI will die Menschheit vor den Gefahren einer unkontrollierten KI schützen – und stellt DALL-E genau deshalb der Öffentlichkeit zur Verfügung. Doch das System ist nicht fehlerfrei: Von tief sitzenden Vorurteilen bis hin zu mangelndem Kontextverständnis zeigt die „Künstlerische Intelligenz“ deutliche Schwächen. Ein tiefer Einblick in die Ambitionen einer Organisation, die an der Grenze des Menschenmöglichen forscht.

  • Der Bildgenerator Dall-E ist für alle offen.
  • OpenAI forscht zur Künstlichen Intelligenz.
  • Ein Beitrag für Sonicboom.

Der Name Dall-E ist eine Fusion aus dem kindlichen Roboter Wall-E von Pixar und dem exzentrischen Künstler Salvador Dalí. Dahinter verbirgt sich eine künstliche Intelligenz, die aus Wörtern Bilder generiert. Hinter der wiederum steckt OpenAI, eine Non-Profit-Organisation, die sich der Erforschung Künstlicher Intelligenz widmet. Auch, weil viele Expert:innen diese Technologie für eine der größten Gefahren der Menschheit halten.

Wenn Roboter malen.

Was macht Open AI?

OpenAI ist eine Non-Profit-Organisation, die seit dem Jahr 2015 die Erforschung Künstlicher Intelligenz vorantreibt. Zu den wichtigsten Geldgebern gehören Microsoft und Elon Musk. Der Geschäftsführer von Tesla war bis zum Jahr 2018 sogar der Vorsitzende des Projekts. Motivation für OpenAI ist die Annahme, dass eine selbstlernende Künstliche Intelligenz eine enorme Gefahr für die Menschheit sein könnte.

OpenAI möchte als Gegenpol zu dieser Gefahr dienen. Ihre Arbeit soll helfen zu verstehen, wie die Gesellschaft von Künstlicher Intelligenz profitieren könnte und wo die Gefahren liegen könnten. Dafür muss die KI aber der Öffentlichkeit zur Verfügung gestellt werden. Schließlich darf niemand eine KI für sich exklusiv beanspruchen. Auch das wäre eine Gefahr.

Was ist Dall-E?

Dall-E ist eine Künstliche Intelligenz, die einen Text interpretiert und daraus Bilder erschafft. Das Programm kann auch bestehende Bilder bearbeiten. Damit das Ergebnis möglichst exakt ist, hat OpenAI dem Programm rund 400 Millionen Wort-Bild-Kombinationen beigebracht. Die Basis dafür war GPT-3 – ein weiteres Projekt von OpenAI.

GPT steht für Generative Pretrained Transformer. Dahinter verbirgt sich eine Künstliche Intelligenz, die selbstständig Texte schreiben kann. Doch genau hier beginnen die Probleme. Denn obwohl GPT, das Sprachzentrum hinter Dall-E, mit Abermilliarden von Parametern gefüttert ist, macht es grundlegende Fehler. So versteht es zwar, was einzelne Objekte sind, versteht aber ihre Bedeutung und Zusammenhänge nicht.

Mert Bulan hat die App Franzbrötchen herausgebracht. Er hat Datenschätze gehoben und intuitiv einsehbar gemacht, die zwar verfügbar, aber deswegen nicht verwendbar sind. Mit der App entdeckt er selbst die Stadt und lädt alle ein, sie mit ihm zu entdecken. punkt-am-ende.work/2025/12/03/f…

Christian Domke Seidel (@domkeseidel.bsky.social) 2025-12-03T10:25:24.962Z

Probleme von Dall-E und Künstlicher Intelligenz

Grundsätzlich gibt es noch keine Künstliche Intelligenz, die annähernd das ist, was Menschen unter einem selbstständig denkenden Wesen verstehen. Das bedeutet, dass das Ergebnis, das eine KI abliefert, immer von den Parametern und Vorgaben abhängt, die der Mensch ihr gibt. Und je mehr Eingaben das sind, desto mehr Probleme gibt es. Eines davon ist, dass in den Bildern, die Dall-E liefert, zu häufig Männer vorkommen. Trotz geschlechtsneutraler Textvorgaben. Mehr dazu gibt es meinem Beitrag „Dall-E: Künstlerische Intelligenz“ bei Sonicboom.

Für Digitalagentur aus Wien habe ich auch schon andere Themen bearbeitet. Unter anderem habe ich einen Blick in das Metaverse gewagt. Wem bringt es was und lohnt sich eine Investition? Auch über NFT habe ich recherchiert. Wegen Bildchen von gelangweilten Affen ist die Technologie zwar etwas in Verruf geraten, ihre Möglichkeiten sind aber vielschichtig. Auch die Cloud-Technologie ist ein Thema, das ich für Sonicboom schon bearbeitet habe.

Hinterlasse einen Kommentar