Zunächst die schlechte Nachricht: Es ist wirklich schwierig, KI-generierte Bilder zu erkennen. Die verräterischen Zeichen, die früher für Aufschluss sorgten – verzerrte Hände und durcheinander geratener Textual content – werden immer seltener, da sich KI-Modelle in schwindelerregendem Tempo verbessern.
Es ist nicht mehr offensichtlich, welche Bilder mit gängigen Instruments wie Midjourney, Steady Diffusion, DALL-E und Gemini erstellt wurden. Tatsächlich täuschen KI-generierte Bilder die Menschen immer mehr, was zu großen Problemen bei der Verbreitung von Fehlinformationen geführt hat. Die gute Nachricht ist, dass es normalerweise nicht unmöglich ist, KI-generierte Bilder zu identifizieren, aber es erfordert mehr Aufwand als früher.
KI-Bilddetektoren – mit Vorsicht vorgehen
Diese Instruments nutzen Pc Imaginative and prescient, um Pixelmuster zu untersuchen und die Wahrscheinlichkeit zu bestimmen, dass ein Bild von KI generiert wurde. Das heißt, KI-Detektoren sind nicht absolut narrensicher, aber für den Durchschnittsmenschen sind sie eine gute Möglichkeit, festzustellen, ob ein Bild einer genaueren Betrachtung bedarf – insbesondere, wenn dies nicht sofort offensichtlich ist.
„Leider ist es für das menschliche Auge – und Dort Sind Ansichten — die Wahrscheinlichkeit, dass eine Individual es bekommt, liegt bei etwa 50:50″, sagte Anatoly Kvitnitsky, CEO der KI-Bilderkennungsplattform KI oder nicht„Aber bei der KI-Erkennung von Bildern gibt es diese aufgrund der pixelartigen Muster immer noch, auch wenn die Modelle immer besser werden.“ Kvitnitsky behauptet, dass AI or Not im Durchschnitt eine Genauigkeitsrate von 98 Prozent erreicht.
Weitere KI-Detektoren mit allgemein hohen Erfolgsquoten sind Hive-Moderation, SDXL-Detektor auf Hugging Face und BeleuchtungWir haben zehn KI-generierte Bilder auf all diesen Detektoren getestet, um zu sehen, wie sie abschneiden.
KI oder nicht
Im Gegensatz zu anderen KI-Bilddetektoren gibt AI or Not ein einfaches „Ja“ oder „Nein“ aus, hat aber korrekt angegeben, dass das Bild KI-generiert wurde. Mit dem kostenlosen Plan erhalten Sie 10 Uploads professional Monat. Wir haben es mit 10 Bildern versucht und eine Erfolgsquote von 80 Prozent erzielt.

KI oder Nicht hat dieses Bild korrekt als KI-generiert erkannt.
Quelle: Screenshot: Mashable / AI or Not
Hive-Moderation
Wir haben das kostenlose Demo-Instrument von Hive Moderation mit über 10 verschiedenen Bildern ausprobiert und eine Gesamterfolgsquote von 90 Prozent erzielt. Das bedeutet, dass die Bilder mit hoher Wahrscheinlichkeit von der KI generiert wurden. Die KI-Qualitäten eines künstlichen Bilds einer Armee von Streifenhörnchen, die eine Felswand erklimmt, konnte das Instrument jedoch nicht erkennen.

Wir würden gerne glauben, dass es eine Streifenhörnchen-Armee gibt, aber der KI-Detektor hat sich geirrt.
Quelle: Screenshot: Mashable / Hive Moderation
SDXL-Detektor
Der SDXL-Detektor von Hugging Face braucht ein paar Sekunden zum Laden und beim ersten Versuch wird möglicherweise eine Fehlermeldung angezeigt, aber er ist völlig kostenlos. Stattdessen gibt er auch eine Wahrscheinlichkeitsprozentzahl an. Er besagt, dass 70 Prozent der KI-generierten Bilder mit hoher Wahrscheinlichkeit generative KI sind.

SDXL Detector hat ein kniffliges, von Grok-2 generiertes Bild von Barack Obama in einer öffentlichen Toilette korrekt erkannt
Quelle: Screenshot: Mashable / SDXL Detector
Beleuchtung
Illuminarty bietet einen kostenlosen Plan, der eine grundlegende KI-Bilderkennung bietet. Von den 10 KI-generierten Bildern, die wir hochgeladen haben, stufte es nur 50 Prozent als sehr unwahrscheinlich ein. Zum Entsetzen der Nagetierbiologen stufte es das berüchtigte Rattenschwanzbild mit einer geringen Wahrscheinlichkeit ein, KI-generiert zu sein.

Ähm, das hier schien ein Kinderspiel zu sein.
Quelle: Screenshot: Mashable / Illuminarty
Wie Sie sehen, sind KI-Detektoren meist ziemlich intestine, aber nicht unfehlbar und sollten nicht als einzige Möglichkeit zur Authentifizierung eines Bildes verwendet werden. Manchmal können sie trügerische, von KI generierte Bilder erkennen, obwohl diese echt aussehen, und manchmal liegen sie bei Bildern falsch, die eindeutig von KI erstellt wurden. Genau aus diesem Grund ist eine Kombination von Methoden am besten.
Weitere Tipps und Tips
Die gute alte umgekehrte Bildsuche
Eine weitere Möglichkeit, KI-generierte Bilder zu erkennen, ist die einfache umgekehrte Bildsuche, die Bamshad Mobasher, Professor für Informatik und Direktor des Middle for Internet Intelligence am DePaul College School of Computing and Digital Media in Chicago, empfiehlt. Indem Sie ein Bild bei Google Pictures oder einem Instrument für die umgekehrte Bildsuche hochladen, können Sie die Herkunft des Bildes zurückverfolgen. Wenn das Foto ein scheinbar reales Nachrichtenereignis zeigt, „können Sie möglicherweise feststellen, dass es gefälscht ist oder dass das tatsächliche Ereignis nicht stattgefunden hat“, sagte Mobasher.
Mashable Lichtgeschwindigkeit
Googles Instrument „Über dieses Bild“
Die Google-Suche verfügt außerdem über eine Funktion „Über dieses Bild“, die Kontextinformationen liefert, etwa wann das Bild zum ersten Mal indexiert wurde und wo es sonst noch on-line aufgetaucht ist. Diese finden Sie, indem Sie auf das Image mit den drei Punkten in der oberen rechten Ecke eines Bildes klicken.
Verräterische Zeichen, die mit bloßem Auge erkennbar sind
Apropos: Auch wenn KI-generierte Bilder immer beängstigender werden, lohnt es sich dennoch, nach den verräterischen Zeichen Ausschau zu halten. Wie oben erwähnt, kann es sein, dass Sie gelegentlich noch ein Bild mit verzerrten Händen, etwas zu perfekt aussehendem Haar oder verzerrtem oder unsinnigem Textual content im Bild sehen. Unsere Schwesterseite PCMag abbauen empfiehlt, im Hintergrund nach unscharfen oder verzerrten Objekten oder nach Motiven mit makelloser – und wir meinen porenloser, makelloser – Haut zu suchen.
Auf den ersten Blick sieht das Midjourney-Bild unten aus wie ein Verwandter der Kardashians, der für ein Kochbuch wirbt, das auch von Instagram stammen könnte. Bei näherer Betrachtung erkennt man jedoch das verzerrte Zuckerglas, die verkrümmten Fingerknöchel und die etwas zu glatte Haut.

Auf den zweiten Blick ist nicht alles so wie es auf diesem Bild scheint.
Bildnachweis: Mashable / Midjourney
„KI kann intestine darin sein, die Gesamtszene zu erzeugen, aber der Teufel steckt im Element“, schrieb Sasha Luccioni, Leiterin für KI und Klima bei Hugging Face, in einer E-Mail an Mashable. Achten Sie auf „hauptsächlich kleine Unstimmigkeiten: zusätzliche Finger, asymmetrischer Schmuck oder Gesichtszüge, Unstimmigkeiten bei Objekten (ein zusätzlicher Griff an einer Teekanne).“
Mobasher, der auch Fellow am Institute of Electrical and Electronics Engineers (IEEE) ist, sagte, man solle heranzoomen und nach „merkwürdigen Particulars“ wie verlorenen Pixeln und anderen Unstimmigkeiten suchen, wie zum Beispiel leicht unterschiedlichen Ohrringen.
„Man kann feststellen, dass ein Teil desselben Bildes mit derselben Fokussierung verschwommen ist, ein anderer Teil jedoch sehr detailliert ist“, sagte Mobasher. Dies gilt insbesondere für Bildhintergründe. „Wenn Sie Schilder mit Textual content und dergleichen im Hintergrund haben, sind diese oft verstümmelt oder manchmal nicht einmal wie eine echte Sprache“, fügte er hinzu.
Dieses Bild einer Parade von Volkswagen-Transportern, die einen Strand entlangfahren, wurde von Google Imagen 3 erstellt. Der Sand und die Busse sehen makellos fotorealistisch aus. Aber wenn Sie genau hinsehen, werden Sie feststellen, dass der Schriftzug auf dem dritten Bus, wo das VW-Emblem sein sollte, nur ein verstümmeltes Image ist und dass sich auf dem vierten Bus amorphe Flecken befinden.

Wir sind sicher, dass es irgendwann einmal eine VW-Bus-Parade gegeben hat, aber das hier ist keine.
Bildnachweis: Mashable / Google

Beachten Sie das entstellte Emblem und die seltsamen Flecken.
Bildnachweis: Mashable / Google
Auf die KI-Kompetenz kommt es an
Keine der oben genannten Methoden wird wirklich nützlich sein, wenn Sie beim Konsumieren von Medien – insbesondere sozialen Medien – nicht zunächst innehalten und sich fragen, ob das, was Sie sehen, überhaupt von KI generiert wird. Ähnlich wie Medienkompetenz, die im Zuge der von Desinformation überfluteten Wahlen 2016 zu einem beliebten Konzept wurde, ist KI-Kompetenz die erste Verteidigungslinie, um festzustellen, was wahr ist und was nicht.
Die KI-Forscher Duri Lengthy und Brian Magerko definieren KI-Kompetenz als „eine Reihe von Kompetenzen, die es Einzelpersonen ermöglicht, KI-Technologien kritisch zu bewerten, effektiv mit KI zu kommunizieren und zusammenzuarbeiten und KI als Werkzeug on-line, zu Hause und am Arbeitsplatz zu nutzen.“
Der Schlüssel liegt darin, zu wissen, wie generative KI funktioniert und worauf man achten muss. „Es magazine abgedroschen klingen, aber sich die Zeit zu nehmen, die Herkunft und Quelle der Inhalte zu überprüfen, die man in sozialen Medien sieht, ist ein guter Anfang“, sagte Luccioni.
Fragen Sie sich zunächst nach der Quelle des betreffenden Bildes und dem Kontext, in dem es erscheint. Wer hat das Bild veröffentlicht? Was sagt der Begleittext (falls vorhanden) darüber aus? Haben andere Personen oder Medien das Bild veröffentlicht? Welche Gefühle löst das Bild oder der dazugehörige Textual content bei Ihnen aus? Wenn es so aussieht, als sei es dazu gedacht, Sie zu verärgern oder zu verführen, überlegen Sie, warum.
Wie einige Organisationen das Downside von KI-Deepfakes und Desinformation bekämpfen
Wie wir gesehen haben, sind die Methoden, mit denen Einzelpersonen KI-Bilder von echten unterscheiden können, bisher lückenhaft und begrenzt. Erschwerend kommt hinzu, dass die Verbreitung illegaler oder schädlicher KI-generierter Bilder ein doppeltes Downside darstellt, da die Beiträge Unwahrheiten verbreiten, die dann Misstrauen gegenüber On-line-Medien schüren. Doch im Zuge der generativen KI sind mehrere Initiativen entstanden, um Vertrauen und Transparenz zu stärken.
Der Koalition für Herkunft und Authentizität von Inhalten (C2PA) wurde von Adobe und Microsoft gegründet und umfasst Technologieunternehmen wie OpenAI und Google sowie Medienunternehmen wie Reuters und die BBC. C2PA bietet anklickbare Inhaltsangabe zur Identifizierung der Herkunft von Bildern und ob sie KI-generiert sind. Es liegt jedoch an den Erstellern, die Inhaltsanmeldeinformationen an ein Bild anzuhängen.
Auf der anderen Seite, die Starling-Labor an der Stanford College arbeitet hart daran, echte Bilder zu authentifizieren. Das Starling Lab überprüft „smart digitale Aufzeichnungen, wie etwa die Dokumentation von Menschenrechtsverletzungen, Kriegsverbrechen und Zeugenaussagen über Völkermord“ und speichert verifizierte digitale Bilder sicher in dezentralen Netzwerken, damit sie nicht manipuliert werden können. Die Arbeit des Labors ist nicht benutzerorientiert, aber seine Projektbibliothek ist eine gute Ressource für jemanden, der Bilder beispielsweise vom Krieg in der Ukraine oder dem Präsidentschaftswechsel von Donald Trump zu Joe Biden authentifizieren möchte.
Experten sprechen oft über KI-Bilder im Zusammenhang mit Falschmeldungen und Fehlinformationen, aber KI-Bilder sind nicht stets per se zur Täuschung gedacht. KI-Bilder sind manchmal nur Witze oder Memes, die aus ihrem ursprünglichen Kontext gerissen wurden, oder sie sind lahme Werbung. Oder vielleicht sind sie einfach eine Type des kreativen Ausdrucks mit einer faszinierenden neuen Technologie. Aber ob intestine oder schlecht, KI-Bilder sind heute eine Tatsache. Und es liegt an Ihnen, sie zu erkennen.

Wir paraphrasieren hier Smokey the Bear, aber er würde es verstehen.
Bildnachweis: Mashable / xAI
Themen
Künstliche Intelligenz OpenAI