Find out how to determine AI-generated pictures


Zunächst die schlechte Nachricht: Es ist wirklich schwierig, KI-generierte Bilder zu erkennen. Die verräterischen Zeichen, die früher für Aufschluss sorgten – verzerrte Hände und durcheinander geratener Textual content – werden immer seltener, da sich KI-Modelle in schwindelerregendem Tempo verbessern.

Es ist nicht mehr offensichtlich, welche Bilder mit gängigen Instruments wie Midjourney, Steady Diffusion, DALL-E und Gemini erstellt wurden. Tatsächlich täuschen KI-generierte Bilder die Menschen immer mehr, was zu großen Problemen bei der Verbreitung von Fehlinformationen geführt hat. Die gute Nachricht ist, dass es normalerweise nicht unmöglich ist, KI-generierte Bilder zu identifizieren, aber es erfordert mehr Aufwand als früher.

KI-Bilddetektoren – mit Vorsicht vorgehen

Diese Instruments nutzen Pc Imaginative and prescient, um Pixelmuster zu untersuchen und die Wahrscheinlichkeit zu bestimmen, dass ein Bild von KI generiert wurde. Das heißt, KI-Detektoren sind nicht absolut narrensicher, aber für den Durchschnittsmenschen sind sie eine gute Möglichkeit, festzustellen, ob ein Bild einer genaueren Betrachtung bedarf – insbesondere, wenn dies nicht sofort offensichtlich ist.

„Leider ist es für das menschliche Auge – und Dort Sind Ansichten — die Wahrscheinlichkeit, dass eine Individual es bekommt, liegt bei etwa 50:50″, sagte Anatoly Kvitnitsky, CEO der KI-Bilderkennungsplattform KI oder nicht„Aber bei der KI-Erkennung von Bildern gibt es diese aufgrund der pixelartigen Muster immer noch, auch wenn die Modelle immer besser werden.“ Kvitnitsky behauptet, dass AI or Not im Durchschnitt eine Genauigkeitsrate von 98 Prozent erreicht.

Weitere KI-Detektoren mit allgemein hohen Erfolgsquoten sind Hive-Moderation, SDXL-Detektor auf Hugging Face und BeleuchtungWir haben zehn KI-generierte Bilder auf all diesen Detektoren getestet, um zu sehen, wie sie abschneiden.

KI oder nicht

Im Gegensatz zu anderen KI-Bilddetektoren gibt AI or Not ein einfaches „Ja“ oder „Nein“ aus, hat aber korrekt angegeben, dass das Bild KI-generiert wurde. Mit dem kostenlosen Plan erhalten Sie 10 Uploads professional Monat. Wir haben es mit 10 Bildern versucht und eine Erfolgsquote von 80 Prozent erzielt.

Der Bilddetektor „AI or Not“ erkennt ein Bild von Donald Trump, der eine Schubkarre voller Muffins trägt, korrekt als KI-generiert.

KI oder Nicht hat dieses Bild korrekt als KI-generiert erkannt.
Quelle: Screenshot: Mashable / AI or Not

Hive-Moderation

Wir haben das kostenlose Demo-Instrument von Hive Moderation mit über 10 verschiedenen Bildern ausprobiert und eine Gesamterfolgsquote von 90 Prozent erzielt. Das bedeutet, dass die Bilder mit hoher Wahrscheinlichkeit von der KI generiert wurden. Die KI-Qualitäten eines künstlichen Bilds einer Armee von Streifenhörnchen, die eine Felswand erklimmt, konnte das Instrument jedoch nicht erkennen.

Der Hive-Moderations-KI-Detektor besagt, dass ein KI-generiertes Bild einer Armee von Streifenhörnchen, die eine Steinmauer erklimmt, mit einer Wahrscheinlichkeit von 13,8 Prozent durch KI generiert wurde.

Wir würden gerne glauben, dass es eine Streifenhörnchen-Armee gibt, aber der KI-Detektor hat sich geirrt.
Quelle: Screenshot: Mashable / Hive Moderation

SDXL-Detektor

Der SDXL-Detektor von Hugging Face braucht ein paar Sekunden zum Laden und beim ersten Versuch wird möglicherweise eine Fehlermeldung angezeigt, aber er ist völlig kostenlos. Stattdessen gibt er auch eine Wahrscheinlichkeitsprozentzahl an. Er besagt, dass 70 Prozent der KI-generierten Bilder mit hoher Wahrscheinlichkeit generative KI sind.

Der SDXL-Detektor erkennt ein Bild von Barack Obama an einem Waschbecken korrekt als KI-generiert

SDXL Detector hat ein kniffliges, von Grok-2 generiertes Bild von Barack Obama in einer öffentlichen Toilette korrekt erkannt
Quelle: Screenshot: Mashable / SDXL Detector

Beleuchtung

Illuminarty bietet einen kostenlosen Plan, der eine grundlegende KI-Bilderkennung bietet. Von den 10 KI-generierten Bildern, die wir hochgeladen haben, stufte es nur 50 Prozent als sehr unwahrscheinlich ein. Zum Entsetzen der Nagetierbiologen stufte es das berüchtigte Rattenschwanzbild mit einer geringen Wahrscheinlichkeit ein, KI-generiert zu sein.

Der KI-Detektor von Illuminarty sagt, dass die Wahrscheinlichkeit, dass eine KI-generierte Zeichnung einer Ratte mit einem scheinbar riesigen Penis von einer KI stammt, gering ist.

Ähm, das hier schien ein Kinderspiel zu sein.
Quelle: Screenshot: Mashable / Illuminarty

Wie Sie sehen, sind KI-Detektoren meist ziemlich intestine, aber nicht unfehlbar und sollten nicht als einzige Möglichkeit zur Authentifizierung eines Bildes verwendet werden. Manchmal können sie trügerische, von KI generierte Bilder erkennen, obwohl diese echt aussehen, und manchmal liegen sie bei Bildern falsch, die eindeutig von KI erstellt wurden. Genau aus diesem Grund ist eine Kombination von Methoden am besten.

Weitere Tipps und Tips

Die gute alte umgekehrte Bildsuche

Eine weitere Möglichkeit, KI-generierte Bilder zu erkennen, ist die einfache umgekehrte Bildsuche, die Bamshad Mobasher, Professor für Informatik und Direktor des Middle for Internet Intelligence am DePaul College School of Computing and Digital Media in Chicago, empfiehlt. Indem Sie ein Bild bei Google Pictures oder einem Instrument für die umgekehrte Bildsuche hochladen, können Sie die Herkunft des Bildes zurückverfolgen. Wenn das Foto ein scheinbar reales Nachrichtenereignis zeigt, „können Sie möglicherweise feststellen, dass es gefälscht ist oder dass das tatsächliche Ereignis nicht stattgefunden hat“, sagte Mobasher.

Mashable Lichtgeschwindigkeit

Googles Instrument „Über dieses Bild“

Die Google-Suche verfügt außerdem über eine Funktion „Über dieses Bild“, die Kontextinformationen liefert, etwa wann das Bild zum ersten Mal indexiert wurde und wo es sonst noch on-line aufgetaucht ist. Diese finden Sie, indem Sie auf das Image mit den drei Punkten in der oberen rechten Ecke eines Bildes klicken.

Verräterische Zeichen, die mit bloßem Auge erkennbar sind

Apropos: Auch wenn KI-generierte Bilder immer beängstigender werden, lohnt es sich dennoch, nach den verräterischen Zeichen Ausschau zu halten. Wie oben erwähnt, kann es sein, dass Sie gelegentlich noch ein Bild mit verzerrten Händen, etwas zu perfekt aussehendem Haar oder verzerrtem oder unsinnigem Textual content im Bild sehen. Unsere Schwesterseite PCMag abbauen empfiehlt, im Hintergrund nach unscharfen oder verzerrten Objekten oder nach Motiven mit makelloser – und wir meinen porenloser, makelloser – Haut zu suchen.

Auf den ersten Blick sieht das Midjourney-Bild unten aus wie ein Verwandter der Kardashians, der für ein Kochbuch wirbt, das auch von Instagram stammen könnte. Bei näherer Betrachtung erkennt man jedoch das verzerrte Zuckerglas, die verkrümmten Fingerknöchel und die etwas zu glatte Haut.

KI-generiertes Bild einer Frau mit langen braunen Haaren, die in einer sonnigen Küche Gemüse schneidet

Auf den zweiten Blick ist nicht alles so wie es auf diesem Bild scheint.
Bildnachweis: Mashable / Midjourney

„KI kann intestine darin sein, die Gesamtszene zu erzeugen, aber der Teufel steckt im Element“, schrieb Sasha Luccioni, Leiterin für KI und Klima bei Hugging Face, in einer E-Mail an Mashable. Achten Sie auf „hauptsächlich kleine Unstimmigkeiten: zusätzliche Finger, asymmetrischer Schmuck oder Gesichtszüge, Unstimmigkeiten bei Objekten (ein zusätzlicher Griff an einer Teekanne).“

Mobasher, der auch Fellow am Institute of Electrical and Electronics Engineers (IEEE) ist, sagte, man solle heranzoomen und nach „merkwürdigen Particulars“ wie verlorenen Pixeln und anderen Unstimmigkeiten suchen, wie zum Beispiel leicht unterschiedlichen Ohrringen.

„Man kann feststellen, dass ein Teil desselben Bildes mit derselben Fokussierung verschwommen ist, ein anderer Teil jedoch sehr detailliert ist“, sagte Mobasher. Dies gilt insbesondere für Bildhintergründe. „Wenn Sie Schilder mit Textual content und dergleichen im Hintergrund haben, sind diese oft verstümmelt oder manchmal nicht einmal wie eine echte Sprache“, fügte er hinzu.

Dieses Bild einer Parade von Volkswagen-Transportern, die einen Strand entlangfahren, wurde von Google Imagen 3 erstellt. Der Sand und die Busse sehen makellos fotorealistisch aus. Aber wenn Sie genau hinsehen, werden Sie feststellen, dass der Schriftzug auf dem dritten Bus, wo das VW-Emblem sein sollte, nur ein verstümmeltes Image ist und dass sich auf dem vierten Bus amorphe Flecken befinden.

Bild 3: Generiertes Bild einer Parade von Volkswagen-Bussen, die bei Sonnenuntergang an einem Strand entlangfahren

Wir sind sicher, dass es irgendwann einmal eine VW-Bus-Parade gegeben hat, aber das hier ist keine.
Bildnachweis: Mashable / Google

Nahaufnahme des in Bild 3 generierten Bildes einer Parade von Volkswagen-Bussen, die bei Sonnenuntergang an einem Strand entlangfahren

Beachten Sie das entstellte Emblem und die seltsamen Flecken.
Bildnachweis: Mashable / Google

Auf die KI-Kompetenz kommt es an

Keine der oben genannten Methoden wird wirklich nützlich sein, wenn Sie beim Konsumieren von Medien – insbesondere sozialen Medien – nicht zunächst innehalten und sich fragen, ob das, was Sie sehen, überhaupt von KI generiert wird. Ähnlich wie Medienkompetenz, die im Zuge der von Desinformation überfluteten Wahlen 2016 zu einem beliebten Konzept wurde, ist KI-Kompetenz die erste Verteidigungslinie, um festzustellen, was wahr ist und was nicht.

Die KI-Forscher Duri Lengthy und Brian Magerko definieren KI-Kompetenz als „eine Reihe von Kompetenzen, die es Einzelpersonen ermöglicht, KI-Technologien kritisch zu bewerten, effektiv mit KI zu kommunizieren und zusammenzuarbeiten und KI als Werkzeug on-line, zu Hause und am Arbeitsplatz zu nutzen.“

Der Schlüssel liegt darin, zu wissen, wie generative KI funktioniert und worauf man achten muss. „Es magazine abgedroschen klingen, aber sich die Zeit zu nehmen, die Herkunft und Quelle der Inhalte zu überprüfen, die man in sozialen Medien sieht, ist ein guter Anfang“, sagte Luccioni.

Fragen Sie sich zunächst nach der Quelle des betreffenden Bildes und dem Kontext, in dem es erscheint. Wer hat das Bild veröffentlicht? Was sagt der Begleittext (falls vorhanden) darüber aus? Haben andere Personen oder Medien das Bild veröffentlicht? Welche Gefühle löst das Bild oder der dazugehörige Textual content bei Ihnen aus? Wenn es so aussieht, als sei es dazu gedacht, Sie zu verärgern oder zu verführen, überlegen Sie, warum.

Wie einige Organisationen das Downside von KI-Deepfakes und Desinformation bekämpfen

Wie wir gesehen haben, sind die Methoden, mit denen Einzelpersonen KI-Bilder von echten unterscheiden können, bisher lückenhaft und begrenzt. Erschwerend kommt hinzu, dass die Verbreitung illegaler oder schädlicher KI-generierter Bilder ein doppeltes Downside darstellt, da die Beiträge Unwahrheiten verbreiten, die dann Misstrauen gegenüber On-line-Medien schüren. Doch im Zuge der generativen KI sind mehrere Initiativen entstanden, um Vertrauen und Transparenz zu stärken.

Der Koalition für Herkunft und Authentizität von Inhalten (C2PA) wurde von Adobe und Microsoft gegründet und umfasst Technologieunternehmen wie OpenAI und Google sowie Medienunternehmen wie Reuters und die BBC. C2PA bietet anklickbare Inhaltsangabe zur Identifizierung der Herkunft von Bildern und ob sie KI-generiert sind. Es liegt jedoch an den Erstellern, die Inhaltsanmeldeinformationen an ein Bild anzuhängen.

Auf der anderen Seite, die Starling-Labor an der Stanford College arbeitet hart daran, echte Bilder zu authentifizieren. Das Starling Lab überprüft „smart digitale Aufzeichnungen, wie etwa die Dokumentation von Menschenrechtsverletzungen, Kriegsverbrechen und Zeugenaussagen über Völkermord“ und speichert verifizierte digitale Bilder sicher in dezentralen Netzwerken, damit sie nicht manipuliert werden können. Die Arbeit des Labors ist nicht benutzerorientiert, aber seine Projektbibliothek ist eine gute Ressource für jemanden, der Bilder beispielsweise vom Krieg in der Ukraine oder dem Präsidentschaftswechsel von Donald Trump zu Joe Biden authentifizieren möchte.

Experten sprechen oft über KI-Bilder im Zusammenhang mit Falschmeldungen und Fehlinformationen, aber KI-Bilder sind nicht stets per se zur Täuschung gedacht. KI-Bilder sind manchmal nur Witze oder Memes, die aus ihrem ursprünglichen Kontext gerissen wurden, oder sie sind lahme Werbung. Oder vielleicht sind sie einfach eine Type des kreativen Ausdrucks mit einer faszinierenden neuen Technologie. Aber ob intestine oder schlecht, KI-Bilder sind heute eine Tatsache. Und es liegt an Ihnen, sie zu erkennen.

Von grok-2 künstlicher Intelligenz generiertes Bild von Smokey, dem Bären, hinter drei Kindern, die ein Schild mit der Aufschrift „Nur du kannst KI-Futter erkennen“ halten.

Wir paraphrasieren hier Smokey the Bear, aber er würde es verstehen.
Bildnachweis: Mashable / xAI

Themen
Künstliche Intelligenz OpenAI





Supply hyperlink

Leave a Comment

Your email address will not be published. Required fields are marked *