Mit Sicherheit haben Sie schon einmal ein Bild gesehen und sich gefragt: Ist das wirklich echt? Durch Künstliche Intelligenz lassen sich heute Texte, Bilder und sogar Videos aus technischer Hand erstellen, die kaum mehr von menschlichen Erzeugnissen zu unterscheiden sind. Aus Marketingsicht stellt das eine enorme Arbeitserleichterung dar. Jedoch bringen die technischen Möglichkeiten auch Herausforderungen mit sich.
In diesem Beitrag zeige ich Ihnen, welche Gefahren KI-generierte Bilder bürgen und wie Sie Manipulationen leicht enttarnen.- Was ist ein Deepfake?
- Warum KI-generierte Bilder gefährlich werden können
- Bilder mit KI generieren: Möglichkeiten der Erstellung und Manipulation
- KI-generierte Bilder erkennen: 9 hilfreiche Tipps
- KI gegen KI: KI-Tools zum Erkennen von KI-generierten Bildern
- Fazit: Fake-Bilder entlarven wird zu einem neuen Hard Skill
Was ist ein Deepfake?
Ein Deepfake ist eine manipulierte Mediendatei, die durch fortschrittliche KI-Algorithmen erstellt wurden. Diese künstlich erzeugten Werke wirken täuschend echt und werden mitunter zur Verleumdung, für Desinformationskampagnen oder andere Cyber-Verbrechen eingesetzt. Deep Fakes haben das Potenzial, ernsthafte Auswirkungen auf die Gesellschaft zu haben, indem sie die Grenzen zwischen Realität und Fiktion verschwimmen lassen und die Verbreitung von Falschinformationen begünstigen.
Warum KI-generierte Bilder gefährlich werden können
Für das Marketing ergeben sich durch KI-generierte Bilder effiziente Methoden Kampagnen zu kreieren, die weitaus günstiger sind als herkömmliche Produktionen. Die spanische KI-Instagrammerin Aitana wurde von der Agentur The Clueless ins Leben gerufen und vermarktet. Mittlerweile verdient der Entwickler Rubén Cruz durch die virtuelle Influencerin bis zu 10.000 Euro im Monat.
Warum KI-generierte Bilder jedoch auch einen erheblichen Schaden verursachen können, zeigte sich Anfang 2023. Plötzlich kursierten im Internet Bilder von Donald Trump, der angeblich festgenommen wurde. Bei den Bildern handelte es sich jedoch um KI-generierte Bilder. Beim genauen Betrachten fällt auf, dass die Hände der Polizisten verzerrt sind. Bildfehler wie diese entlarven Deepfakes, sind jedoch nicht immer auf den ersten Blick zu erkennen.
Quelle: Screenshot Corrective
Ein weiteres Opfer KI-generierter Bilder wurde Tesla-Gründer Elon Musk, der Händchen-haltend mit General Motors CEO Mary Bara gesehen worden sein soll. Doch auch bei diesem fälschlich kursierenden Foto handelte es sich um ein durch KI-generiertes Bild. Weil von Prominenten viele Beispielbilder im Netz kursieren, ist es für die Algorithmen hier besonders leicht, gefälschte Fotos zu erzeugen.
Quelle: Screenshot x.com
Bilder mit KI generieren: Möglichkeiten der Erstellung und Manipulation
Midjourney, Dall-E, Stable Diffusion oder DeepAI: Die Anzahl der KI-Tools, mit denen sich fotorealistische Bilder kreieren lassen, steigt immer weiter an. Doch mit den Chancen steigen auch die Risiken. Das Bundesamt für Sicherheit der Informationssicherheit warnt vor möglichen Bedrohungsszenarien durch Deepfakes. Dazu gehören:
- die Überwindung biometrischer Systeme (beispielsweise Ausweisfälschung)
- Social Engineering (beispielsweise Phishing-Angriffe)
- Desinformationskampagnen sowie
- Verleumdung (wie beispielsweise im Fall von Elon Musk)
Im Bereich KI-generierter Bilder sind vor allem zwei Methoden besonders gefährlich. Das sind Face Swapping und Face Reenactment. Face Swapping ermöglicht es, Gesichter in vorhandenen Bildern durch andere Gesichter zu ersetzen. Face-Reenactment hingegen überträgt Gesichtsbewegungen einer Person auf eine andere. Beide Methoden können zur Erstellung von täuschend echten Videos und Bildern verwendet werden.
ChatGPT-Playbook
Entdecken Sie die vielfältigen Einsatzmöglichkeiten von ChatGPT in Ihren Marketing- und Vertriebsstrategien.
- Konkrete Marketing-Anwendungen mit ChatGPT
- Optimierung und Automatisierung von Marketingprozessen
- Nutzung von ChatGPT für effektive Kommunikation
- 84 kostenlose ChatGPT-Prompt-Vorlagen
KI-generierte Bilder erkennen: 9 hilfreiche Tipps
Gerade im Nachrichten-Sektor ist es wichtig, KI-generierte Bilder zu erkennen, um den Wahrheitsgehalt von Informationen zu überprüfen. Springt Ihre Marketing-Abteilung auf den Zug von Fake News auf und teilt fälschliche Informationen mit der Community, kann das zu schweren Imageschäden führen.
Daher habe ich Ihnen nachfolgend 9 hilfreiche Tipps zusammengestellt, mit denen Sie KI-generierte Bilder entlarven.
-
Typische KI-Fehler erkennen
Ein aktuelles Problem von Plattformen wie DALL-E und Midjourney ist die Darstellung von Händen und Füßen. Wie im Beispiel von Donald Trump haben Personen häufig zu viele oder zu wenige Finger. Solche Auffälligkeiten geben Ihnen ein eindeutiges Anzeichen dafür, dass es sich um manipulierte oder gefälschte Darstellungen handelt. Wie im Bild unten können auch verzogene Gesichtskonturen ein deutliches Anzeichen sein.
Quelle: Detect Fake
-
Alles scheint makellos
Seien Sie skeptisch gegenüber Bildern, die unnatürlich perfekt erscheinen. KI-generierte Bilder neigen dazu, zu glatt und idealisiert zu wirken. Echte Fotografien weisen im Gegensatz dazu realistische Unregelmäßigkeiten und Anzeichen von Authentizität ab. Ist die Haut von Personen zu glatt oder zu faltig oder sind die Konturen einer Landschaft zu scharf gezeichnet, handelt es sich sehr wahrscheinlich um ein KI-generiertes Bild.
Quelle: Detect Fake
-
Bildhintergrund genauer untersuchen
Analysieren Sie den Hintergrund des Bildes genau auf Inkonsistenzen oder ungewöhnliche Elemente, die auf eine Bearbeitung hinweisen könnten. Anomalien, Fehler in der Unschärfe oder nicht korrekte Schatten geben Anzeichen dafür, dass Bilder manipuliert worden sind. Im Beispielbild ist die Person auf der Bank unförmig dargestellt.
Quelle: Detect Fake
-
Schrift und Zeichen genau analysieren
Midjourney und DALL-E haben häufig Probleme Schrift und Zeichen korrekt darzustellen. Prüfen Sie deshalb Text und Symbole im Bild auf mögliche Fehler. Oftmals sind die Schriftarten oder die Platzierung von Text in KI-generierten Bildern nicht konsistent oder passen nicht zum Rest des Bildes.
-
Nachrichten und Hintergrundinformationen überprüfen
Recherchieren Sie die Nachrichten und Hintergrundinformationen, die mit dem Bild im Zusammenhang stehen, um dessen Echtheit zu prüfen. Durch zuverlässige Quellen können Sie die Authentizität des Bildes bestätigen und mögliche Fälschungen aufdecken.
Ein Soldat, der mit einem weißen Hasen posiert? Das hätten Sie sicher in den Nachrichten gelesen.
Quelle: Detect Fake
-
Sinn des Bildes hinterfragen
Hinterfragen Sie immer auch den Kontext eines Bildes und die damit verbundenen Absichten. Manchmal können KI-generierte Bilder erstellt werden, um eine bestimmte Agenda zu fördern oder eine falsche Darstellung von Ereignissen zu streuen. Verbreiten sich hetzerische Bilder wie ein Lauffeuer, sollten Sie die Echtheit immer infrage stellen.
-
Meta-Daten überprüfen
Änderungen an den Meta-Daten oder das Fehlen wichtiger Informationen können auf eine nachträgliche Bearbeitung des Bildes hinweisen. Die Meta-Daten enthalten Informationen zur Urheberin oder zum Urheber, Entstehungszeit sowie -datum. Bilder, die mit DALL-E kreiert wurden, geben in den Meta-Daten einen eindeutigen Hinweis drauf, dass hier KI am Werk war.
-
Rückwärtssuche nutzen
Nutzen Sie Google oder andere Tools zur Rückwärtssuche von Bildern. Geben Sie dafür das Bild in die Suchmaschine ein und finden Sie ähnliche oder identische Bilder im Internet, um die Herkunft zu überprüfen. Durch die Suche nach Bildern können Sie feststellen, ob das Bild bereits bekannt ist oder in anderen Kontexten verwendet wurde. Finden Sie keinerlei Informationen, ist das Bild mit großer Wahrscheinlichkeit KI-generiert.
-
Schulen Sie sich selbst
Ein letzter Tipp: Bilden Sie sich regelmäßig fort und halten Sie sich über neue Entwicklungen im Bereich der KI-Generierungstechnologien auf dem Laufenden, um Ihre Fähigkeiten zur Bilderkennung zu verbessern. Die Northwestern University hat in Anlehnung an Studien am MIT Media Lab die Internetseite DETECT FAKES entwickelt, mit der Sie Ihr Auge trainieren können. Neben echten Fotografien verstecken sich hier täuschend echte, KI-generierte Bilder. Durch den Test schulen Sie nicht nur sich selbst, sondern liefern der Forschung zusätzlich wichtige Daten, die dabei helfen, zu verstehen, wie gut wir Menschen darin sind, echte Bilder von KI-generierten Inhalten zu unterscheiden.
KI gegen KI: KI-Tools zum Erkennen von KI-generierten Bildern
Es gibt einige KI-Tools, die speziell darauf ausgelegt sind, KI-generierte Bilder zu erkennen und zu analysieren. Diese Tools nutzen ausgefeilte Algorithmen und Deep-Learning-Techniken, um Muster und Anomalien in den Bildern zu identifizieren. KI gegen KI – klingt absurd, aber es funktioniert.
Obwohl der Markt der KI-Erkennungstools kleiner ist als der der Generatoren, gibt es Ausnahmen. Zu den wichtigsten Erkennungstools gehören:
- Hive
- Reality Defender
- Deepware Scanner (vor allem für Videos)
- Sensity AI
Fazit: Fake-Bilder entlarven wird zu einem neuen Hard Skill
Angesichts der steigenden Verbreitung von Deepfakes wird auch für Marketingabteilungen die Fähigkeit, KI-generierte Bilder zu erkennen, entscheidend. Die vorgestellten Tipps geben Ihnen einen Leitfaden, um Fälschungen besser zu identifizieren. KI-gestützte Tools zur Bilderkennung zeigen, dass auch Technologie gegen Technologie als Lösung dienen kann. Durch eine kontinuierliche Schulung trainieren Sie Ihr Auge und schützen sich und Ihre Abteilung vor der Verbreitung von Falschinformationen.
Titelbild: HubSpot