Wie moderne Technologie die Wahrheit untergräbt Wie moderne Technologie die Wahrheit untergräbt

und was das für die Zukunft bedeutet

How modern - Image
Länder mit den größten Zuwächsen an Deepfake-spezifischem Betrug
Klicken Sie auf einen Kontinent, um die Statistiken zum KI-Betrug anzuzeigen
  • Canada
    477 Canada
  • Mexico
    700 Mexico
  • USA
    3000 U.S.A.
  • Brazil
    828 Brazil
  • Argentina
    766 Argentina
  • Algeria
    1000 Algeria
  • UAE
    1000 U.A.E.
  • Südafrika
    1200 Südafrika
  • Belgium
    2980 Belgium
  • Slovakia
    1500 Slovakia
  • Romania
    1766 Romania
  • Vietnam
    3050 Vietnam
  • Japan
    2800 Japan
  • Philippines
    4500 Philippines

Deepfakes: Täuschung oder Bedrohung?

Vorteile

Nachteile

KI-generierte Inhalte

Deepfakes werden missbraucht, um nicht-einvernehmliche explizite Inhalte zu erstellen. Davon betroffen sind unter anderem bekannte Persönlichkeiten wie Taylor Swift und Xochitl Gomez – aber auch jede Person, die Fotos online teilt.

Manipulation von Sprache und Bildern

Beunruhigende Beispiele sind Deepfakes von Joe Biden oder dem slowakischen Politiker Michal Šimečka, die eingesetzt wurden, um Wahlergebnisse zu beeinflussen.

Gesichtstausch bei Schauspielern im Film

Ein bekanntes Beispiel ist „Fast & Furious 7", in dem der Schauspieler Paul Walker mithilfe von Deepfake-Technologie zu sehen war – obwohl er 2013 während der Dreharbeiten verstarb.

Spannende Präsentationen

Deepfake-Algorithmen erwecken historische Persönlichkeiten zum Leben und machen Vorträge und Präsentationen oft fesselnder als traditionelle Unterrichtsmethoden oder Schulbücher.

Dynamische Produktpräsentationen

Mit KI-generierten Modellen lassen sich Produkte wie Kleidung digital präsentieren – ganz ohne aufwändige Fotoshootings. Auch virtuelle Einkaufserlebnisse werden dadurch möglich.

Wie erkennt man ein Deepfake?

Techniken zur Erkennung von Deepfakes: Wichtige Hinweise

Gesichts- und Körperbewegungen:

Künstliche Intelligenz hat Schwierigkeiten mit natürlichen Gesichtsausdrücken und Bewegungsabläufen, was oft einen „Uncanny Valley"-Effekt erzeugt.

Verzerrter Ton:

Zusätzliche Störgeräusche im Ton können auf Manipulationen hindeuten, die Veränderungen verbergen sollen.

Unnatürliches Blinzeln:

Viele Deepfakes zeigen unnatürliches oder gar fehlendes Blinzeln, da es für KI schwierig ist, dieses Verhalten realistisch zu simulieren.

Schatten und Spiegelungen:

Reflexionen und Schatten sind für Deepfakes schwer nachzubilden. Achten Sie auf Unregelmäßigkeiten auf Oberflächen oder in den Augen.

Probleme mit der Pupillenerweiterung:

Künstliche Intelligenz kann die natürliche Reaktion der Pupillen oft nicht korrekt imitieren. Die Augen wirken dadurch unnatürlich.

Unstimmigkeiten bei der Lippenbewegung:

Veränderter Ton in Kombination mit Video führt häufig zu einer fehlerhaften Lippensynchronisation. Achten Sie auf Abweichungen zwischen Ton und Bewegung.

Gesichts- und Körperbewegungen:

Künstliche Intelligenz hat Schwierigkeiten mit natürlichen Gesichtsausdrücken und Bewegungsabläufen, was oft einen „Uncanny Valley"-Effekt erzeugt.

Verzerrter Ton:

Zusätzliche Störgeräusche im Ton können auf Manipulationen hindeuten, die Veränderungen verbergen sollen.

Unnatürliches Blinzeln:

Viele Deepfakes zeigen unnatürliches oder gar fehlendes Blinzeln, da es für KI schwierig ist, dieses Verhalten realistisch zu simulieren.

Click Zone Click Zone Click Zone Click Zone Click Zone Click Zone
How to spot a deepfake? How to spot a deepfake?
Schatten und Spiegelungen:

Reflexionen und Schatten sind für Deepfakes schwer nachzubilden. Achten Sie auf Unregelmäßigkeiten auf Oberflächen oder in den Augen.

Probleme mit der Pupillenerweiterung:

Künstliche Intelligenz kann die natürliche Reaktion der Pupillen oft nicht korrekt imitieren. Die Augen wirken dadurch unnatürlich.

Unstimmigkeiten bei der Lippenbewegung:

Veränderter Ton in Kombination mit Video führt häufig zu einer fehlerhaften Lippensynchronisation. Achten Sie auf Abweichungen zwischen Ton und Bewegung.

Ihre Daten könnten gegen Sie verwendet werden

Identitätsbetrugsraten
hier klicken zum Öffnen
2021
2022
2023
0 0.5% 1.0% 1.5% 2.0%
Top 5 Branchen mit dem höchsten Anteil an Identitätsbetrug:
hier klicken zum Öffnen
  • Online Medien 4.27%
  • Professionelle Dienstleistungen 3.14%
  • Gesundheitswesen 2.41%
  • Transportwesen 2.03%
  • Videospiele 1.82%
Prozentsatz von Betrug mit Ausweisdokumenten nach Ländern
hier klicken zum Öffnen
  • Palau
    21.78
  • Guinea
    13.65
  • Afganistan - Flag Afganistan
    10.19
  • Chad
    7.02
  • Bangladesh
    6.11
  • Pakistan
    4.85
  • Yemen
    4.74
  • Bahrain
    4.71
  • Tanzania
    4.61
  • UK
    4.33
0,00% 15,00% 30,00%

Wie Deepfakes mit Emotionen spielen: Angst, Dringlichkeit und Vertrauen

Vertrauen in visuelle und akustische Inhalte

Menschen neigen dazu, dem zu vertrauen, was sie sehen und hören – besonders wenn es authentisch wirkt oder von einer vertrauten Quelle stammt. Deepfakes nutzen dieses Vertrauen aus, indem sie realistisch wirkende manipulierte Inhalte erzeugen, etwa Videos mit bekannten Persönlichkeiten. Dies führt dazu, dass Zuschauer Informationen glauben, ohne sie zu überprüfen.

Manipulation durch Angst und Dringlichkeit

Deepfake-Videos können starke Emotionen wie Angst oder Handlungsdruck auslösen, zum Beispiel durch fingierte Notfälle oder Evakuierungsaufrufe. Solche Inhalte führen oft zu impulsiven Reaktionen auf Falschinformationen, ohne dass die Echtheit hinterfragt wird. Emotionen beeinflussen Entscheidungen häufig stärker als rationale Überlegungen.

Bestätigungsfehler (Confirmation Bias)

Deepfakes werden gezielt so gestaltet, dass sie mit den bestehenden Überzeugungen des Publikums übereinstimmen. Sie nutzen die Tendenz aus, nur Informationen zu akzeptieren, die die eigene Sichtweise bestätigen. Wenn Inhalte persönliche Meinungen widerspiegeln, werden sie leichter als wahr akzeptiert – dadurch sind Deepfakes besonders effektiv bei der Manipulation der öffentlichen Meinung.

Digitale Täuschung bekämpfen – mit Wissen über Deepfakes

Digitale Täuschung bekämpfen – mit Wissen über Deepfakes

Sich vor Deepfakes zu schützen, ist fast unmöglich. Die Technologie entwickelt sich rasant, aber einige Tipps können Ihre Online Sicherheit dennoch verbessern:

How modern - Image
Personal information image
Verwaltung persönlicher Informationen

Veröffentlichen Sie weniger persönliche Daten im Internet – insbesondere keine hochwertigen Fotos oder Videos. Passen Sie Ihre Datenschutzeinstellungen an, um den Zugriff auf vertrauenswürdige Kontakte zu beschränken.

Personal information image
Sichern Sie Ihre Konten

Nutzen Sie die Zwei-Faktor-Authentifizierung (MFA) und wählen Sie starke, einmalige Passwörter, um Ihre Konten und persönlichen Informationen zu schützen.

Personal information image
Kontrolle über persönliche Informationen:

Beschränken Sie die Menge an persönlichen Daten, die Sie online teilen, vor allem Bilder und Videos in hoher Qualität. Verwenden Sie Privatsphäre-Einstellungen, damit nur vertrauenswürdige Personen Zugriff auf Ihre Inhalte haben.

Personal information image
Reaktion auf Deepfakes

Wenn Sie auf Deepfake-Inhalte stoßen, melden Sie diese der jeweiligen Plattform und wenden Sie sich an die Strafverfolgungsbehörden oder juristische Fachstellen.

Technologische Unterstützung
Colors
Technological assistance - Image
Technological assistance - Image 100% von KI erstellt
Microsoft Video Authenticator Tool

Microsofts Video Authenticator nutzt Künstliche Intelligenz, um Deepfake-Bearbeitungen zu erkennen, indem subtile Fehler wie Ausblendungen oder Graustufen-Elemente identifiziert werden, die für das menschliche Auge unsichtbar sind.

Attestiv

Das Update von Attestiv aus dem Jahr 2024 verwendet maschinelles Lernen, um Deepfakes zu erkennen und Medieninhalte zu verifizieren. Potenzielle Manipulationen werden mithilfe von Heatmaps auf Pixelebene visualisiert.

Colors
Technological assistance - Image
Technological assistance - Image 100% von KI erstellt
DeepMedia.AI

DeepID erkennt Deepfakes durch die Analyse von Pixelveränderungen, Bildartefakten, Tonhöhe, Klangfarbe, spektralen Mustern im Audiobereich sowie Gesichtsausdrücken und Körperbewegungen im Videobereich.

Sensity AI

Sensity AI nutzt eine eigene API zur Erkennung von Deepfakes, indem typische Artefakte und hochfrequente Signale identifiziert werden, wie sie bei KI-generierten Inhalten häufig vorkommen.

Können Sie ein Deepfake erkennen?

KI-generiert oder echt?

Sehen Sie sich dieses Bild an und entscheiden Sie, ob es Ihrer Meinung nach von künstlicher Intelligenz erstellt wurde oder nicht – und wie sicher Sie sich bei dieser Einschätzung sind. Sie haben unbegrenzt Zeit, um das Bild zu betrachten.

Test - girls
Test - family
Test - old
Test - women
Wählen Sie, ob das Bild fake oder echt ist, um zu verifizieren.
Sie haben verpasst

Bitte vervollständigen Sie alle Tests, um fortzufahren.

Ihre Punktzahl ist /4

Das bedeutet, Sie müssen im Internet vorsichtiger sein. Seien Sie achtsam bei Deepfake-Inhalten, da es schwierig sein kann, zwischen echten und gefälschten Informationen zu unterscheiden. Überprüfen Sie außerdem immer die Quellen von Nachrichten und vermeiden Sie es, sensible persönliche Informationen zu teilen, da dies das Risiko von Missbrauch oder Online-Betrug erhöhen kann. Bleiben Sie wachsam und schützen Sie Ihre Online-Präsenz!

Das zeigt, dass Sie Fortschritte beim Verständnis von Online-Risiken machen, aber es gibt noch Raum für Verbesserungen. Seien Sie vorsichtig bei Deepfake-Inhalten, da diese manchmal schwer zu identifizieren sind. Machen Sie es sich zur Gewohnheit, Nachrichtenquellen zu überprüfen und zweimal nachzudenken, bevor Sie sensible persönliche Informationen teilen, um möglichen Missbrauch zu vermeiden. Sie sind auf dem Weg, wachsamer und sicherer in Ihren Online-Aktivitäten zu werden – machen Sie weiter so!

Das zeigt, dass Sie Fortschritte beim Verständnis von Online-Risiken machen, aber es gibt noch Raum für Verbesserungen. Seien Sie vorsichtig bei Deepfake-Inhalten, da diese manchmal schwer zu identifizieren sind. Machen Sie es sich zur Gewohnheit, Nachrichtenquellen zu überprüfen und zweimal nachzudenken, bevor Sie sensible persönliche Informationen teilen, um möglichen Missbrauch zu vermeiden. Sie sind auf dem Weg, wachsamer und sicherer in Ihren Online-Aktivitäten zu werden – machen Sie weiter so!

Das bedeutet, Sie sind bereits achtsam bei einigen Online-Risiken! Um auf diesem positiven Weg fortzufahren, schärfen Sie weiterhin Ihr Bewusstsein im Internet. Seien Sie aufmerksam bei Deepfake-Inhalten und überprüfen Sie immer die Quellen – Sie sind auf dem richtigen Weg, ein versierter und sicherer Online-Nutzer zu werden. Großartige Arbeit, und machen Sie weiter so beim Schutz Ihrer Online-Präsenz!

Test - girls
weiterscrollen
Fake

Dies ist ein synthetisches Bild, das von KI erstellt wurde. Achten Sie genau auf die Gesichter der Mädchen, besonders auf ihre Nasen. Diese Merkmale deuten auf subtile Unstimmigkeiten hin, die darauf hindeuten, dass die Nasen möglicherweise nicht echt sind und wahrscheinlich von künstlicher Intelligenz erstellt wurden.

Test - women
weiterscrollen
Fake

Dies ist ein synthetisches Bild, das von KI erstellt wurde. Schauen Sie sich die Gesichter der Mädchen an, besonders ihre Nasen. Sie sehen etwas seltsam aus, was ein Hinweis darauf sein könnte, dass die Nasen nicht echt sind, sondern von KI erstellt wurden.

Test - family
weiterscrollen
Echt

Dies ist ein echtes Bild.

Test - old
Echt

Dies ist ein echtes Bild.