Deepfake
Was ist KI — und was hat das mit Deepfakes zu tun?
Künstliche Intelligenz ist kein Zaubertrick. Es ist Software, die aus Millionen von Beispielen lernt. Zeig ihr genug Fotos von Gesichtern — sie lernt, wie Gesichter funktionieren. Zeig ihr genug Videos — sie lernt, wie sich Mimik und Bewegung anfühlen.
Genau das steckt hinter Deepfakes.
Generative KI (kurz: Gen AI) ist der Teilbereich, der nicht nur erkennt, sondern erschafft. Texte, Bilder, Stimmen, Videos. Das Prinzip: Zwei KI-Systeme arbeiten gegeneinander. Eine erstellt, die andere prüft ob es echt aussieht. Das wiederholt sich tausende Male — bis das Ergebnis täuschend echt wirkt.
Open Source vs. Closed Source — kurz erklärt
Hier liegt ein entscheidender Unterschied:
Closed-Source-Modelle (z.B. ChatGPT, Midjourney) werden von Unternehmen betrieben. Sie haben Sicherheitsfilter, Nutzungsbedingungen, Teams die auf Missbrauch reagieren.
Open-Source-Modelle sind frei verfügbar. Jeder kann sie herunterladen, verändern, ohne Aufsicht betreiben. Sicherheitsfilter? Abschaltbar. Altersprüfung? Nicht vorhanden. Diese Modelle landen auf privaten Servern, in Apps, auf Websites — ohne jede Kontrolle.
Das Problem: Die meisten Deepfake-Apps die heute kursieren, basieren auf solchen offenen Modellen. Ohne Schranken.
Wie entsteht ein Deepfake — und wie schnell geht das?
Früher brauchte man dafür Filmstudios, Spezialeffekte, professionelle Software. 2024 braucht man dafür: ein Smartphone und ein einziges Foto.
Apps wie Reface, FaceApp, DeepFaceLab oder Plattformen wie Playbox.com ermöglichen es, ein Gesicht in ein bestehendes Video einzusetzen — in wenigen Minuten, ohne technische Vorkenntnisse.
Der Ablauf ist erschreckend simpel:
- Foto hochladen — aus einer WhatsApp-Story, von Instagram, aus einem Klassengruppenalbum
- Zielvideo auswählen (Tanz, Song, oder sexueller Inhalt)
- Warten. Das war’s.
Das Ergebnis sieht echt aus. Für Kinder und Jugendliche — die es oft selbst verbreiten, ohne die Tragweite zu verstehen — ist es nicht mehr eindeutig erkennbar, ob etwas real ist oder nicht. Laut JIM-Studie 2025 kann nur ein Drittel der 12- bis 19-Jährigen Deepfakes zuverlässig erkennen. Bei den Jüngsten (12–13 Jahre) wissen 40% nicht einmal, was ein Deepfake ist.
Das konkrete Risiko: Öffentliche Fotos als Rohstoff
Hier wird es ernst.
Jedes Foto, das öffentlich geteilt wird, kann als Material für einen Deepfake dienen. Das betrifft:
- Instagram-Posts — auch wenn der Account nur 80 Follower hat
- WhatsApp-Profilbilder — sichtbar für jeden, der die Nummer hat
- WhatsApp-Stories — sehen alle Kontakte, Kontakte von Kontakten
- Klassengruppen-Fotos — die über Dritte weitergegeben werden
- TikTok-Videos — ein 10-Sekunden-Clip enthält dutzende Frames
Das Gesicht eines Kindes oder Jugendlichen muss nur einmal in guter Auflösung zugänglich sein. Der Rest passiert automatisch.
Was passiert dann?
Die Szenarien reichen von Mobbing (das Gesicht in peinliche Situationen eingesetzt) über Sextortion (gefälschtes sexuelles Material wird als Druckmittel genutzt) bis hin zu KI-generiertem CSAM — Missbrauchsdarstellungen ohne echtes Opfer am Set, aber mit dem echten Gesicht eines realen Kindes.
Was kann man konkret tun?
Für Eltern
1. Sichtbarkeit reduzieren — nicht auf null, aber bewusst. Instagram-Konten auf privat setzen. WhatsApp-Profilbild nur für Kontakte sichtbar. Stories nur für bestimmte Kontaktlisten. Das kostet nichts und schließt die einfachsten Zugangswege.
2. Das Gespräch führen — ohne Panikmache. Nicht: „Das Internet ist gefährlich.“ Sondern: „Weißt du, was andere mit deinen Fotos machen könnten? Lass uns kurz schauen, wer das eigentlich sehen kann.“
3. Klären, was Deepfakes sind — bevor das Kind es selbst erlebt. Kurzes Video zusammen anschauen. Beispiele zeigen. Fragen stellen lassen. Wer weiß wie es geht, erkennt es leichter — und reagiert besser wenn es passiert.
4. Digitaler Fußabdruck als Thema setzen. Was einmal online ist, bleibt online. Nicht als Drohung — als Tatsache. Fotos die heute harmlos sind, können in zwei Jahren in falschen Händen sein.
Deepfakes sind keine Science-Fiction. Sie sind eine App, die jeder mit einem Smartphone heute nutzen kann — auch Mitschüler, auch Nachbarskinder, auch Unbekannte im Internet.
Das Gegenmittel ist kein Technikverbot. Es ist Wissen. Wer versteht wie es funktioniert, trifft bessere Entscheidungen. Welche Fotos er teilt. Wer sie sehen kann. Und was zu tun ist, wenn etwas schiefgeht.
Du willst prüfen ob ein Foto ein deepfake ist -> Detesia
Digitaler Kinderschutz beginnt mit dir.
