Bis vor wenigen Jahren war die Welt der Augenscheins-Beweisführung noch einigerermaßen heil, obwohl es auch davor bereits für Multimedia-Forensiker genug zu tun gab und es schon viel länger computergenerierte Bilder und Screenshots gab.
Wir konnten uns auf unsere Sinneseindrücke “Sehen ” und “Hören” weitgehend verlassen. Bis dato wurden Einwände über Authentizität und Integrität erhoben und forensisch analysiert.
Synthetischer Content a.k.a. “Deepfakes” generiert mit Mittel des Machine Learnings (ML) bzw. Artificial Intelligence (AI) hat die Lage auch im Zusammenhang mit fake News “Kunstwerken” nun grundlegend verändert und forensisch zu einem ständigen Wettlauf von Generierung und Detektion geführt. Besonderes Ziel sind idR. Gesichter und Stimme (bio-synthetischer Content bzw. biometrische Merkmale), die Anwendungsszenarios sind jedoch breit, z.B. auch Gegenstände oder ganze Sachverhalte zu verändern.
Fazit: Für die Augenscheins-Beweisführung scheine mir die Auswirkungen gravierender, eine grundsätzliche Vorab-Prüfung auf synthetisch generierten Content jedenfalls ratsam, bevor ein Beweismittel dbzgl. als integer gewürdigt werden kann, unbeschadet weiterer multimedia-forensischer Untersuchung bei dennoch bestehenden Zweifeln an Authentizität oder Integrität.