Wiedergänger des tages

Digitales Vermummungsverbot
Schäuble drängt auf Klarnamen im Netz

Nee, Wolfgang, du oller, erfahrener troll! Diesen ball nehme ich nicht an. Die nummer, die du da versuchst, ist so ausgelutscht und durchdiskutiert, dass ich deinen dummen versuch als zeichen der beginnenden demenz deute.

„Deep fake“ des tages

Nachdem ich, nur weil ich beim Strache-video erstmal skeptisch war, jetzt mehrfach lesen musste, dass ich neonazi, flacherdler, reptiloidengläubiger und verschwörungsspinner bin, hier von mir nur ein kleiner hinweis: Es ist möglich, mit maschinellem lernen bei neuronalen netzwerken (zurzeit meist einfach „künstliche intelligenz“ genannt) eine menschliche stimme so präzise und überzeugend vom kompjuter generieren zu lassen, dass eine erkennung der fälschung praktisch unmöglich ist. (Man brauchte für die erkennung einer fälschung jetzt schon eine nebengeräuschfreie aufnahme ohne kompressjonsartefakte. Das ist eine in der internetzpraxis unerfüllbare anforderung.)

Ich habe selbst schon einmal daran gedacht, ein neuronales netzwerk auf eine gute stimme anzulernen, um einen vollsyntetischen sänger zu bekommen. Zum glück für eine welt, die solchen experimenten nix abgewinnen kann, fehlt es mir an plumper rechenleistung dafür. 😉

Entsprechende fälschungsmöglichkeiten für videos möge bitte jeder selbst rescherschieren. „Deep fake“ ist ein guter erster suchbegriff, und auch unbedingt mal ein paar ergebnisse, auch von amatören, anschauen, damit so richtiges gruseln aufkommt! Die zeit, in der man keinem video und keiner tonaufnahme mehr vertrauen kann, ist längst gekommen. Und alle diese möglichkeiten stehen natürlich auch geheimdiensten, der organisierten kriminalität, trollen, p’litsekten, idjoten, satirikern und künstlern zur verfügung steht. Rufmord mit einem gefälschten video (mit ebenfalls gefälschter tonspur) sollte schon jetzt leicht möglich sein.