News Deepfake-Pornos dank KI-Werkzeugen auf dem Vormarsch

Drittens: Das Thema ist noch nicht soweit wie alle glauben. Ich hab grad für die Arbeit ne Recherche zum Thema abgeschlossen

NSFW :-D

Eben nicht, solange ich doch weiss, dass Deepfakes existieren darf ich halt nicht aufgrund eines Videos Leute verurteilen. Hab ich eh nie, easy. Das Problem liegt bei Leuten die immer noch allein auf Videos vertrauen. Und Menschen die ander Menschen vorverurteilen.

Es gibt seit 150 Jahre gestellte Fotos, seit 100 Jahren Filmtricks durch Schnitt sowie andere Manipulationen, seit 40 Jahren CGI und selbst Photoshop hat den 30ten Geburstag schon hinter sich. Trotzdem glauben Menschen selbst absurde Nachrichten, nur weil man ihnen ein Foto oder gar Video dazu zeigt. Bei Behauptungen, zu denen keine direkten Gegenbelege vorliegen (und das wäre bei Aussagen über die "Geheimnisse" von Privatpersonen immer so), reicht ein drastischer Bildinhalt sogar regelmäßig aus, um gewalttätige Aktionen bis hin zu militärischen Konflikten zu triggern. KI-Deep-Fakes sind nur ein weiteres Instrumentarium für derartige Meinungs-Manipulationen und Pornos, sei es mit legalem oder nicht legalem Inhalt, nur ein mögliches Anwendungsgebiet. Dass sie jetzt jedem leicht zugänglich sind, bedeutet tatsächlich, dass man gar keine Informationen mehr aus Bildern und Videos beziehen sollte – aber es könnte viele Jahrzehnte dauern, bis die Mehrheit das eingesehen hat. Möglicherweise sogar länger, denn Textbeiträgen wir schon länger nicht mehr geglaubt und somit bliebe dann gar keine Informationsquelle mehr übrig. Bis die Einstellung zu Bildmaterial kippt, sind Deep-Fakes aber gefährlich und können Leben vernichten – sozial, ökonmisch und auch physisch.

Mhm. Könnte man nicht KI so trainieren das sie Deepfake erkennt und blockiert?

Jein. Viele arbeiten an Anti-KI-Systemen, oberflächlich mit Erfolg. Intel hatte auf der Innovation zum Beispiel eine Vorführung für Bilderkennung: Muster, die für Menschen weitestgehend willkürlich aussehen, können dafür sorgen, dass ein neben dem Muster stehender Mensch nicht mehr als solcher, sondern zum Beispiel als Vase erkannt wird. Das ist zwar die Gegenrichtung, aber wenn man durch untypischen Input die Erkennungsstufe einer analysierenden KI stören kann, dann ist man ganz schnell auch in der Lage, Artefakte im Output einer generierenden KI zu erkennen – hinter den meisten aktuellen Systemen stecken Transformer, die sich sowohl in die eine als auch die andere Richtung nutzen lassen.

Es gibt aber ein grundsätzliches Problem, auf das mir auch der Intel-Forscher keine bessere Antwort als "gute Frage" geben konnte: Sobald man solche Techniken allgemein verfügbar machen würde, könnte man sie ganz einfach als Trainingssystem für die nächste KI-Generation nutzen. Schon heute lernt ein KI-Algorythmus, in dem er zunächst zufällig generierte Inhalte einem Gegenspieler als echt unterzuschieben, während dieser wiederum zu lernen versucht, Fakes zu erkennen. Gib diesem Gegenspieler Zugang zu dem "Deepfake-Erkenner" und binnen kurzer Zeit wird die KI gelernt haben, letzteren auszuhebeln. Und bislang hat zum Beispiel Intel keine Gesetzmäßigkeiten gefunden, die eine schnelle Generierung zum Beispiel dieser Täuschungsmuster erlauben würden. Das in entscheidenden Teilen Handarbeit von Menschen, während das KI-Training automatisch abläuft. Da kann sich jeder denken, wer in einem Wettrennen um immer bessere Fakes und immer bessere Fake-Erkennung die Nase vorn haben wird. Wir sind es nicht.
 
Zuletzt bearbeitet:
Dabei ging es um Olaf Scholz xD
Es gibt seit 150 Jahre gestellte Fotos, seit 100 Jahren Filmtricks durch Schnitt sowie andere Manipulationen, seit 40 Jahren CGI und selbst Photoshop hat den 30ten Geburstag schon hinter sich. Trotzdem glauben Menschen selbst absurde Nachrichten, nur weil man ihnen ein Foto oder gar Video dazu zeigt. Bei Behauptungen, zu denen keine direkten Gegenbelege vorliegen (und das wäre bei Aussagen über die "Geheimnisse" von Privatpersonen immer so), reicht ein drastischer Bildinhalt sogar regelmäßig aus, um gewalttätige Aktionen bis hin zu militärischen Konflikten zu triggern.
Das stimmt. Um beim Thema zu bleiben hab ich das Fass aber erst gar nicht aufmachen wollen. Man kann es aber auch so betrachten: Welchen Unterschied machen Deepfakes dann?
Das Problem sind und bleiben Menschen die gern schnell verurteilen.
KI-Deep-Fakes sind nur ein weiteres Instrumentarium für derartige Meinungs-Manipulationen und Pornos, sei es mit legalem oder nicht legalem Inhalt, nur ein mögliches Anwendungsgebiet. Dass sie jetzt jedem leicht zugänglich sind, bedeutet tatsächlich, dass man gar keine Informationen mehr aus Bildern und Videos beziehen sollte – aber es könnte viele Jahrzehnte dauern, bis die Mehrheit das eingesehen hat. Möglicherweise sogar länger, denn Textbeiträgen wir schon länger nicht mehr geglaubt und somit bliebe dann gar keine Informationsquelle mehr übrig. Bis die Einstellung zu Bildmaterial kippt, sind Deep-Fakes aber gefährlich und können Leben vernichten – sozial, ökonmisch und auch physisch.



(...)
Genau das habe ich doch gesagt oO.
Ich wünschte, es ginge schneller, aber die einzige Lösung ist, nichts auf Bilder und Videos zu geben.
 
Deepfakes sparen sehr viel Arbeit. Dutzende Videoschnipsel für ein gutes 9/11-Video zusammenzusuchen und punktgenau so zu schneiden, dass komplett verquere Aussagen resultieren, es aber Deppen nicht auf den ersten Blick auffällt, hat die Truther damals sicherlich mehrere Wochen pro Beitrag gekostet. Jetzt reichen mehrere Minuten und Biden sagt "vor laufener Kamera" alles, was der geneigte Verschwörungstheoretiker verbreiten möchte.

Gleichzeitig ist der Aufwand für ein seriöse Reportage aber genau gleich geblieben. Somit dürften Deepfakes dazu führen, dass der Anteil an Lügen relativ zu Wahrheiten im Internet rapide zunimmt. Ähnliches gilt auch für andere Bereiche, in denen KI eingesetzt wird – für eine Spam-Kampagne mit Desinformation oder Werbung brauchte man früher eine 100te Köpfe starke Trollfarm irgendwo zwischen Osteuropa und Ostasien. Sonst flog man binnen Minuten wegen offensichtlichem copy & paste überall wieder raus. In letzter Zeit tauchen zunehmend KI-Bots auf, die für Moderatoren nur noch extrem schwer von echten Usern zu unterscheiden sind und einen Account auch erstmal längere Zeit mit unschuldigen Inhalten aufpäppeln können. Das alles initiiert von einer einzelnen Person mit wenigen Mausklicks. KI hat das Zeug, die Kommunikationsplattformmen im Internet, welche die letzten zwei Jahrzehnte so nachhaltig geprägt haben, dauerhaft zu zerstören.

P.S.: Video von Olaf Scholz – ist das in größerer Menge nicht laut Arbeitsschutz NSFW? :-D
 
Deepfakes sparen sehr viel Arbeit. Dutzende Videoschnipsel für ein gutes 9/11-Video zusammenzusuchen und punktgenau so zu schneiden, dass komplett verquere Aussagen resultieren, es aber Deppen nicht auf den ersten Blick auffällt, hat die Truther damals sicherlich mehrere Wochen pro Beitrag gekostet. Jetzt reichen mehrere Minuten und Biden sagt "vor laufener Kamera" alles, was der geneigte Verschwörungstheoretiker verbreiten möchte.

Gleichzeitig ist der Aufwand für ein seriöse Reportage aber genau gleich geblieben. Somit dürften Deepfakes dazu führen, dass der Anteil an Lügen relativ zu Wahrheiten im Internet rapide zunimmt.
Klingt plausibel. Aber auch nur das. Ist es nicht eher auch so schön Trend, dass keine investigative Recherche gemacht wird, weil alles schnell schnell da sein muss? Also, vielleicht verstärkt es den Trend nochmal (naja, ganz sicher verstärkt es den), aber wenn einem erstmal klar ist, dass man nicht einfach alles im Internet glauben kann, spielt es doch kaum eine Rolle ob 20% oder 50% des Contents gelogen ist. So oder so muss ich Infos gegenprüfen.
Wer dae eh nicht macht...
Ähnliches gilt auch für andere Bereiche, in denen KI eingesetzt wird – für eine Spam-Kampagne mit Desinformation oder Werbung brauchte man früher eine 100te Köpfe starke Trollfarm irgendwo zwischen Osteuropa und Ostasien. Sonst flog man binnen Minuten wegen offensichtlichem copy & paste überall wieder raus. In letzter Zeit tauchen zunehmend KI-Bots auf, die für Moderatoren nur noch extrem schwer von echten Usern zu unterscheiden sind und einen Account auch erstmal längere Zeit mit unschuldigen Inhalten aufpäppeln können. Das alles initiiert von einer einzelnen Person mit wenigen Mausklicks. KI hat das Zeug, die Kommunikationsplattformmen im Internet, welche die letzten zwei Jahrzehnte so nachhaltig geprägt haben, dauerhaft zu zerstören.
Ich muss sagen, dass die Kommunikationsplattformen die die letzten 20 Jahre das Internet geprägt haben auch gern verschwinden können. Ich halte sie so oder so nicht für sinnvolle Quellen. Klar, so wird auch nichts besseres daraus erwachsen, eher wird es schlimmer.
Mein Punkt bleibt aber: Wer, plum ausgedrückt, so doof ist jeden Shice unhinterfragt zu glauben und Menschen aufgrund von Videos oder Bildern zu verurteilen war auch bisher so. Die Menschen müss(t)en sich ändern, denn Deepfakes und ML wird nunmal nicht verschwinden. Das finde ich auch nicht gut, ich plädiere nicht dafür, sich keine Sorgen zu machen. Ich sage nur, aufhalten werden wir es, so wie es um die Welt grad steht, nicht.
P.S.: Video von Olaf Scholz – ist das in größerer Menge nicht laut Arbeitsschutz NSFW? :-D
Ich hätte für die Recherchen schon Aufschlag kriegen sollen, aber was soll man tun als Praktikant xD.
 
Dann muss die Gesellschaft endlich mal ihren Umgang mit Nacktheit und Sexualität überdenken. Denn in Zukunft wird es normal sein, das es von jedem Pornos gibt, egal ob nun echt oder nur Fake.
Was genau muss man da so überdenken?

In Europa sind wir weit weg von der Prüdheit der Amerikaner oder Araber.
Deepfakes sparen sehr viel Arbeit. Dutzende Videoschnipsel für ein gutes 9/11-Video zusammenzusuchen und punktgenau so zu schneiden, dass komplett verquere Aussagen resultieren, es aber Deppen nicht auf den ersten Blick auffällt, hat die Truther damals sicherlich mehrere Wochen pro Beitrag gekostet. Jetzt reichen mehrere Minuten und Biden sagt "vor laufener Kamera" alles, was der geneigte Verschwörungstheoretiker verbreiten möchte.

Gleichzeitig ist der Aufwand für ein seriöse Reportage aber genau gleich geblieben. Somit dürften Deepfakes dazu führen, dass der Anteil an Lügen relativ zu Wahrheiten im Internet rapide zunimmt. Ähnliches gilt auch für andere Bereiche, in denen KI eingesetzt wird – für eine Spam-Kampagne mit Desinformation oder Werbung brauchte man früher eine 100te Köpfe starke Trollfarm irgendwo zwischen Osteuropa und Ostasien. Sonst flog man binnen Minuten wegen offensichtlichem copy & paste überall wieder raus. In letzter Zeit tauchen zunehmend KI-Bots auf, die für Moderatoren nur noch extrem schwer von echten Usern zu unterscheiden sind und einen Account auch erstmal längere Zeit mit unschuldigen Inhalten aufpäppeln können. Das alles initiiert von einer einzelnen Person mit wenigen Mausklicks. KI hat das Zeug, die Kommunikationsplattformmen im Internet, welche die letzten zwei Jahrzehnte so nachhaltig geprägt haben, dauerhaft zu zerstören.

P.S.: Video von Olaf Scholz – ist das in größerer Menge nicht laut Arbeitsschutz NSFW? :-D

Wann werden LÜGEN zu Wahrheit?.

Wenn genug daran glauben....
 
Das größte Problem liegt wie auch schon bei dem Aufkommen des Internets in der neuen Blindheit der Politik. Eigentlich müsste sich jetzt sofort jemand hinsetzen und in den Lehrplan überall integrieren: Wie recherchiere ich korrekt? Warum sind Bilder/Videos keine Beweise? Warum sind Quellenangaben so wichtig? Warum ist wichtig, wer die Quelle in der Angabe ist? Was sind gute Quellen? Und zwar schon in der Grundschule und jedes Jahr aufs Neue.

Aber die Leute wollen die Zukunft nie sehen. Sie wollen sie hassen und blind bleiben. Lieber stecken sie Geld in Leute, die die Zukunft mobben und aufhalten sollen. Dass sie damit ihren Nachwuchs blindlinks ins kalte Wasser werfen, ist ihnen egal. Hauptsache es bleibt möglichst wenig von der Zukunft sichbar, bis sie im Grab liegen.
Der deutsche Schüler hat keine Ahnung davon, wie die Technik im Innern funktioniert, die er nutzt - er ist nur Nutzer und ca. 20% der Schulstunde wird meinen Erfahrungen nach damit verbracht, durchzugehen, wer alles anwesend ist.
In anderen Nationen werden die Talente ausgebildet, die nicht Opfer der KI sind, sondern sie entwickeln und neue Einsatzbereiche erschließen.

Die Politik hätte die Chance diesmal nicht zu schlafen. Aber vermutlich wird man mit der faulen Begründung: "Das entspricht nicht unseren Werten und Ethik und sowieso kann man erst ab 18 mit jemandem über KI-Pornos reden, weil die armen Kinder ja davon traumatisiert werden könnten, um die Welt zu wissen, in der sie ohnehin schon leben."
 
Es gibt seit 150 Jahre gestellte Fotos, seit 100 Jahren Filmtricks durch Schnitt sowie andere Manipulationen,
Vollkommen richtig.
Aber es wird immer einfacher und rafiniertermit dem Fake.
Heute, mit KI ist es salopp gesagt nur ein Knopfdruck.
Somit können Fakes von jedem einfach erstellt werden.
Früher musste man profi sein oder Equipment haben heut klick und fertig.
 
Der Thread hätte passenderweise bei der Anzahl an Antworten geschlossen werden sollen, jetzt hab ich leider den Zähler ruiniert.

1697876527432.png


@Topic
Anyway, war klar, das die Schmuddelecke von der KI profitiert. Bei dem unzähligen Trash-Content aus der Richtung fällt das zwar nun auch nicht mehr auf, ist aber letztlich ärgerlich für die Betroffenen, welche da "verwurstet" werden.
 
wer sich ein schrubben muss während er der aussenministerin zusieht, mir egal. letztlich ist es doch so das die promis echt krasse eskapaden abziehen, dinge die die meisten normalos niemals mitbekommen, schlicht weil es viel zu heftig ist. wenn man sich an früher erinnert weis man das sextapes damals echt waren. wie praktisch für die promis, jetzt können sie einfach behaupten das das material nicht echt ist. alles hat vor und nachteile.

Selten so einen unüberlegten und naiven Beitrag hier gelesen.
Typisches Opfer-Shaming halt.

Es geht hier nicht nur um deine unbeliebten Prominente, sondern eben auch um ganz normale Privatpersonen. Vielleicht hast du dann etwas mehr Empathie, wenn du kurz mal etwas weiter denkst. Würdest du dich freuen, wenn jemand Deepfakes von dir macht und dann z.B. an die Arbeitskollegen oder Familie verteilt? Was, wenn deine Kinder das auch sehen würden oder an der Schule deiner Kinder verteilt werden würde?
 
Selten so einen unüberlegten und naiven Beitrag hier gelesen.
Typisches Opfer-Shaming halt.

Es geht hier nicht nur um deine unbeliebten Prominente, sondern eben auch um ganz normale Privatpersonen. Vielleicht hast du dann etwas mehr Empathie, wenn du kurz mal etwas weiter denkst. Würdest du dich freuen, wenn jemand Deepfakes von dir macht und dann z.B. an die Arbeitskollegen oder Familie verteilt? Was, wenn deine Kinder das auch sehen würden oder an der Schule deiner Kinder verteilt werden würde?
dann könnte man ganz einfach darlegen wie die reale welt wirklich ist und gut ist. und ja leute die dafür zu blöd sind sollten sich aus meinem leben entfernen, falls sie es nicht selber tun helfe ich nach.
 
du musst einfach mal der realität ins auge blicken. fakt ist das es scheiss menschen gibt und es gibt auch neutrale und gute. im grunde muss jeder einzelne sehen wer in sein umfeld nicht rein passt. diejenigen die andere fertig machen oder dabei helfen sind nicht unbedingt die art mensch die normale menschen um sich haben wollen. wenn man viel geld hat hat man auch viele freunde, nein nicht wirklich. man hat dann viele die glauben sie können profitieren, das ist was anderes. bei leuten die nicht viel geld haben kann es aber auch sehr wohl sein das man freunde hat die keine sind. oder sie gehören zu den angehörigen wat ever. wenn jemand durch sowas erkennt das er von arschlöchern umgeben ist macht es sich für ihn vieleicht leichter mal die richtige entscheidung zu treffen.

ich musste es auch auf die harte tour lernen das staatsbedienstete, freunde und familie oftmals nur dreck sind und habe deshalb mit den auch nicht wirklich was zu tun. wenn dann das umfeld von diesen negativen energien gesäubert ist ist man plötzlich zu ganz coolen sachen in der lage. aber dieses problem hat mehr oder weniger doch jeder von uns und bei vielen ist es leider so das die feinde nicht demaskiert werden, alles was aber dabei hilft kann man auch positiv sehen.
 
Zurück