News Aus 2D wird 3D: Forscher wandeln mit Nvidias Hilfe KI-Fotos täuschend echt um

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Aus 2D wird 3D: Forscher wandeln mit Nvidias Hilfe KI-Fotos täuschend echt um

Forscher haben eine neue Methode vorgestellt, mit der sich aus künstlichen 2D-Abbildungen automatisiert dreidimensionale Umsetzungen mit fotorealistischem Anspruch erstellen lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Aus 2D wird 3D: Forscher wandeln mit Nvidias Hilfe KI-Fotos täuschend echt um
 
Wollte zuerst nur schreiben, dass ich die Augen aus der seitlichen Perspektive nicht täuschend echt finde sondern nur unheimlich.
Dann habe ich erst verstanden was künstliche 2D-Abbildungen bedeutet.
Die Frontansicht ist ebenfalls ein Produkt der KI.… und bin somit darauf reingefallen.
Das ist auch unheimlich.
 
Wenn Bilder und Stimmen beliebig manipuliert werden können, freut man sich irgendann in der Zukunft bestimmt mal wieder auf ein völlig analoges Gespräch .. von Angesicht zu Angesicht ..
Mist .. ich habe Androiden vergessen...
 
puh dann bin ich ja echt beruhigt.Denn wenn es wirklich so täuschend echt wirkt,wie ich ja sehe,dann haben wir irgendwann ein Problem.Wahnsinn wie sich das ganze so entwickelt.Hatte ich garnicht mehr auf dem schirm gehabt.
 
puh dann bin ich ja echt beruhigt.Denn wenn es wirklich so täuschend echt wirkt,wie ich ja sehe,dann haben wir irgendwann ein Problem.Wahnsinn wie sich das ganze so entwickelt.Hatte ich garnicht mehr auf dem schirm gehabt.

Solange man weiß das Dinge manipuliert werden können hat man auch kein Problem.
 
Keine Sorge. Bis das massentauglich ist, sind wir vermutlich längst unter der Erde. :P
Wenn man sich einmal die Deepfake Szene anschaut, dann hat diese durch freie Software den "Massenmarkt" längst erreicht. Der Schauspieler Val Kilmer, der durch Kehlkopf Krebs seine Stimme verloren hat, wird in seinen neuen Filmen durch seine eigene angelernte KI Stimme gesprochen. Auch das wird nur noch eine frage der Zeit sein, bis eine freie Software zur Verfügung steht. Fakes werden schon bald kaum mehr zu unterscheiden sein.
 
Wenn man sich einmal die Deepfake Szene anschaut, dann hat diese durch freie Software den "Massenmarkt" längst erreicht. Der Schauspieler Val Kilmer, der durch Kehlkopf Krebs seine Stimme verloren hat, wird in seinen neuen Filmen durch seine eigene angelernte KI Stimme gesprochen. Auch das wird nur noch eine frage der Zeit sein, bis eine freie Software zur Verfügung steht. Fakes werden schon bald kaum mehr zu unterscheiden sein.
Jap, leider bieten solche Technologien extremes Missbrauchspotential. Über kurz oder lang heißt es "Zurück zu Analog / persönliches Treffen", sprich nur per persönlicher Absprache.
Man stelle sich vor, Deep-Fakes und Stimmmodulierung in Echtzeit, welche selbst Online-Meetings per Cam und Mikro und erst recht Telefonate unsicher machen. Wenn dann paar Fotos und Audioaufnahmen ausreichen, um genügend Gesichts- und Stimm-Daten für sowas zu sammeln, ist niemand mehr sicher. Sowas die Google Glasses, nur wo man nicht mal erkennt, dass es Bild- und Ton-Material aufzeichnet wäre für sowas auch hilfreich. Am besten als Sonnenbrille, damit die Person aufzuzeichnende Person nicht weiß, dass man sie anschaut, selbst wenn man in direkter Nähe steht...
 
Jap, leider bieten solche Technologien extremes Missbrauchspotential.

Ja so wie heute bei allen möglichen, angefangen damit seinen echten Namen im Netz Preis zu geben und sein Privatleben auszubeiten. Der dumme Mensch dann noch fordert jeder soll mit Klarnamen in Netz erkennen sein, damit der nichts böses schreiben kann.

Das ist ungefährlicher als man denkt, wenn einem klar ist das es sich um Technik handelt.
 
Keine Sorge. Bis das massentauglich ist, sind wir vermutlich längst unter der Erde. :P

Dafür werden die Androiden schon sorgen?
*scnr*


Jap, leider bieten solche Technologien extremes Missbrauchspotential. Über kurz oder lang heißt es "Zurück zu Analog / persönliches Treffen", sprich nur per persönlicher Absprache.
Man stelle sich vor, Deep-Fakes und Stimmmodulierung in Echtzeit, welche selbst Online-Meetings per Cam und Mikro und erst recht Telefonate unsicher machen. Wenn dann paar Fotos und Audioaufnahmen ausreichen, um genügend Gesichts- und Stimm-Daten für sowas zu sammeln, ist niemand mehr sicher. Sowas die Google Glasses, nur wo man nicht mal erkennt, dass es Bild- und Ton-Material aufzeichnet wäre für sowas auch hilfreich. Am besten als Sonnenbrille, damit die Person aufzuzeichnende Person nicht weiß, dass man sie anschaut, selbst wenn man in direkter Nähe steht...

Facebook & Co (und Arbeitgebern mit Youtube-Kanal) sei dank dürfte sich von großen Teilen der Bevölkerung schon heute mehr Material online finden, als für das Training eines Deep-Fake-Modells nötig ist. Dafür muss man dort nicht einmal selbst aktiv sein, es gibt ja "Freunde" die von jedem Event Bilder/Videos machen und teilen müssen. Wenn solche Attacken auf Personen aus dem eigenen realen Umfeld geplant sind, ist es in einer Welt in der jeder mit einer vor das Gesicht gehaltenen Kamera rumläuft und zunehmend mehr Autos permanent in alle Richtungen filmen zudem ein Kinderspiel, unbemerkt weitere Aufnehmen zu erstellen – mal ganz abgesehen davon, dass ein erstes Online-Meeting solche Vorlagen frei Haus für das zweite liefert.

Den Punkt an dem man so etwas mit reiner Datensparsamkeit dauerhaft ausschließen kann, ist meiner Meinung lange überschritten und zumindest für alle Personen von Bedeutung sollte man mittelweile fest davon ausgehen, dass Stimm- und Videoaufnahmen als Beleg für reale Ereignisse genauso ungeeignet sind, wie es bei Fotos schon seit Jahrzehnten der Fall ist.
 
Facebook & Co (und Arbeitgebern mit Youtube-Kanal) sei dank dürfte sich von großen Teilen der Bevölkerung schon heute mehr Material online finden, als für das Training eines Deep-Fake-Modells nötig ist. Dafür muss man dort nicht einmal selbst aktiv sein, es gibt ja "Freunde" die von jedem Event Bilder/Videos machen und teilen müssen. Wenn solche Attacken auf Personen aus dem eigenen realen Umfeld geplant sind, ist es in einer Welt in der jeder mit einer vor das Gesicht gehaltenen Kamera rumläuft und zunehmend mehr Autos permanent in alle Richtungen filmen zudem ein Kinderspiel, unbemerkt weitere Aufnehmen zu erstellen – mal ganz abgesehen davon, dass ein erstes Online-Meeting solche Vorlagen frei Haus für das zweite liefert.

Den Punkt an dem man so etwas mit reiner Datensparsamkeit dauerhaft ausschließen kann, ist meiner Meinung lange überschritten und zumindest für alle Personen von Bedeutung sollte man mittelweile fest davon ausgehen, dass Stimm- und Videoaufnahmen als Beleg für reale Ereignisse genauso ungeeignet sind, wie es bei Fotos schon seit Jahrzehnten der Fall ist.
Gibt sicher auch genug wie mich, die ihre persönlichen Bilder und Audioaufnahmen nicht online verbreiten, nicht mal auf der Arbeitgeberseite, wo die meisten Kollegen sich per Bild präsentieren. Online-Meetings mit Kamera und Audio habe ich auch nur mit Kollegen bei denen ich mal ausgehe, dass diese nicht die kriminelle Energie haben. ;)
Sprich es bleibt nur, mich in freier Wildbahn aufzunehmen oder Datenströme bei entsprechenden Online-Meetings abzugreifen.

Bei Personen der Öffentlichkeit (z.B. Politiker) ist es natürlich besonders leicht.
 
Nun sei dir da nicht sicher. Die brauchen nur die Stimme beim. Einkaufen im Laden oder sonst wo zu machen und schon haben sie auch dich. Nicht mal sich im Haus zu barrekadieren bringt was weil durch infarot kann man sich da sicher sein. Weil die können sogar was man sagt aufnehmen. Also wenn dann wird es illegal aufgenommen und keiner kriegt das noch mit. Und dann wird es bei anderen angewandt. Der wahre Täter bleibt unbekannt bzw unbemerkt und bis das mal Begriffen wurde ist es schon der Schaden viel zu groß. Gegen unbekannt ne Anzeige zu starten ist wie gegen ne Mauer zu treten.
Das wird also noch mehr Optionen geben für kriminellen. Also keine schöne neue Welt die sich da so entwickelt.
 
Zurück