News Beunruhigend: Künstliche Intelligenz findet Standort über Fotos [Bericht]

Ja, aber jetzt hat man einfach keine Wahl mehr. Egal wie du die Einstellungen setzt. Der Ort ist identifizierbar.
Ja ? Und ? Stell halt keine Fotos von dir ins Netz wenn du Privatsphäre willst. Wo ist das Problem ? Das war nie anders.

Dass du Fotos posten willst um allen was zu zeigen impliziert doch, dass du FREIWILLIG etwas von dir preisgibst. Und DARÜBER beschwerst du dich jetzt echt ? Ja guten Morgen auch. :D
 
Ja ? Und ? Stell halt keine Fotos von dir ins Netz wenn du Privatsphäre willst. Wo ist das Problem ? Das war nie anders.

Dass du Fotos posten willst um allen was zu zeigen impliziert doch, dass du FREIWILLIG etwas von dir preisgibst. Und DARÜBER beschwerst du dich jetzt echt ? Ja guten Morgen auch. :D
Es stimmt eben nicht, dass es "nie anders war". Bevor die KI entwickelt wurde gab es die Möglichkeit nicht, die es mit der KI gibt. Wie kann es dadurch "nicht anders sein"?
 
Für Leute aus dem (ehemals) persönlichen Umfeld, und darum geht es in den öffentlich breit getretenen Klischee-Stalking-Fällen immer, war der Aufwand noch nie besonders groß, da man die Umgebung des Opfers ja kennt.
 
Hätte gedacht, dass wenigstens im PCGH Forum die mit Technik vertrauten Leuten nicht so auf den KI Hype reinfallen. Es hängt sehr stark davon ab, was auf dem Bild zu sehen ist. Wenn der Hintergrund verschwommenes Weiß einer Mauer ist, dann findet die "KI" gar nichts. Das gleiche bei einer beliebigen Wiese. Bei ganzen Gebäuden einer Stadtansicht schafft das System sicher schon beeindruckende Sachen: für Menschen unscheinbare Gebäude sind oft doch einzigartig. Aber bei einem Bild mit dem Eiffelturm kann ich auch sehr zutreffend eine Zuordnung machen - da ist es nicht gerade beeindruckend.
 
Hätte gedacht, dass wenigstens im PCGH Forum die mit Technik vertrauten Leuten nicht so auf den KI Hype reinfallen. Es hängt sehr stark davon ab, was auf dem Bild zu sehen ist. Wenn der Hintergrund verschwommenes Weiß einer Mauer ist, dann findet die "KI" gar nichts.
Und ich weiß nicht, wie man als technikvertrauter Mensch nicht sehen kann, welches Potenzial in KI steckt, Hype hin oder her. Aber natürlich braucht auch die KI die nötigen Anhaltspunkte, die kann ja schließlich nicht zaubern.
 
Es stimmt eben nicht, dass es "nie anders war". Bevor die KI entwickelt wurde gab es die Möglichkeit nicht, die es mit der KI gibt. Wie kann es dadurch "nicht anders sein"?
Welche Auswirkung auf dein Leben hat das nun ? Dass du dich weniger selbst darstellen kannst ohne deinen Standort preiszugeben und mehr mitdenken musst beim Posten deines morgendlichen "trinke hier grad einen Kaffee"-Beitrags (in dem du eh zehn Hashtags untergebracht hast) ?

Dramatisch.
 
Welche Auswirkung auf dein Leben hat das nun ?
Wissenschaftliche Ergebnisse schreiten exponential voran. Gerade in der Medizin leister die KI viel, erkennt Krankheiten bevor sie ausbrechen usw.

Die nützlichen Effekte sind eindeutig da, sonst würde es nicht genutzt werden, leider wie bei jeder Technik auch die Gefahren und Risiken.
Doch schon, nur halt meist nicht die, von denen man das will.
Ich habe gerade vom VdE, dem Verband der Einbrecher einem Artikel gelesen, dass es sehr wichtig für die Gesundheit ist, seine Sporttreckingdaten immer mit GPS Signal und voraussichtlicher Ankunft zu Hause offen ins Netz zu stellen.
 
Und ich weiß nicht, wie man als technikvertrauter Mensch nicht sehen kann, welches Potenzial in KI steckt, Hype hin oder her.
Indem man damit beruflich arbeitet und die vielen Unzulänglichkeiten direkt erfährt. Was man in den Medien sieht sind vor allem Showcases von LLMs oder Dinge, die vor wenigen Jahren noch schlicht als "Machine Learning" vermarktet wurden. Und in passenden Einsatzszenarien kam man überraschend schnell zu sagen wir mal 80%igen Ergebnissen. Dass die generierten Bilder keine vernünftigen Hände/Finger haben, zum Beispiel zählt zu den fehlenden 20% bei Text2Image. Wenn man da auf 95% will ist das ein ordentlicher Aufwand. Und dann auf 97% nochmal so viel, etc. Für viele Anwendungsbereiche reicht das aber nicht, wenn du in ein Auto steigst, dass dich und deine Kinder Fahrt akzeptierst du nicht mal 99% Trefferquote in schwierigen Verkehrssituationen. Siehe Tesla, laut Musk wollten sie längst Level 5 autonomes Fahren erreicht haben. Und genauso wird es bei den meisten anderen Anwendungsbereichen, außer simplen oder ungefährlichen.

Denn LLMs skalieren nicht oder nur scheiße. Der Sprung der letzten Jahre ist durch die verfügbare Rechenpower passiert, damit wurden einige Probleme totgeworfen ("wir generieren einfach 50 Mal mal und schmeißen die 45 völlig miesen Ergebnisse weg"). Aber das ist nicht linear und selbst ordentlich mehr Rechenpower wird die momentanen Grenzen nicht fixen. Dazu kommt dass die Entscheidungen nicht begründet oder nachvollzogen werden können - für den Einsatz in wichtigen Bereichen ist das aber maßgeblich.

Und final ist Training teuer und unvorhersehbar. Stell dir vor du hast ein LLM für ein Gebiet, das ganz gut läuft, mit 97% Trefferquote (das wäre Weltklasse). Jetzt kommt ein Kunde oder die Öffentlichkeit und macht dich auf einen sehr problematischen Fehler aufmerksam. Was kannst du tun? Du kannst neu trainieren, bis im Modell genau der Fehler nicht mehr auftritt. Problem: das ist ziemlich teuer und du weißt nicht, ob das Modell nicht dafür auf einmal alte Sachen nicht mehr richtig macht oder andere neue Probleme dazukamen. Jetzt könnte man Tests schreiben um das zu verhindern, nur... wenn du die manuell von Experten machen lässt verlierst du jegliche Ersparnis und kannst die Experten eigentlich auch direkt gezielt funktionierende Algorithmen spezifisch für die Aufgabe schreiben lassen.

Also lassen wir doch einfach eine KI die KI testen. Tolle Idee, spart ja Zeit. Leider hat sich rausgestellt, dass das nicht funktioniert und sich eher die oben genannten Probleme dadurch immer weiter verstärken, oder die Leistung der KI immer weiter abnimmt.

Oder man lässt lauter Leute in Billiglohnländern ex post Filter schreiben, die unerwünschte Ergebnisse unterdrücken. Das wird schon gemacht, lässt sich aber systematisch (prompt injection) umgehen oder wird auch einfach durch kreative User massiv gebruteforced. Wenn ich auf ein Filtersystem oder einen Jugendlichen mit Zeit, der Motivation hat setzen soll, setze ich immer auf den Jugendlichen.

So oder so, die Grenzen von LLMs sind ziemlich deutlich. Natürlich wird da noch einiges gefunden werden um die Situation zu verbessern, aber wenn ein Problem NP-vollständig ist, dann ist es eben nicht in vernünftiger Zeit zu lösen, da kommt dann eben auch nicht irgendwann ein magischer Durchbruch durch Forschung.
 
Indem man damit beruflich arbeitet und die vielen Unzulänglichkeiten direkt erfährt. Was man in den Medien sieht sind vor allem Showcases von LLMs oder Dinge, die vor wenigen Jahren noch schlicht als "Machine Learning" vermarktet wurden.
Naja, die Begriffe KI, Machine Learning und Big Data gehen ja sehr fließend ineinander über. Könnte man wahrscheinlich auch alles unter "angewandte Statistik" zusammenfassen.
Und genauso wird es bei den meisten anderen Anwendungsbereichen, außer simplen oder ungefährlichen.
Simpel und ungefährlich sind aber auch dehnbare Begriffe. KIs im weitesten Sinne sind doch schon sehr gut geeignet, Muster in Daten zu erkennen, die ein Mensch aufgrund der schieren Masse an verfügbaren Daten gerne mal übersieht, wie z.B. in der Medizin. Da kann man jetzt natürlich sagen, dass das "nur" Bilderkennung und/oder Clustering ist.
Denn LLMs skalieren nicht oder nur ***. Der Sprung der letzten Jahre ist durch die verfügbare Rechenpower passiert, damit wurden einige Probleme totgeworfen ("wir generieren einfach 50 Mal mal und schmeißen die 45 völlig miesen Ergebnisse weg").
Gut, wenn du damit beruflich arbeitest, hast du da natürlich auch aktuellere Informationen, als ich noch aus dem Studium, damals hat die Verfügbarkeit von ausreichenden Trainingsdaten noch bestimmt, was möglich war. Das ergibt meiner Meinung nach auch heute noch Sinn. Wenn die Daten keine ordentlichen Ergebnisse hergeben, kann man natürlich rechnen, so viel man will. Und ist die entsprechende Rechenleistung in den letzten Jahren, in denen so deutliche Fortschritte erzielt wurden, wirklich so viel billiger geworden?
So oder so, die Grenzen von LLMs sind ziemlich deutlich. Natürlich wird da noch einiges gefunden werden um die Situation zu verbessern, aber wenn ein Problem NP-vollständig ist, dann ist es eben nicht in vernünftiger Zeit zu lösen, da kommt dann eben auch nicht irgendwann ein magischer Durchbruch durch Forschung.
Ich weiß nicht, ob sich die NP-vollständig-Klasse auf das Problem "gute KI entwickeln" anwenden lässt und es geht ja auch nicht nur um LLMs.
 
Wer was gegen den Fortschritt hat wird immer negative Aspekte finden, wer den Fortschritt toll findet wird immer positive Beispiele finden welche die Technik rechtfertigt.

Ich persönlich finde die Argumente dagegen immer recht amüsant ^^

Wir können sie regulieren, wir können sie verbieten. In Diktaturen wie China, Iran und Russland aber wird KI eine massive Rolle spielen um sich wirtschaftlich (westliche Börsen manipulieren), militärisch (Taktiken oder neue Waffentechniken) und gesundheitlich (Früherkennung, Vermeidung) gewaltig weiter zu entwickeln. Die Möglichkeiten scheinen da gerade zu unendlich zu sein.

Die Frage lautet also: Wollen wir von Despoten regierte Regime die Welt beherrschen lassen oder technisch gleichziehen bzw. vorangehen um das zu verhindern? Das mag jetzt stark vereinfacht zusammengefasst sein, aber unterm Strich läuft es langfristig genau auf das hinaus.
 
Naja, die Begriffe KI, Machine Learning und Big Data gehen ja sehr fließend ineinander über. Könnte man wahrscheinlich auch alles unter "angewandte Statistik" zusammenfassen.
Weitgehend ja. Das lief marketingmäßig schleichend über die Jahre. Irgendwann war angewandte Statistik "Machine Learning" und "Machine Learning" wurde zu "Deep Learning". Meine Bullshit-Bingo-Karte ist schon länger voll.
Gut, wenn du damit beruflich arbeitest, hast du da natürlich auch aktuellere Informationen, als ich noch aus dem Studium, damals hat die Verfügbarkeit von ausreichenden Trainingsdaten noch bestimmt, was möglich war. Das ergibt meiner Meinung nach auch heute noch Sinn. Wenn die Daten keine ordentlichen Ergebnisse hergeben, kann man natürlich rechnen, so viel man will. Und ist die entsprechende Rechenleistung in den letzten Jahren, in denen so deutliche Fortschritte erzielt wurden, wirklich so viel billiger geworden?
Ob das so viel billiger ist pro Einheit kann ich nicht sagen. Aber es ist durch die "Cloud" vor allem verfügbar geworden. Wie sehr sich das lohnt wird sich zeigen, momentan zahlen Anbieter wie OpenAI und Microsoft wohl weitgehend drauf.
Ich weiß nicht, ob sich die NP-vollständig-Klasse auf das Problem "gute KI entwickeln" anwenden lässt und es geht ja auch nicht nur um LLMs.
Nein, das war auch nur als Analogie gemeint um zu zeigen, dass nicht alles durch mehr Forschung lösbar ist. Mir ging es um die Erkenntnis, dass es mathematisch beweisbar unlösbare Probleme gibt wie das Halteproblem, das wäre vielleicht das bessere Beispiel gewesen.
 
Nein, das war auch nur als Analogie gemeint um zu zeigen, dass nicht alles durch mehr Forschung lösbar ist. Mir ging es um die Erkenntnis, dass es mathematisch beweisbar unlösbare Probleme gibt wie das Halteproblem, das wäre vielleicht das bessere Beispiel gewesen.
Das ist wohl wahr, aber mir fällt es schon etwas schwer zu glauben, dass es nachweisbar unmöglich sein soll, etwas nachzubauen, was schon existiert.
 
Zurück