Nvidia: GPU-basierte KI kann Next-Gen-Chips entwickeln

Finds immer belustigend wenn sich hier im Forum User melden mit dem und dem Abschluss und meinen es besser zu können als die Ingenieure/Entwickler bei Nvidia, welche mit Sicherheit einen gleichwertigen oder besseren Abschluss und definitiv mehr Praxiswissen in der Richtung besitzen.
Nur weil man bei Nvidia arbeitet heißt das nicht zwingend das man kompetent ist. Auch Abschlüsse und Erfahrung sind maximal ein Indikator. Gibt leider genug Leute mit viel Praxiserfahrung und guten Abschlüssen die aber selbst keinen Plan haben und trotzdem bei Technologieführern sitzen.
Meine Vermutung wäre in dem Fall der folgende Unterschied:

Simulation:
Der Bediener gibt sämtliche Parameter für die durchzuführende Installation selbst ein. Interpretiert anschließend die Ergebnisse und passt auf Basis dieser die Parameter für einen erneuten Simulationslauf bis zu einem gewünschtem oder potenziell optimalem Ergebnis an. Je größer das Wissen/die Erfahrung des Bedieners desto schneller/besser kann er die Ergebnisse interpretieren und die neuen Ausgangsparamter anpassen.
Jaein. Simulationen können auch automatisiert optimiert werden, machen zumindest im unseren Bereich die wenigsten. Man ist "per Hand" schlicht schneller, würden einzelne Funktionsabschnitte zu komplex und langwierig werden würde ich vermutlich aber auch anfangen zu Automatisieren.
AI/KI:
Die Notwendigkeit nach jedem Simulationsdurchlauf einen menschlichen Operator die Simulationsparameter interpretieren und die neuen Ausgangsparamter anpassen zu lassen entfällt. Zusätzlich ist der Erfahrungs- und Wissensschatz, den eine AI/KI aufbauen kann wesentlich größer, dauerhaft verfügbar (solange die Daten sicher abgelegt werden) und schneller Abfragbar als es bei einem menschlichen Operator jemals der Fall wäre (deshalb arbeitet man aktuell auch sehr stark daran medizinische Aufnahmen, usw. AI/KI-Unterstützt zu interpretieren, da dort ein möglichst breites immer vorhandenes Wissen von Vorteil ist). Zusätzlich kann die selbe AI/KI die selbe Simulation mit unterschiedlichen Paramtern parallel durchführen und interpretieren und beide Ergebnisse miteinander in Verbindung bringen und das kann man solange steigern wie die Rechenleistung ausreicht. Ein menschlicher Operator hätte da ziemlich schnell ein Zeitproblem
KIs können teilweise sicher Vorteile mitbringen man sollte sie aber nicht überschätzen. Du betreibst einen gewissen Aufwand für Design, Training etc. Lohnt sich in einigen Bereichen einfach nicht, vor allem dann nicht, wenn du durch neue Features wieder trainieren musst usw.
Zusätzlich verlierst du auch alle physikalischen Zusammenhänge, dass kann bei der Interpretation von Ergebnissen massiv behindern.
Je mehr Simulationen die AI/KI durchführt, desto besser kann sie entsprechende Ergebnisse vorhersagen, ihren Wissens- und Erfahrungsschatz ausbauen und so schneller zu gewünschten Ergebnissen kommen. Effektiv könnte man sagen, dass eine solche "AI/KI" ein Spezialist mit einem extrem kleinen Aktivitätsbereich ist in dem sie sich aber kontinuierlich verbessert und dem Optimum annähert. Bei allem was darüber hinausgeht ist sie unbrauchbar, da es keine "allgemeine Intelligenz" ist. Diese "AI/KI" ist viel mehr ein selbstoptimierender Algorithmus als eine AI/KI, da diese die Fähigkeit voraussetzen würde alle möglichen Problemstellungen egal welcher Art verarbeiten und aus ihnen lernen zu können (Minimalbasis, vergleichbar mit Instinkten beim Menschen und anschließender "Erziehung" und Beibringen höherer Fähigkeiten, wie Sprechen/Schreiben, Rechnen, Bewegen, Probleme lösen, usw.), was hier aber nicht der Fall ist.
Das eine KI mit mehr Training garantiert immer weiter konvergiert ist nicht richtig.
 
Zusätzlich ist der Erfahrungs- und Wissensschatz, den eine AI/KI aufbauen kann wesentlich größer, dauerhaft verfügbar (solange die Daten sicher abgelegt werden)
Genau das macht eine heutige KI, den Erfahrungsschatz nutzen. Ist das aber Intelligenz? Ich hab Mal vor Urzeiten an einer Studie (wahrscheinlich der falsche Begriff) zu IQ Tests teilgenommen, Kernaspekt des Ganzen war eigentlich, dass man Intelligenz nur sehr schwer messen kann, weil eben nahezu jeder Test auf das Erfahrungszentrum des Gehirns zugreift. Hierzu wurden seinerzeit von Probanden rund 50 verschiedene Tests absolviert und im Anschluss besprochen, zwei Wochen später machte man den gleichen Test nochmal und siehe da, man erreicht natürlich eine viel höhere Punktzahl, meine lag danach im nicht messbaren Bereich über 200, was natürlich Quatsch ist (mehr als 190 hab ich nicht :-)

Ist das aber Intelligenz?

In meinen Augen nicht!!! Im KI Bereich reden wir ja auch nur davon, dass Algorithmen sich selbstständig kombinieren und so der Anschein erweckt wird, dass das Programm selbst denkt, was aber in meinen Augen nicht der Fall ist. Es werden lediglich bekannte Routinen ineinander verknüpft
 
Die Begriffe werden halt von Software-entwicklern geprägt, also der gleichen Fraktion die schon den Sammlern in C & C 2 eine "Intelligenz" zugesprochen hat. Im Vergleich dazu kann DLSS die Frage zu 42 finden. :-)

Nichts gegen die guten alten Sammler aus Command and Conquer, Intelligenz ist dass eine, bei denen ist es eher "Kult" :D
 
Solange der Mensch noch versteht wie und was die KI macht ist noch alles in Ordnung aber sobald er es nicht mehr versteht und keine Kontrolle mehr ausüben kann (schleichender Prozess) kommen wir irgendwann zum point of no return.
Und dann ist mMn das ende der derzeitigen Zivilisation schon vorprogrammiert (nicht negativ gemeint)
Wenn man sich die Menschheitsgeschichte anschaut ist es nicht das schlechteste was passieren kann

Der Mensch versteht heute schon nicht mehr, wie eine KI im Detail funktioniert. Wir hauen eine Erfindung raus und benötigen jetzt Reverse Engineering, um sie Stück für Stück zu verstehen, wie sie lernt. Das ist tatsächlich so und es gab auch eine Doku/ein Paper dazu. Jetzt könnte man mir wieder was vorwerfen, aber wenn ich danach Google und suche, kommen tausende Suchergebnisse mit wie toll doch KI ist usw... ja, der Hype ist auf jeden Fall da und rational bewerten wir diese Technik schon lange nicht mehr.

Ich halte KI noch teilweise für überbewertet, aber sie hat ihre Daseinsberechtigung. Sie kann multidimensionale Probleme vereinfachen, aber nur mit sehr viel Energieinput und man kann sehr viel falsch machen in der Anwendung, insbesondere beim autonomen Fahren.

Wie auch immer, ich finde das folgende Video immer zum Schmunzeln :ugly:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Finds immer belustigend wenn sich hier im Forum User melden mit dem und dem Abschluss und meinen es besser zu können als die Ingenieure/Entwickler bei Nvidia, welche mit Sicherheit einen gleichwertigen oder besseren Abschluss und definitiv mehr Praxiswissen in der Richtung besitzen.
Wo tu ich das? Ich begründe aus meiner fachlichen Qualifikation, warum die hier im Artikel kurz dargestellten Entwicklungen für mich wenig Sinn ergeben. Dass ich mehr Wissen oder Erfahrung in dem Themenbereich habe, stelle ich so nicht heraus.
 
Wenn es um das Thema KI geht wird gerne KI mit VI verwechselt. Letztere Simuliert Intelligenz, reagiert aber nur auf zuvor programierte trigger. Aber wenn man es KI nennt, klingt es halt "cooler".

Aber ich glaube es ist auch eine Frage der Interpretation wann etwas als KI bezeichnet werden kann.
 
Zuletzt bearbeitet:
KI ist ein riesiger Feld. Es werden jährlich Milliarden in die Entwicklung investiert.

DLSS und FSR 2.0 ist ein Segen. Wir werden in den nächsten Jahren kaum noch in nativen Auflösungen spielen. DLSS hat (im Gegensatz zu FSR) den Vorteil, dass diese Technik durch die Implementierung genauer weiß, wo die KI Pixel und Filterungen exakt ergänzt. Die Folge: Ein kaum noch wahrnehmbarer Qualitätsverlust.

Das Zeitalter von nativen Auflösungen im Gaming Bereich wird irgendwann vorbei sein.
 
Keine Sorge, im schlimmsten Fall schicken Sie Arnie in die Vergangenheit um eine Lederjacke zu Terminieren. :fresse:
Keine Sorge wir haben nicht mehr die Zeit dies zu tun, es gab doch erst einen Wissenschaftlichen Bericht, was KIs alles anrichten können in kürzester Zeit.
 
Wesentlich weiter ausgeführt und was im Detail damit gemeint ist, ist hier nachzulesen:


[...] Aber ich glaube es ist auch eine Frage der Interpretation wann etwas als KI bezeichnet werden kann.
Hier muss man zwischen technischer Betrachtungsweise und marketingtechnischem Buzzword unterscheiden. Bei letzterem verwendet man den Begriff tatsächlich vielfach inflationär und verspricht seinen Kunden damit die eierlegende Wollmilchsau, aber das ist vielmehr ein marketinggetriebenes Thema, so wie Klappern zum Handwerk gehört. **) Techniker/SW-Ingenieure, die umgangssprachlich von KI oder AI reden, wissen im Allgemeinen was gemeint ist (und wo die Grenzen sind und welchen Mehrwert sie davon haben).

AI ist der Oberbegriff unter dem sich allerlei Forschungsgebiete zusammenfassen lassen. Im Deutschen in die Irre führend ist der Begriff Künstliche Intelligenz, den man umgangssprachlich gerne schnell in das Terminator/Skynet-Zukunftsszenario extrapoliert (gerne auch "Data" und andere roboter/androidenähnliche, intelligente Wesen), aber davon ist man noch sehr weit entfernt.
Das, was aktuell die Industrie seit einigen Jahren derart beflügelt *) ist im Wesentlichen das Teilgebiet des Maschinellen Lernens (Deep Learning als ein Spezialfall davon) und damit kommen wir zu typischen Anwendungen wie bspw. Computer Vision und auch für Gamer interessanten Anwendungsgebieten wie AA und Upscaling. Mit Intelligenz dem umgangssprachlichen Verständnis nach hat das aber nicht einmal was im Entferntesten zu tun, denn dabei handelt es sich schlicht um neuronale statistische Datenanalysen, d. h. hierbei geht es weitestgehend um Statistik und Wahrscheinlichkeiten.

*) Da sich mit der Fertigungstechnik hier GPGUs (mit Tensor-Einheiten) und spezifischere Rechenbeschleuniger drastisch ausbauen ließen, explodierten auch die Erfolge und Anwendungsfälle in insbesondere diesem Teilgebiet.

**) Beispielsweise untersuchte Anfang 2019 das Risikokapitalunternehmen MMC Unternehmen und Startups, die sich explizit mit KI beschäftigten, nur in Europa, wenn ich mich recht erinnere, und kamen zu dem Schluss, dass von rd. 2800 untersuchten Unternehmen gerade mal rd. 1600 überhaupt wirklich was mit KI machen.
Beispielsweise im April 2021 kommt ein Untersuchungsbericht des US-Bundesstaates Utah zu folgendem Schluss: Die Anwendung ”Live Time Intelligence“ der umstrittenen US-Firma Banjo, die nach Angaben des Unternehmens mithilfe von Künstlicher Intelligenz Aufklärungsinformationen in Echtzeit produzieren und so eine “vorausschauende Polizeiarbeit” (Predictive Policing) erlauben sollte, enthält gar keine Spur von KI. In einem staatlichen Prüfbericht heißt es: ”Banjo verwendet keine Techniken, die der Branchendefinition von Künstlicher Intelligenz entsprechen.

Das was viele hier AI-technisch, insbesondere wenn sie "KI" hören, im Hinterkopf haben dürften, sind eher Entwicklungen wie Human-level AI, Artificial General Intelligence und in dem Kontext auch ergänzend die sogenannte Friendly AI. Insbesondere letzteres ist ein vom Yudkowsky und Omohundro geprägter Begriff, der sich damit befasst eine eche KI zu entwickeln, die dem Menschen nicht schadet, was zu solch schönen Überlegungen führt wie: "The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else."
Omohundro schreibt bspw.: ”A sufficiently advanced AI system will, unless explicitly counteracted, exhibit a number of basic 'drives', such as resource acquisition, self-preservation, and continuous self-improvement, because of the intrinsic nature of any goal-driven systems and that these drives will, 'without special precautions', cause the AI to exhibit undesired behavior.
 
Zuletzt bearbeitet:
Lesen wir aus dem Artikel etwas anderes heraus? Es geht um eine Analyse des Chipdesigns auf mögliche Probleme und Inkompatibilitäten. Das sollte sich deterministisch berechnen lassen, ab wann das ein kritischer Faktor ist. AI kann diesen Schritt beschleunigen, indem es solch kritische Muster erlernt und in Designs erkennen kann. Jedoch immer mit einer gewissen nicht bestimmbaren Fehlerquote, die aber hinreichend klein für den Zweck ist.
Letzten Endes muss die AI aber mit dem aktuellen Stand der Dinge trainiert werden, sie kann nicht von sich aus Probleme erkennen, die es zuvor nie gegeben hat. So funktioniert das nicht.
Aber wer weiß, was in den letzten Jahres so alles hinter verschlossenen Türen bei NVIDIA passiert ist.

Ja, aber weil mein Real-Name drunter steht werde ich die hier nicht öffentlich stellen, sorry.
Die große Frage ist für mich:
Was für einen Vorteil bringt die KI im Vergleich zu Programmen, die gut formulierten Design Rules folgen und die Einhaltung auch überwachen?
Wann parasitäre Effekte entstehen und wo es eine zu hohe Wärmekonzentration geben könnte, ist jetzt nicht unbedingt neues Wissen.

Ich sehe da eher eine weitere Möglichkeit einer Fehlerquelle.
Wenn man beim Training nicht gut aufpasst, kann die KI was anderes lernen, als sie soll.
Dann bekommt man zwar Ergebnisse, allerdings kann man sich auf selbige nicht verlassen und muss den gleichen Test nochmal machen - diesmal aber manuell.
Leider weiß man nie genau, ob man die KI gut trainiert hat. In diesem Fall werden dann "manuelle" Tests wegfallen und man bemerkt Fehler im Training erst, wenn die ersten Chips aus der Fabrik zum Testen kommen.
Das sind potentiell sehr teure Fehler.
 
KI Chipdesign wird Normalität werden, einfach wegen der Komplexität der Anforderung

Bei der 4 Minuten Marke im Video sollte es Klick machen
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Die große Frage ist für mich:
Was für einen Vorteil bringt die KI im Vergleich zu Programmen, die gut formulierten Design Rules folgen und die Einhaltung auch überwachen?
Wann parasitäre Effekte entstehen und wo es eine zu hohe Wärmekonzentration geben könnte, ist jetzt nicht unbedingt neues Wissen.
Geschwindigkeit.
Ich sehe da eher eine weitere Möglichkeit einer Fehlerquelle.
Wenn man beim Training nicht gut aufpasst, kann die KI was anderes lernen, als sie soll.
Dann bekommt man zwar Ergebnisse, allerdings kann man sich auf selbige nicht verlassen und muss den gleichen Test nochmal machen - diesmal aber manuell.
Leider weiß man nie genau, ob man die KI gut trainiert hat. In diesem Fall werden dann "manuelle" Tests wegfallen und man bemerkt Fehler im Training erst, wenn die ersten Chips aus der Fabrik zum Testen kommen.
Das sind potentiell sehr teure Fehler.
Kann man pauschal nicht sagen, es hängt wie immer davon ab wie du das ganze nutzt und was die Ziele sind. Und so wie es im oben verlinkten Artikel beschrieben steht geht es nicht um 100% Genauigkeit sondern Problemstellen zu identifizieren, welche die KI wohl hinreichend genau macht. Ich gehe davon aus man sortiert erstmal die groben Fehler raus und später wird dann mit normalen Tools das Endergebnis validiert. Der Zeitgewinn dafür dürfte trotzdem immens sein.
Zusätzlich werden solche Tools nicht unvalidiert eingesetzt. Man weiß also in welchen Situationen die KI Probleme hat und kann entsprechende Maßnahmen treffen.
 
Die Gefahr bei einer KI besteht darin das sie irgendwann selbstständig andere Wege gehen kann und somit den Menschen dominiert. Filme wie Terminator werden dann Realität und sind dann nicht mehr nur ein Filmgenuss aus dem TV Sessel zu betrachten. Und den Stecker kann man dann auch nicht mehr so einfach ziehen.:hmm:
Eine KI wird in Zukunft wahrscheinlich unfassbar intelligent sein aber keinen Funken Bewusstsein haben. Bewusstsein ist was komplett anderes als Intelligenz. Das einzige Problem wird wohl sein dass die KI Lösungen findet die funktionieren aber ein Mensch nicht mehr kapieren wird.
 
Nvidia-GPU-basierte KI liest mit und betrachtet kritische Nvidia-GPU-basierte KI-Kommentare kritisch. Standorte wurden trianguliert. Thermonukleare Gegenmaßnahmen werden eingeleitet.

:ugly:
 
Zurück