News Jensen Huang über die Konkurrenz: Kostenlose GPUs "nicht billig genug", um Nvidia zu schlagen

GPUs? :lol: Nein. KI-Beschleuniger! Da fährt der Hypetrain aktuell.

Was glaubst du was KI-Beschleuniger sind?! :klatsch:
GPU heißt nicht immer nur GTX-Gaming
Und dass Amazon & Co selbst Hardware entwickeln glaubst du doch wohl selbst nicht.
Wann sollen die konkurrenzfähig werden, in einer Dekade? Jetzt braucht man das Zeug.
 
Wenn jemand so offen prahlt, angibt und sich selbst (bzw seine Firma/Produkte) in den Himmel lobt dann ist das einfach unsympathisch.
Das ist Geschmackssache. Mir ist Herr Huang durchaus sympathisch. Sein Erfolg gibt ihm zudem Recht, in jeder Hinsicht. Deine übrigen Äusserungen haben schon andere hier kommentiert.
 
Tatsächlich ist ein proprietärer Treiber für mich persönlich schon ein Ausschlusskriterium.
Huang sagt ja selbst, dass manche Kunden auch von ihnen als Konkurrenten betrachtet werden.
Warum sollte ich Software meiner Konkurrenz auf meinen Systemen laufen lassen, wenn ich noch nicht einmal nachschauen kann, was sie tut und sie nicht in Ordnung bringen kann, wenn ich Fehler finde?

Und mit der Einschätzung, dass Closed-Source ein Geschäftsrisiko darstellt, und Open-Source die Unabhängigkeit sicherstellt, bin ich offensichtlich nicht alleine, wie man diesem Artikel entnehmen kann:

Folglich kann man die Argumentation auch völlig umgekehrt sehen - denn für mich wäre Nvidia durch die geschlossenen Treiber im Vergleich zu AMD und Intel ein massives Geschäftsrisiko für dessen Verhinderung ich bereit wäre, sehr viel mehr zu zahlen.

ROCm ist im Gegensatz zu den Nvidia-Treibern frei einsehbar...

AMDs Treiber sind "Open Source"? Ist mir neu. Link dazu?
Ich finde nur den AMD Vulkan Treiber für Linux als Open Source.

Und im von Dir verlinkten Artikel geht es um die Firmware. Die ist bei AMD auch "Closed Source", sonst hätte geohot ja selbst etwas gefixed.

Es scheint mir fast so als würden sich AMD-Fans in die "Open Source" Thematik immer weiter reinsteigern, und plötzlich ist "alles bei AMD Open Source". Das ist nicht der Fall.


On Topic: Sein Erfolg gibt ihm Recht. "Aus dem Nichts" eines der jetzt wertvollsten Unternehmen der Welt aufzubauen, und dabei stets an der Spitze zu bleiben, macht man nicht mal eben so. Übrigens: Jensen ist Master in Elektrotechnik und hat selbst als Chipdesigner angefangen. Bei AMD. :D

Huang erhielt 1984 seinen Bachelor in Elektrotechnik von der Oregon State University und 1992 seinen Master in Elektrotechnik von der Stanford University.[1] Nach dem College war er Direktor bei LSI Logic und Mikroprozessordesigner bei AMD. An seinem 30. Geburtstag wurde er 1993 zum Mitbegründer des Grafikprozessorherstellers Nvidia, den er seitdem leitet.


Wenn jemand so offen prahlt, angibt und sich selbst (bzw seine Firma/Produkte) in den Himmel lobt dann ist das einfach unsympathisch. Da ist es mir auch egal ob die Prahlerei der Wahrheit entspricht wie hier oder ob alles gelogen ist ... bisher hat Nvidia noch nichts POSITIVES zum Weltfrieden, dem Welthunger, bei der Rettung von bedrohten Arten , dem Klimawandel , Krebsheikung usw usw. beigetragen. Es ist einfach nur ein Konzern der auf Kosten von Mensch, Tier und Umwelt verdammt viel Geld macht. Schön für alle die dran verdienen aber ansonsten.. :ka:

Wie bereits vorher gesagt wurde: die Chips an sich sind ein Beitrag für die meisten Deiner genannten Punkte. Aber damit hört es ja nicht auf, vielleicht informierst Du Dich vorher mal?

https://de.wikipedia.org/wiki/Jen-Hsun_Huang

Spenden​

Er hat der Stanford University 30 Millionen US-Dollar für ein Ingenieurzentrum und der Oregon Health & Science University 5 Millionen US-Dollar für ein Krebsforschungslabor gespendet.[4]

Im Jahr 2022 spendete Huang 50 Millionen US-Dollar an seine Alma Mater, die Oregon State University. Dies war ein Teil einer 200 Millionen US-Dollar Spende für die Gründung eines Supercomputing-Instituts auf dem Campus der Universität.[5]
 
Nur weil PyTorch marktführend ist müssen deine Beschleuniger die du mit ein paar Mann teuer entwickelst das noch lange nicht sein.
Man braucht gute Hardware und gute Software um erfolgreich zu sein. Meta und Google haben bewiesen, dass sie den Software Teil können. Damit ist eine große Hürde schon geschafft. Dass gute Software nicht selbstverstädlich ist, sieht man ja bei AMD, traurigerweise.

Was glaubst du was KI-Beschleuniger sind?! :klatsch:
GPU heißt nicht immer nur GTX-Gaming
GPUs sind eben nicht dasselbe wie KI-Beschleuniger. GPUs wurden lange als solche genutzt, weil es nichts besseres gab. Nvidia hat dann Stück für Stück den Fokus auf ML-Anwendungen gelegt, weil sie diesen Trend erkannt haben. Das sieht man z.B. sehr gut an der Einführung der Tensor Cores. Daher rührt auch der Vorsprung gegenüber AMD.

Und dass Amazon & Co selbst Hardware entwickeln glaubst du doch wohl selbst nicht.
Amazon, Google, Meta, Microsoft. Noch Fragen? Sie wären dumm es nicht zu tun.

Wann sollen die konkurrenzfähig werden, in einer Dekade? Jetzt braucht man das Zeug.
Wenn die in 10 Jahren komplett von Nvidia unabhänig sind, wäre das doch ein Erfolg, oder etwa nicht?
 
Man braucht gute Hardware und gute Software um erfolgreich zu sein. Meta und Google haben bewiesen, dass sie den Software Teil können. Damit ist eine große Hürde schon geschafft. Dass gute Software nicht selbstverstädlich ist, sieht man ja bei AMD, traurigerweise.
Absolut, keine Frage. Da geb ich dir gern Recht. Das alles braucht aber neben Investment, Zeit und Durchhaltevermögen. Und selbst dann ist nicht garantiert, dass das geil wird.

Spannend wirds allemal. Die Frage ist einfach, wie lange hält sich der KI-Hype und wann sind Lösungen parat von anderen Anbietern. Wenn die nämlich erst konkurrenzfähig sind wenn alles wieder abgeflaut ist und sich auf normalerem Level befindet, dann war all das Investment einfach nur sehr teuer Geld verbrannt während nVidia sich anderen Geschäftsfeldern widmet.
 
Auch bei den GPUs sieht es ja leider nicht besser aus! Die AMD Karten sind einfach noch zu teuer, um wirklich interessant zu sein. Ich sage es seit dem Test im September: 7800 XT max. 499€ und die 7700 XT max. 399€

Kurze MF Angebote reichen da nicht aus! Und im Sommer/Spätjahr braucht die Karten keiner mehr.
Da dauert es nicht mehr lange bis zur neuen Gen. Hoffentlich zu besseren Preisen!
 
Bis zu dem Tage, wo man NVIDIA in den USA aber eher der EU zwingt CUDA auf anderen Plattformen zuzulassen und somit zu öffnen. Der Jensen sollte nicht zu Vorlaut werden, denn sonst kommt das früher als ihm lieb sein kann.

Wieso sollte man einen Hersteller zwingen sein Gedankengut mit anderen zu teilen? Das ist wie IOS auf Androids anzubieten oder Burger von McDonalds bei Burger-King zu verkaufen..... :ugly:
 
Wenn man hier die Kommentare liest muss ich immer hieran denken:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AMD tritt jetzt erst gegen einen Chip an, der schon fast 2 Jahre am Markt ist. AMD selbst vergleicht den MI300X nur mit dem GH100, Q2 2024 will Nvidia jedoch schon beginnen GH200 auszuliefern ...

Ganz so dramatisch isses also mal nicht, wie du es darstellst oder wiedergegeben hast. Und es ist ja nicht so, dass AMD nun "aufgeholt" hat auf den GH100, sondern ihn bereits übertroffen hat in der Leistung. Muss man also alles etwas relativierter betrachten. Sie sind halt nicht punktgleich gestartet und nun ist AMD halt vorne und wird dann beim nächsten Mal von Nvidia wieder überholt und dann wieder von AMD..
Interessant ist zudem Thema diese News.

Genau diese Nachricht hatte ich gesucht weil ich die auch gelesen hatte. Daher nun auch diese Sprüche von ihm, weil er die Shareholder beruhigen will und daher Sprüche klopft.
 
Was für ein ausgemachter Blödsinn!
Der Mehraufwand für texturierte Polygongrafik steht auch in keinem Verhältnis zum visuellen Ergebnis, gemessen an Frogger und Quake 2. Ganz zu schweigen vom überhöhten Stromverbrauch.
Typischer Fall vom Fuchs und den Trauben?
Hätten wir uns damals alle irre aufregen sollen, als OpenGL und DirectX entwickelt wurden? :stupid:
Erfreue dich am Raytracing und gut ist. Dir ist es wichtig und mir nicht. Du kannst ja Quake 2 RTX spielen und dich von dieser Technologie begeistern lassen. Was ich damit sagen will, ist, dass ein oder mehrere Spiele, die inzwischen 30 Jahre alt sind, RTX-Implementierungen bekommen, die dann nur auf 1000€ Grafikkarten spielbar sind. Das finde ich viel mehr :stupid:
 
Zuletzt bearbeitet:
AMDs Treiber sind "Open Source"? Ist mir neu. Link dazu?
Ich finde nur den AMD Vulkan Treiber für Linux als Open Source.
AMDGPU ist das Kernelmodul für AMD Grafikkarten und hier ist der Quelltext: https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/drivers/gpu/drm/amd/amdgpu

RadeonSI ist die Bibliothek, die OpenGL über AMDGPU bereitstellt und hier ist der Quelltext: https://gitlab.freedesktop.org/mesa/mesa/-/tree/main/src/gallium/drivers/radeonsi

RADV ist die Bibliothek, die Vulkan über AMDGPU bereitstellt und hier ist der Quelltext: https://gitlab.freedesktop.org/mesa/mesa/-/tree/main/src/amd/vulkan

Beide Bibliotheken werden unter dem Dach des Mesa-Projekts entwickelt und sind die üblichen Treiber, die unter Linux verwendet werden. AMD trägt hauptsächlich zu RadeonSI bei, aber es gab auch von AMD-Mitarbeitern Patches für RADV.

AMDVLK ist der Vulkan-Treiber von AMD, der unter der GPUOpen Initiative entwickelt wird, jedoch in der Regel nicht genutzt wird, weil er gegenüber RADV zu spät auf den Markt kam und der Quelltext ist hier: https://github.com/GPUOpen-Drivers/AMDVLK

Geringe Teile der Treiberfunktionalität ist in BLOBs ausgeführt, die hier bereitgestellt werden: https://git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git/tree/amdgpu
Man kann sehen, dass diese Dateien einige KB groß sind, also im Vergleich zur restlichen Treibergröße sehr klein.

Edit: Und hier ist der ROCm Quelltext samt der Unterprojekte gehostet: https://github.com/ROCm

und plötzlich ist "alles bei AMD Open Source". Das ist nicht der Fall.
Das habe ich nie behauptet... Ich finde es nicht gut, dass Du das in Anführungszeichen setzt, wenn Du Dich selbst zitierst, weil man das missverstehen könnte.
 
Zuletzt bearbeitet:
Burger von McDonalds bei Burger-King zu verkaufen..... :ugly:
Ne. Du verstehst es falsch. Aktuell scheint es so, als wenn man bei Mäcces (NVIDIA) nichts oder nur sehr verspätet bekommt, wenn man nur darüber nachdenkt bei Burger-King (AMD) zu kaufen. Obendrein verbietet Mäcces anderen
Anbietern Buns (Runtimes) zu produzieren (entwickeln), auf die man Patties von Mäcces (CUDA) abseits von Mäcces Burgern (GPUs) legen könnte. ;)
 
Erfreue dich am Raytracing und gut ist. Dir ist es wichtig und mir nicht. Du kannst ja Quake 2 RTX spielen und dich von dieser Technologie begeistern lassen. Was ich damit sagen will, ist, dass ein oder mehrere Spiele, die inzwischen 30 Jahre alt sind, RTX-Implementierungen bekommen, die dann nur auf 1000€ Grafikkarten spielbar sind. Das finde ich viel mehr :stupid:

Q2 RTX ist eine Machbarkeitsstudie, nicht mehr und nicht weniger.

AMDGPU ist das Kernelmodul für AMD Grafikkarten und hier ist der Quelltext: https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/drivers/gpu/drm/amd/amdgpu

RadeonSI ist die Bibliothek, die OpenGL über AMDGPU bereitstellt und hier ist der Quelltext: https://gitlab.freedesktop.org/mesa/mesa/-/tree/main/src/gallium/drivers/radeonsi

RADV ist die Bibliothek, die Vulkan über AMDGPU bereitstellt und hier ist der Quelltext: https://gitlab.freedesktop.org/mesa/mesa/-/tree/main/src/amd/vulkan

Beide Bibliotheken werden unter dem Dach des Mesa-Projekts entwickelt und sind die üblichen Treiber, die unter Linux verwendet werden. AMD trägt hauptsächlich zu RadeonSI bei, aber es gab auch von AMD-Mitarbeitern Patches für RADV.

AMDVLK ist der Vulkan-Treiber von AMD, der unter der GPUOpen Initiative entwickelt wird, jedoch in der Regel nicht genutzt wird, weil er gegenüber RADV zu spät auf den Markt kam und der Quelltext ist hier: https://github.com/GPUOpen-Drivers/AMDVLK

Geringe Teile der Treiberfunktionalität ist in BLOBs ausgeführt, die hier bereitgestellt werden: https://git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git/tree/amdgpu
Man kann sehen, dass diese Dateien einige KB groß sind, also im Vergleich zur restlichen Treibergröße sehr klein.

Edit: Und hier ist der ROCm Quelltext samt der Unterprojekte gehostet: https://github.com/ROCm

Joah, Linux, ganz ehrlich - wen interessiert es ob die Treiber da Open Source sind? Linux Gaming ist die Nische der Nischen.

Und bei allem was mit KI zu tun hat muss AMD Open Source gehen da sie sonst überhaupt keinen Fuß in die Tür bekommen. So wie bei FSR.

Das habe ich nie behauptet... Ich finde es nicht gut, dass Du das in Anführungszeichen setzt, wenn Du Dich selbst zitierst, weil man das missverstehen könnte.

Dein gesamter Beitrag dreht sich darum dass es für Dich ein "Ausschlusskriterium" ist wenn der Treiber Closed Source ist. Dann verabschiede Dich am besten von allen Herstellern, oder zockst Du nur unter Linux? Bezweifle ich...
 
Meines Erachtens ist deine Sichtweite zu kurz. Raytracing war tatsächlich vor 2-3 Jahren kaum sichtbar. Dann kamen DLSS und Co, und somit die Möglichkeit die Strahlenberechnungen noch intensiver darstellen zu können.

Alan Wake 2 und Cyberpunk in Pathtracing sind definitiv ein Unterschied. Man sieht ja auch, dass Spiele mit weniger Raytracing Leistung später durch ein Update in der Raytracing Darstellung erweitert werden.

Das ist ja schön und gut, aber so lange nur GPUs der €2000 Klasse Pathtracing auch nur mit Frame Generation halbwegs schnell darstellen können, ist das für 2-5% des Gesamtmarktes interessant.
Die restlichen 95-98% werden das tolle Feature nicht zu Gesicht bekommen und damit ist es im Grunde wertlos und wird eine absolute Randerscheinung bleiben.
Die Spieleschmieden werden nicht 90%+ der Kundschaft vergraulen, nur um immer 5% der Käufer mit dem neuesten heißen schei* zu versorgen.

Und natürlich ist das frühere Raytracing nur der Anfang gewesen. Heute sind wir etwas über den Anfang hinaus. Da sind noch so viele Möglichkeiten verborgen, die sehr starken Einfluss auf die Atmosphäre eines Spiels haben werden.

Raytracing ist seit den 1970ern beim "Anfang" und "the next big thing".
Rest siehe oben.
 
Das ist ja schön und gut, aber so lange nur GPUs der €2000 Klasse Pathtracing auch nur mit Frame Generation halbwegs schnell darstellen können, ist das für 2-5% des Gesamtmarktes interessant.
Die restlichen 95-98% werden das tolle Feature nicht zu Gesicht bekommen und damit ist es im Grunde wertlos und wird eine absolute Randerscheinung bleiben.
Die Spieleschmieden werden nicht 90%+ der Kundschaft vergraulen, nur um immer 5% der Käufer mit dem neuesten heißen schei* zu versorgen.

Ich zocke mit meiner 3080 10GB CP2077 mit Pathtracing, WQHD, alles auf "high", DLSS Balanced, und das läuft sehr gut spielbar (selten unter 60 FPS). Keine Ahnung was Du da erzählst.

Mit Ada, und dann Blackwell, bekommen immer mehr das Feature "zu Gesicht". Vielleicht nicht mit 10 bounces per ray, aber eben mit 3, und das ist auch schon ein optischer Mehrwert.

Man man man, wann sind hier alle so "Anti" geworden gegen neue Grafik-Features? Bis RT aufkam hat man fast jede Grafik-Verbesserung gefeiert.

Raytracing ist seit den 1970ern beim "Anfang" und "the next big thing".
Rest siehe oben.

Häh? In den 70ern gab es gerade mal die ersten Heimcomputer, und da war RT das grafische "next big thing"? Wohl kaum.
 
Ich zocke mit meiner 3080 10GB CP2077 mit Pathtracing, WQHD, alles auf "high", DLSS Balanced, und das läuft sehr gut spielbar (selten unter 60 FPS). Keine Ahnung was Du da erzählst.
Ich spiele mit meiner 4090 CP2077 mit allem auf Anschlag (inkl PT) in UHD mit DLSS B (1080p) mit nichtmal 60fps ohne Framegen.
Bin mir nicht so sicher ob deine 720p mit der 3080 besser laufen als 1080p auf der 4090. Ich denke nicht

Mit Ada, und dann Blackwell, bekommen immer mehr das Feature "zu Gesicht". Vielleicht nicht mit 10 bounces per ray, aber eben mit 3, und das ist auch schon ein optischer Mehrwert.
Kannst du bei CP2077 über die .ini auch schon anpassen. Bei 4 bounces lande ich bei 20fps

Häh? In den 70ern gab es gerade mal die ersten Heimcomputer, und da war RT das grafische "next big thing"? Wohl kaum.
Doch, er hat Recht. Halt nicht auf Heim PC, sondern im Filmbereich. Und damit damals "the next big Thing" was es irgendwann mal auf dem PC geben könnte
 
Zurück