News Jensen Huang über die Konkurrenz: Kostenlose GPUs "nicht billig genug", um Nvidia zu schlagen

Hier muss man wirklich mal trennen:

die Pseudo Revolution des Echtzeit Raytracings ist für die überwältigende Mehrheit der Spieler einach nur ein Ärgernis. Sie sehen es nicht, sie haben nix davon, einzig der GPU Markt ist teuerer geworden.
Features wie Frame Gen sind so lala.
Einge winzige Minderheit von GPU Enthusiasten geniesst derweil ein bischen schickere Grafik in einigen Games.
Dies also auf der PC Spieler Seite.

Meines Erachtens ist deine Sichtweite zu kurz. Raytracing war tatsächlich vor 2-3 Jahren kaum sichtbar. Dann kamen DLSS und Co, und somit die Möglichkeit die Strahlenberechnungen noch intensiver darstellen zu können.

Alan Wake 2 und Cyberpunk in Pathtracing sind definitiv ein Unterschied. Man sieht ja auch, dass Spiele mit weniger Raytracing Leistung später durch ein Update in der Raytracing Darstellung erweitert werden.

Und natürlich ist das frühere Raytracing nur der Anfang gewesen. Heute sind wir etwas über den Anfang hinaus. Da sind noch so viele Möglichkeiten verborgen, die sehr starken Einfluss auf die Atmosphäre eines Spiels haben werden.

Ich spiele den Microsoft Flightsimulator und dort kann mit einem Tool Raytracing aktiviert werden. Also wer da keinen Unterschied sieht, sollte sich besser Gedanken über seine Sehstärke machen.
 
Zuletzt bearbeitet:
Glaube da traust du nvidia zu viel zu. Seh es mal so: Jetzt ist der Moment wo sie am schlechtesten dastehen da sie gerade erst Einnahmen generieren mit Ihren AI-Chips. Das wird also nur besser werden je mehr Zeit ins Land zieht. Und wenn sie jetzt schon im Stande sind, Nvidia zu schlagen..
Es heißt doch alle paar Jahre, dass Nvidia bestimmt ganz bald ganz große Probleme bekommt :ka:
 
Wenn du das nicht siehst, ist das ja ok und gilt für dich. Dafür gibt es ja weiterhin AMD GPUs. Aber wer es einmal gesehen hat und den Unterschied wahrnimmt, will nicht mehr zurück.
Ich kenn genug Leute die den Unterschied sehen und es trotzdem immer aus haben. RT ist sehr vielen Leuten einfach nicht wichtig. Gerade außerhalb von irgendwelchen Enthusiasten-Bubbles. Zeigt sich doch alleine schon daran wie langsam es sich durchsetzt. Bei jeder Gen sagen die Leute wieder "Hurr durr Kurzsichtig, hurr durr in 2 Jahren wirst du dich ohne RT-Performance anschauen, hurr durr" und vergessen, das die meißten Leute ihre Spiele nichtmal auf high spielen.

Meines Erachtens ist deine Sichtweite zu kurz. Raytracing war tatsächlich vor 2-3 Jahren kaum sichtbar. Dann kamen DLSS und Co, und somit die Möglichkeit die Strahlenberechnungen noch intensiver berechnen zu können...
...Also wer da keinen Unterschied sieht, sollte sich besser Gedanken über seine Sehstärke machen.
Oder die Person achtet einfach nicht sonderlich drauf weil es der Person nicht so wichtig ist?
 
Ich kenn genug Leute die den Unterschied sehen und es trotzdem immer aus haben. RT ist sehr vielen Leuten einfach nicht wichtig. Gerade außerhalb von irgendwelchen Enthusiasten-Bubbles. Zeigt sich doch alleine schon daran wie langsam es sich durchsetzt. Bei jeder Gen sagen die Leute wieder "Hurr durr Kurzsichtig, hurr durr in 2 Jahren wirst du dich ohne RT-Performance anschauen, hurr durr" und vergessen, das die meißten Leute ihre Spiele nichtmal auf high spielen.
Raytracing ist eine Next Generation Funktion. Und wie bei allen Next Generation Funktionen ist der Anfang der Entwicklung eben ausbaufähig.

Seit Alan Wake 2 und Cyberpunk merken doch einige, dass Raytracing kein Spielzeug ist, welches wieder eingemottet sind.

Solche Spiele sind natürlich nur der Vorläufer für den kommenden Standard.
 
Der Mann hat wirklich Power und Selbstvertrauen, und vor allem Erfolg! Er scheint dazu über grenzenlosen Optimismus zu verfügen. Die provokante Art wie er das alles bei seinen Auftritten zeigt gefällt logischerweise vielen (Neidern?) nicht.
 
Oder die Person achtet einfach nicht sonderlich drauf weil es der Person nicht so wichtig ist?
Wenn bei Steam geschaut wird, wer mit welcher Konfiguration spielt, dann wird Raytracing noch etwas länger brauchen, bis dieser sich als Standard etabliert hat. Eine GTX 1060 wird allenfalls nicht genügen.

Und Raytracing ist nicht entscheidend für den Spielspass. Ich komme auch ohne aus, keine Frage.

Trotz allem wird es Fortschritte in der Grafikgestaltung geben und Raytracing ist teil davon.
 
Zuletzt bearbeitet:
Da sagt Nvidia aber was anderes dazu. Wir wollen einen neuen Cluster kaufen. Allerdings kosten Nvidia Karten deutlich mehr als AMD Karten, sind schlechter zu liefern und langsamer in der single und double precission. Sieht also eher schlecht aus. Und seit Intel Xeon Phi sind wir auch nicht mehr an ein spezifische API gebunden, wie CUDA.
 
Zuletzt bearbeitet:
Der Mann hat wirklich Power und Selbstvertrauen, und dazu Erfolg! Er scheint dazu über grenzenlosen Optimismus zu verfügen. Die provokante Art wie er das alles bei seinen Auftritten zeigt gefällt logischerweise vielen (Neidern?) nicht.
Die Power hat die Industrie, und die setzt voll auf Raytracing. Diese Techniken sind doch schon im Chipdesign verbaut. Da wird es kein zurück mehr geben, wie etwa zur alleinigen Darstellung von Rastergrafik. Das muss als sicher angesehen werden und jede andere Behauptung ist schlichtweg unrealistisch.

Raytracing ist gekommen, um zu bleiben.
 
"Heftig" investieren bringt dir aber gar nix wenn du keine Ahnung vom Geschäft hast und bislang reiner "User" warst. Talent ist ebenfalls einfach begrenzt auf dem Markt und wer bei nVidia und OpenAI gut verdient (Jahreslohn 500k-1 Mio) sollte warum genau nochmal zu Amazon wechseln ? Oder Google ?
Keine Ahnung vom Geschäft? Alle großen Cloud-Dienstleister haben in-house Chipdesign-Abteilungen und das nicht erst seit gestern. Teilweise sind auch schon Eigenentwicklungen auch im produktiven Einsatz. Google und Meta haben mit TensorFlow bzw. PyTorch die bekanntesten AI-Toolkits selbst entwickelt - schon vor Jahren. OpenAI kann auch nicht den ganzen Talentpool einstellen. Apropos OpenAI, auch Sam Altman will sich nicht für immer von Nvidia abhängig machen.

Wenn Jensen glaubt, er könne Amazon, Google, Meta und co. abfertigen wie das chronisch unterfinanzierte AMD, dann irrt er. Die neuen Konkurrenten sind stärker und das sind nur die Großen. Dann gibt es noch eine Reihe Startups. Z.B. Tenstorrent von Jim Keller.
 
Klingt zwar hochnäsig, nur leider hat er Recht.
Er sagt das sicherlich basierend auf Zahlen seines Unternehmens und wenn die Plattform so viel besser funktioniert als bei Konkurrenten, kann ich mir durchaus vorstellen, dass selbst kostenlose GPU Lösungen in der Gesamtbetrachtung nicht besser wären. Die Konkurrenz schläft aber nicht.
Er ist ein Schwätzer.
Seine Aussagen sind im Gegensatz zu deinen allerdings fundiert.
Warum man diese seit Jahren immer und immer wieder in Zweifel zieht und von irgendwelchen Einbrüchen phantasiert, ist wie ein Dauer-Meme geworden.
Bei jeder Gen sagen die Leute wieder "Hurr durr Kurzsichtig, hurr durr in 2 Jahren wirst du dich ohne RT-Performance anschauen, hurr durr" und vergessen, das die meißten Leute ihre Spiele nichtmal auf high spielen.
So wird es laufen. Spätestens wenn AMD endlich in der RT Performance nachgezogen hat, wird es keinen Halt mehr geben. In Avatar kannst du es nicht einmal mehr abschalten.
 
Zuletzt bearbeitet:
So wird es laufen. Spätestens wenn AMD endlich in der RT Performance nachgezogen hat, wird es keinen Halt mehr geben.
Was im Moment kein Fokus zu sein scheint. Abgesehen davon, dass die alten Karten auch dann nicht plötzlich weg sind. Es gibt einen Grund warum es noch GTX 10xx und RX 5000 und 6000 Karten gibt. Bis RT required ist wird noch viel Zeit vergehen.
In Avatar kannst du es nicht einmal mehr abschalten.
Du kannst Avatar auch auf Karten spielen die keine RT-Kerne haben wo es dann halt mit etwas Software-RT durch (Ich glaube das Game war UE5?) Lumen aber hauptsächlich wieder Raster läuft und womit RT auch da wieder erstmal für die meisten völlig irrelevant ist.
 
Keine Ahnung vom Geschäft? Alle großen Cloud-Dienstleister haben in-house Chipdesign-Abteilungen und das nicht erst seit gestern. Teilweise sind auch schon Eigenentwicklungen auch im produktiven Einsatz.
Jo, und "wir machen kleine Designs teils in-house für Nischenapplikationen und das seit etwa zwei Jahren" ist natürlich vergleichbar mit "wir haben Expertise seit mehreren Jahrzehnten und zehntausende Mitarbeiter die NUR DAS machen. :D

Google und Meta haben mit TensorFlow bzw. PyTorch die bekanntesten AI-Toolkits selbst entwickelt - schon vor Jahren. OpenAI kann auch nicht den ganzen Talentpool einstellen. Apropos OpenAI, auch Sam Altman will sich nicht für immer von Nvidia abhängig machen.
Super. AMD hat bekannte Tools wie HIP, ROCm und FSR auch selbst entwickelt, schon vor Jahren ! Das ist jetzt deswegen auch weithin marktführend und allem überlegen und ihre Radeons übertrumpfen deswegen alles. Oder ? ;)

Nur weil ich irgendwo ein Toolkit entwickle und Software gut kann hab ich dennoch nicht 10k Mitarbeiter mal schnell rumstehen die Experten im Hardware-Bereich sind. Und die finden sich nicht mal eben so auf dem freien Markt zum "schnell, heftig mal einstellen".

Wenn Jensen glaubt, er könne Amazon, Google, Meta und co. abfertigen wie das chronisch unterfinanzierte AMD, dann irrt er. Die neuen Konkurrenten sind stärker und das sind nur die Großen. Dann gibt es noch eine Reihe Startups. Z.B. Tenstorrent von Jim Keller.
Wer redet hier von abfertigen ? Nur nicht dramatisieren. Unterfinanziert ist AMD auch nicht. Die haben aktuell 20 Mrd mehr Market Cap als Intel bei 15k MA vs. 120k MA und auch einen Bruchteil der Verschuldung die Intel hat.

Faktisch kann man nicht "mal eben" mitziehen, egal wieviel Invest du tätigst. Jahrelanges Know-How, IP und Fachkräfte sind nicht beliebig verfügbar.

Dass man langfristig evtl. etwas wird aufbauen können - jo, möglich. Mit genug Kohle und Durchhaltewillen. Aber irgendwie muss sich das dann auch irgendwann mal rechnen.

Frag doch z.B. Lawrence Stroll, der mehrere hundert Millionen Euro bis zu einer Milliarde seit 2018 in seine F1-Abstecher gesteckt hat. Wo ist da mal schnell und heftig der erste Platz ? An den Finanzen mangelt es hier nicht sondern an der Expertise und die kann man sich nicht schnell, schnell beschaffen und hat dann ein schlüsselfertiges Produkt stehen mit dem du zum Matchwinner wirst.

Throw money at the problem hilft halt nicht immer und skaliert sehr schlecht.
 
Zuletzt bearbeitet:
Der Mann hat wirklich Power und Selbstvertrauen, und vor allem Erfolg! Er scheint dazu über grenzenlosen Optimismus zu verfügen. Die provokante Art wie er das alles bei seinen Auftritten zeigt gefällt logischerweise vielen (Neidern?) nicht.
Wenn jemand so offen prahlt, angibt und sich selbst (bzw seine Firma/Produkte) in den Himmel lobt dann ist das einfach unsympathisch. Da ist es mir auch egal ob die Prahlerei der Wahrheit entspricht wie hier oder ob alles gelogen ist ... bisher hat Nvidia noch nichts POSITIVES zum Weltfrieden, dem Welthunger, bei der Rettung von bedrohten Arten , dem Klimawandel , Krebsheikung usw usw. beigetragen. Es ist einfach nur ein Konzern der auf Kosten von Mensch, Tier und Umwelt verdammt viel Geld macht. Schön für alle die dran verdienen aber ansonsten.. :ka:
 
Damit hast du absolut Recht. Der Mehraufwand für Raytracing steht in keinem Verhältnis zum visuellen Ergebnis. Ganz zu schweigen vom überhöhten Stromverbrauch. Da nehme ich doch lieber mehr Frames und einen kühleren Rechner. Raytracing ist für Nvidia eine prima Waffe um mit jeder neuen Version die Hardware obsolet zu machen. So wie es zuletzt mit Pathracing passiert ist, wird es wohl auch wieder mit der 5000er Generation passieren. Jedes neue Feature verbraucht dann Unmengen an Ressourcen. Da kann man nur hoffen, dass die OFF-Schalter auch in Zukunft vorhanden sind.
Was für ein ausgemachter Blödsinn!
Der Mehraufwand für texturierte Polygongrafik steht auch in keinem Verhältnis zum visuellen Ergebnis, gemessen an Frogger und Quake 2. Ganz zu schweigen vom überhöhten Stromverbrauch.
Typischer Fall vom Fuchs und den Trauben?
Hätten wir uns damals alle irre aufregen sollen, als OpenGL und DirectX entwickelt wurden? :stupid:
... bisher hat Nvidia noch nichts POSITIVES zum Weltfrieden, dem Welthunger, bei der Rettung von bedrohten Arten , dem Klimawandel , Krebsheikung usw usw. beigetragen.
Äh. Ich glaube, dass NVidia Chips für so ziemlich ausnahmslos jeden der genannten Punkte in der Forschung benutzt werden.
Es ist einfach nur ein Konzern der auf Kosten von Mensch, Tier und Umwelt verdammt viel Geld macht. Schön für alle die dran verdienen aber ansonsten..
Oh nein. Ein Unternehmen macht Gewinne. Das sollte natürlich sofort verboten werden!
Mal davon abgesehen: So ein moderner Chip rechnet mit der gleichen Menge Energie ein Vielfaches der Aufgaben durch, die ein älterer Chip schaffen würde.
Eine Eisenbahn z.B. produziert ja auch nicht negative Mengen an Umweltverschmutzung. Nur eben viel weniger, als etwaige Alternativen.
 
Zuletzt bearbeitet:
In was? Eine eigene GPU-Entwicklung? :lol:
GPUs? :lol: Nein. KI-Beschleuniger! Da fährt der Hypetrain aktuell.

wir haben Expertise seit mehreren Jahrzehnten und zehntausende Mitarbeiter die NUR DAS machen
CUDA gibts seit 2017. Vorher war nix mit Machine Learning bei Nvidia. Das ist ein maßgeblicher Vorsprung, aber nicht uneinholbar.

Super. AMD hat bekannte Tools wie HIP, ROCm und FSR auch selbst entwickelt, schon vor Jahren ! Das ist jetzt deswegen auch weithin marktführend und allem überlegen und ihre Radeons übertrumpfen deswegen alles. Oder ? ;)
Das von mir genannte PyTorch ist marktführend und hat das vielfach eingesetzte TensorFlow bei der Beliebtheit abgelöst. CUDA ist nur eine von verschiedenen Hardwareplattformen die unterstützt werden.
 
Das von mir genannte PyTorch ist marktführend und hat das vielfach eingesetzte TensorFlow bei der Beliebtheit abgelöst. CUDA ist nur eine von verschiedenen Hardwareplattformen die unterstützt werden.
Darum gehts aber nicht. Sondern darum ob man von Marktführerschaft im Software-Bereich nun auch automatisch tollste Ergebnisse im Hardware-Segment erwarten kann. Nur weil PyTorch marktführend ist müssen deine Beschleuniger die du mit ein paar Mann teuer entwickelst das noch lange nicht sein.

Nur weil du n super Gärtner bist heisst das nicht, dass du mit viel Investment von Daddy jetzt auch erfolgreicher Astronaut wirst oder Stephen Hawking und Einstein in die Tasche steckst.
 
Tatsächlich ist ein proprietärer Treiber für mich persönlich schon ein Ausschlusskriterium.
Huang sagt ja selbst, dass manche Kunden auch von ihnen als Konkurrenten betrachtet werden.
Warum sollte ich Software meiner Konkurrenz auf meinen Systemen laufen lassen, wenn ich noch nicht einmal nachschauen kann, was sie tut und sie nicht in Ordnung bringen kann, wenn ich Fehler finde?

Und mit der Einschätzung, dass Closed-Source ein Geschäftsrisiko darstellt, und Open-Source die Unabhängigkeit sicherstellt, bin ich offensichtlich nicht alleine, wie man diesem Artikel entnehmen kann:

Folglich kann man die Argumentation auch völlig umgekehrt sehen - denn für mich wäre Nvidia durch die geschlossenen Treiber im Vergleich zu AMD und Intel ein massives Geschäftsrisiko für dessen Verhinderung ich bereit wäre, sehr viel mehr zu zahlen.

ROCm ist im Gegensatz zu den Nvidia-Treibern frei einsehbar...
 
Zurück