News Jensen Huang über die Konkurrenz: Kostenlose GPUs "nicht billig genug", um Nvidia zu schlagen

Man man man, wann sind hier alle so "Anti" geworden gegen neue Grafik-Features? Bis RT aufkam hat man fast jede Grafik-Verbesserung gefeiert.
Begreife ich auch nicht. Alles war toll, Texturen werden gefeiert, mehr Details im Spiel und alles. Aber bei Raytracing, was wohl noch den größten Einfluss auf ein Bild hat, dem heiligen Gral, da hört's dann bei den Leuten auf. Is mir auch unbegreiflich.:what:
RIP Next Gen PT Technik Showcase.
Ja ich habs getestet. Ändert aber die FPS nicht. Wohl seit Patch 2.0 oder so. Kannste im Fotomodus gut sehen weil der 2 Rays und 6 Bounces hat. Da gehen FPS runter.
 
Zuletzt bearbeitet:
Begreife ich auch nicht. Alles war toll, Texturen werden gefeiert, mehr Details im Spiel und alles. Aber bei Raytracing, was wohl noch den größten Einfluss auf ein Bild hat, dem heiligen Gral, da hört's dann bei den Leuten auf. Is mir auch unbegreiflich.:what:
Ich verstehe das schon.
Texturen in älteren Spielen haben keine Leistung gekostet, nur VRAM. Nimmt man mit und feiert es.

Raytracing hat halt enorme Leistungskosten für eine Optik die nur etwas besser aussieht. Gute Raster Lichtimplementierung sieht sehr gut aus, teilweise sogar besser als RT, je nach Spiel und Implementierung eben.

Dass RT den größten Einfluss aufs Bild hat, bezweifle ich. Schau dir Quake RTX an und vergleiche das mit Raster CP2077.
Was sieht besser aus? :P
 
Die Power hat die Industrie, und die setzt voll auf Raytracing. Diese Techniken sind doch schon im Chipdesign verbaut. Da wird es kein zurück mehr geben, wie etwa zur alleinigen Darstellung von Rastergrafik. Das muss als sicher angesehen werden und jede andere Behauptung ist schlichtweg unrealistisch.
Ja, genau, die Industrie setzt voll auf Raytracing.. :lol:

Zähl mal alle Spiele-Releases der letzten 12 Monate zusammen und gucke wie viele davon überhaupt Raytracing hatten, und welche Implementierungen davon auch wirklich einen Mehrwert hatten und nicht einfach sinnlos reingerotzt wurden.

Die Hardware ist seit 5 Jahren verbaut, und gute RT-Spiele kann ich immer noch an zwei Händen abzählen. Bei dem Tempo hat sich Raytracing ungefähr zu der Zeit durchgesetzt wenn Star Citizen erscheint. Aber erzähl ruhig weiter deine Märchen die Industrie setzt voll auf RT. Was andere würde Jensen selbst auch nicht lüg.. ähh.. "erzählen".
 
Ich spiele mit meiner 4090 CP2077 mit allem auf Anschlag (inkl PT) in UHD mit DLSS B (1080p) mit nichtmal 60fps ohne Framegen.
Bin mir nicht so sicher ob deine 720p mit der 3080 besser laufen als 1080p auf der 4090. Ich denke nicht

Wie ich sagte, nicht alles auf Anschlag, "high". "Ultra" frisst massiv Leistung.

Doch, er hat Recht. Halt nicht auf Heim PC, sondern im Filmbereich. Und damit damals "the next big Thing" was es irgendwann mal auf dem PC geben könnte

Und im Filmbereich ist Raytracing schon lange Standard bei Computer-generierten Effekten (und ganzen Filmen). "Was es irgendwann mal auf dem PC geben könnte" ist jetzt, zumindest der Anfang davon. Und jede Generation legt ordentlich an RT-Power zu, in wenigen Gens wird es dann mehr RT-Cores als Shader geben, bis irgendwann alles Pathtraced berechnet wird.
 
Und im Filmbereich ist Raytracing schon lange Standard bei Computer-generierten Effekten (und ganzen Filmen). "Was es irgendwann mal auf dem PC geben könnte" ist jetzt, zumindest der Anfang davon. Und jede Generation legt ordentlich an RT-Power zu, in wenigen Gens wird es dann mehr RT-Cores als Shader geben, bis irgendwann alles Pathtraced berechnet wird.
Nicht anderes wurde behauptet. Hattest du aber verneint ^^
 
Das ist ja schön und gut, aber so lange nur GPUs der €2000 Klasse Pathtracing auch nur mit Frame Generation halbwegs schnell darstellen können, ist das für 2-5% des Gesamtmarktes interessant.
Die restlichen 95-98% werden das tolle Feature nicht zu Gesicht bekommen und damit ist es im Grunde wertlos und wird eine absolute Randerscheinung bleiben.
Die Spieleschmieden werden nicht 90%+ der Kundschaft vergraulen, nur um immer 5% der Käufer mit dem neuesten heißen schei* zu versorgen.
Ich koch mir mal ne Suppe. Ist auf jeden Fall interessanter.
 
Bei den Betriebskosten hat Superhirn Jensen wohl ganz schön zu seinen Gunsten gerechnet?
(sollte vllt. mal nen AI-Chatbot fragen)


(so ein Datacenter hat garantiert nen guten Stromtarif, so das 7% Mehrverbrauch nicht die Rolle spielen, ... bei deutlich niedrigeren Anschaffungskosten für die "geschenkte" Konkurrenz)


bezgl. Preis


Und AMD wird sich ja auch weiter entwickeln:

Die große Frage ist, wie oft werden die Datacenter neu bestückt?
Wechselt man alle 2 Jahre auf das Nachfolgemodell?
(dann kann man nur über Betriebskosten eigentlich nicht ggü. Preis gewinnen)
Deine Rechnung geht nur auf wenn die Leistung identisch ist. Dass die große Instinct mit der großen Hopper mithalten kann verspricht aber nicht mal AMD selbst.
Natürlich ist die Aussage zur TCO polemisch überhöht dargestellt, aber nicht vollkommen unmöglich.
Interessant ist zudem Thema diese News.

Also obwohl Nvidia Schweine-teuer ist und nicht liefern kann gucken sich nur 50% überhaupt die Konkurrenz an? ("Consider" ist drüber nachdenken, nicht fest einplanen)
Das würde ich eher als immer noch Katastrophal bezeichnen.
 
Zuletzt bearbeitet:
Far Cry 6 nutzt auch gar kein RTGI. WOW sicher auch nicht.
Hab ich von RTGI gesprochen? Nicht dass ich wüsste.
Ich habe allgemein davon gesprochen, dass es auf die Art der Implementierung ankommt, bei WoW gibt es z. B. RT Schatten und diese sehen schlechter aus als die Raster Schatten in CP2077 oder AW2.
Und nichts anderes war meine Behauptung. Eben dass es auf die Art der Implementierung ankommt und RT nicht allgemeingültig immer besser aussieht.
Dass eine vernünftige RT Implementierung Raster schlägt, bedarf keiner Diskussion, sieht man ja bei genügend Spielen.
 
Begreife ich auch nicht. Alles war toll, Texturen werden gefeiert, mehr Details im Spiel und alles. Aber bei Raytracing, was wohl noch den größten Einfluss auf ein Bild hat, dem heiligen Gral, da hört's dann bei den Leuten auf. Is mir auch unbegreiflich.:what:
RT und PT sind super Techniken...
Allerdings sehe ich nicht ein, dafür mein GPU Budget mal eben zu vervierfachen, um selbst dann noch auf Zwischenframeberechnung UND Upscaling zurückgreifen zu müssen, nur um wieder auf 60+ fps zu kommen.

So viel ist mir das Feature bei weitem nicht wert.
Und genau so geht es eben auch den 99,12% aller Spieler, wenn man dem Steam Survey von Februar 2024 glauben kann.
Da kommt die 4090 auf einen Anteil von 0,88%.
Selbst die 4080 steuert nur noch 0,75% dazu und die Karte liegt leistungsmäßig weit hinter der 4090.

0,88%... das ist eine Nische in der Nische in der Nische.
Und selbst diese Karten haben halt nicht genug Rechenleistung, um RT.. geschweige denn PT in voller Auflösung ohne Frame Generation flüssig darzustellen.
 
ALso wer auf überspiegelung steht,der kann ja RT ruhig an schalten.Wenn ich auf übersoiegelung stehe,brauche ich nur in einen echten Spiegel gucken und nicht auf ein Spiel.
Wo RT angefangen hatte,war bei Battlefield gewesen.Es war so überstrahlt das man am liebsten da den Schalter umlegen will um mehr zu sehen.
Die Spiegelung kann man aber auch übertreiben auch ohne RT ist das möglich.Wo ich das gesehen hatte war bei The Ascent. Da war richtig heftige Spiegelung auch ohne das meine GPU RT hatte möglich.
Wenn das also die Zukunft ist,na dann gute Nacht.RIchtig zocken konnte ich nicht damit.Ich war mehr von der Spiegelung abgelenkt als sonst was.Richtig konzentrieren konnte ich mich dabei nicht.
Mich stört die Überstrahlung ja sogar bei so einfachen Games wie Counter Strike Source.Da habe ich das abgeschaltet gehabt.
Das heißt es wieder nicht besser für mich werden.Das einzige was ich wenn ich mal RT GPU habe,es dennoch nicht verwenden werde.Das ich mal irgendwann eine RTX GPU haben werde,ist zwangsweise dann der fall wenn meine GTX 1650 mal das zeitliche segnen sollte.
VIele haben ja schon geweschselt,ich selbst werde also solange ich es nicht wechseln muss auch nicht machen.Also alles eine frage der Zeit,kann man so sagen.
 
Wenn ich Jensen Huang recht verstehe , sagt er über die Konkurrenz :

Geschenkt ist noch zu teuer .:D

Da hat er wohl nicht so ganz unrecht .:schief:

Gutes Beispiel sind die roten Stromschlürfenden , Raytracing Krücken mit mangelhafter Software Unterstützung .

Im Ki Bereich wirds nicht anders sein , wenn er es auch Überspitzt darstellt .

Jensen ist eben auch ein Verkäufer , und der Erfolg gibt ihm recht , was gut für die Firma und deren Mitarbeiter ist . :daumen:
 
Raytracing hat halt enorme Leistungskosten für eine Optik die nur etwas besser aussieht. Gute Raster Lichtimplementierung sieht sehr gut aus, teilweise sogar besser als RT, je nach Spiel und Implementierung eben.
Unsinn, wir sind nur die statische Fake-Beleuchtung schon gewohnt, sieh dir Mal die rtx Remix Titel an wie viel alleine dynamische Echtzeit Beleuchtung bringt...
Da kommt die 4090 auf einen Anteil von 0,88%.
Selbst die 4080 steuert nur noch 0,75% dazu und die Karte liegt leistungsmäßig weit hinter der 4090.
Man kann auch mit einer 4070er cp2077 und aw2 mit PT in 1080p zocken, ka was du dir zusammenreimst... Und upscaling/FG ist die Zukunft, schon Mal lieber dran gewöhnen
 
Ich find es schön, wie wenig Leute hier zwischen den Zeilen lesen können.
Jensen hat Angst! Er hat Angst, dass die potentiellen Käufer sich für die Konkurrenz entscheiden können.

Gerade weil die Konkurrenz einen enormen Leistungssprung innheralb weniger Jahre gemacht hat, währen NV seit mindestens 8 Jahren bereits daran Arbeitet.
Dann kommt die Konkurrenz, die kommt fast an die Leistung innerhalb von 4 Jahren gefährlich nahe.
Ihr größter Vorteil ist aktuell noch CUDA, aber es wird schon an Konkurrenz Lösungen (welche auch noxh offen sind) gearbeitet, z.B. ROCm.

NV kann nicht die Nachfrage alleine decken, auch wenn die das wollen, nur keine Firma setzt sich gerne auf eine Warteliste, das diese Firmen wieder um einige Monate in der KI abgehängt wird.
Und nachdem TSMCs bei der Chip produktion bereits vollkommen ausgelastet ist und keine Kapazitäten einfach so rangeschafft werden können, wird NV auch nicht schneller Produziert.

Und fangt hier bloß nicht die Konkurrenz zu vergleichen mit Raytracing, DLSS usw. das sind Consumer Karten und haben NICHTS mit Data-Center Karten zu tun.
Da vergleicht man ein Formel-1 Auto mit einem Smart, wer am schnellsten durch Berlin kommt.
 
Ich spiele mit meiner 4090 CP2077 mit allem auf Anschlag (inkl PT) in UHD mit DLSS B (1080p) mit nichtmal 60fps ohne Framegen.
Erstens sind UHD mit DLSS Balanced keine 1080p, sondern 2227x1253.
Ich spiele das Game mit einer 4090 in UHD+DLSS Performance, sprich 1080p ohne Frame Generation mit 70 FPS AVG.

Ergo sind 60 FPS in WQHD DLSS Balanced auf High durchaus möglich.
Man ist ja nicht gezwungen alles auf ultra zu spielen.
Doch, er hat Recht. Halt nicht auf Heim PC, sondern im Filmbereich. Und damit damals "the next big Thing" was es irgendwann mal auf dem PC geben könnte
Nein, es ist "Schwurbel". Im Filmbereich, an dem beginnend in den 80er Jahren Serverfarmen monatelang gerechnet haben um ein Ergebnis auszuspucken, erklärt er das Thema als "next big thing" und vermischt untersch. Themen. Im Grunde will er es nur schlecht reden, solange AMD zurückliegt, danach ists ihm egal. Er kann ja auchzeigen wo ich auf meinem Commodore C64 Realtime-RT zocken konnte und wo das das "next big thing" war.
Das ist ja schön und gut, aber so lange nur GPUs der €2000 Klasse Pathtracing auch nur mit Frame Generation halbwegs schnell darstellen können, ist das für 2-5% des Gesamtmarktes interessant.
Reichen tut dafür allerdings schon eine 4070. Eine 4090 braucht man dafür nicht.
Aber lustig. Einerseits sagst du RT sei schon in den 70ern "Am Anfang"gewesen, während es heute dann nur auf dem absoluten High End spielbar wäre und am Anfang sei.Irgendwie reichlich widersprüchlich deine Argumentationskette.
Texturen in älteren Spielen haben keine Leistung gekostet, nur VRAM. Nimmt man mit und feiert es.
Texturen alleine bringen dir wenig, wenn sie nicht auf ansehnliche Polygone gepappt werden und mit der korrekten Beleuchtung Plastizität entfalten.
Warum sehen alte Spiele in denen nur RT dazugekommen ist plötzlich so gut aus, trotz schwacher Texturen? Kannst du dir denke ich selber beantworten.
Raytracing hat halt enorme Leistungskosten für eine Optik die nur etwas besser aussieht.
Raytracing hat weniger Leistungskosten, als wenn man das Ergebnis mit einem Rasterizer Ansatz erzielen will. Das alleine ist Grund genug diese Technik zu forcieren.
Gute Raster Lichtimplementierung sieht sehr gut aus, teilweise sogar besser als RT, je nach Spiel und Implementierung eben.
Nein, meilenweit schlechter und gar nicht dynamisch einsetzbar wenn alles prebaked ist.
Dass RT den größten Einfluss aufs Bild hat, bezweifle ich. Schau dir Quake RTX an und vergleiche das mit Raster CP2077.
Was sieht besser aus? :P
Reichlich alberner Vergleich. Aber heutzutage wird ja alles unternommen um moderne Technik niederzuschreiben.
Allerdings sehe ich nicht ein, dafür mein GPU Budget mal eben zu vervierfachen, um selbst dann noch auf Zwischenframeberechnung UND Upscaling zurückgreifen zu müssen, nur um wieder auf 60+ fps zu kommen.
Dann solltest du vielleicht selbst an dir arbeiten mehr Geld zu verdienen, um es dir leisten zu können. Es ist doch völlig egal ob es RT oder andere Weiterentwicklungen der letzten Jahre waren. Dein Argument "kann ich mir nicht leisten" lässt sich auf alles anwenden und hat mit "RT" nichts zu tun.
Und selbst diese Karten haben halt nicht genug Rechenleistung, um RT.. geschweige denn PT in voller Auflösung ohne Frame Generation flüssig darzustellen.
Aus deiner verworrenen Perspektive haben Grafikkarten nie genügend Leistung um etwas darstellen zu können. RT konnte man schon mit einer 2060 vor 6 Jahren darstellen.
Vielleicht sollte dich jemand mal aus dem Winterschlaf wecken?
 
Zuletzt bearbeitet:
Zurück