News CEO mit klaren Worten: Nvidia ist "kein Grafikunternehmen mehr"

Die Nvidia Preise sind für das gebotene verhältnismäßig günstig. Fakt.

Ich liebe solche anmaßenden Aussagen - aus einer völlig subjektiven Aussage eine absolute Wahrheit machen indem man einfach Mal "Fakt" dahinter schreibt. Muss das sein so aufzutreten?

Zum Artikel:
Die Aussage dass nvidia ohne Plan handelt find ich ja hochamüsant. Das wird ja viele in ihrer Auffassung von "agiler Unternehmensführung" bestätigen und wie super erfolgreich man damit nur sein kann wenn man das Schiff mit Instinkt und Scharfsinn durch die stürmische See navigiert. :lol:
In der Realität macht das einen aber eher zum Bruchpiloten und hat was mit Glücksspiel zu tun so zu handeln. Aber klar gucken wir uns den einen unter 100 an für den das super gelaufen ist und nehmen uns den als Beispiel. Deswegen ist die Welt auch voll mit Superreichen :ugly:
 
Auf den KI-Zug setzen alle Grafikkartenhersteller. Das macht ja nicht nur Nvidia. Und sobald wer Wettbewerk steigt, fallen die Preise im KI Bereich und es wird vermutlioch wieder ordentliche Grafikkarten geben. Wenn wir die dann noch wollen.
Als vor 10 Jahren die ersten Gerüchte aufkamen, dass KI die Welt verändert, hat das keiner so ernst genommen.

Heute sind Veränderungen da, die erahnen lassen, was da auf die Welt zukommt.

Service Mitarbeiter können schon heute durch Chat Bots zufriedenstellend ersetzt werden. In der Medizin werden Dinge möglich, die wir uns bis jetzt noch nicht erträumen können. Für die Wissenschaft ist KI ein Segen. Die Wettermodelle werden immer zuverlässiger, die die Welt in Kacheln aufgeteilt wird, und eine KI die Prognosen genau berechnet.

Vor 6 Monaten haben im Forum irgendwelche "Experten" gemeint, dass Rasterleistung weiterhin seinen Platz hat. Nein, aktuelle Spiele zeigen bereits, dass Raytracing implementiert ist, ob man dies will oder nicht. Demnächst wird nur noch ein "Strahl" berechnet und der Rest wird durch eine KI durch Zukunftserkennung berechnet.
 
Zuletzt bearbeitet:
Das Nvidia irgendwann keine GPU für uns Gamer mehr anbietet bekommen sie von der Regierung indirekt vorgeschrieben und das hat ganz andere Gründe.
Es geht um AI Chips nach China.
Deren Entwicklung soll als Diktatur gebremst werden. Hat mit Gaming GPUs gar nichts zu tun.

Nvidia wird natürlich weiter Gaming GPUs anbieten, wie kommt man bitte auf sowas? Der Markt ist groß genug.
 
Vor allem schaffen es ja auch Konsolen mit leistungsswächere HW aktuelle Spiele in 4K spielbar dar zu stellen.
Genau, deswegen wird bei einigen Titeln per FSR schon von 720p hochskaliert. Die Konsolen pfeifen wenige Jahre nach Release aus dem letzten Loch. Ich bin auf die Tech-Analyse zu Avatar auf den Konsolen gespannt, das wird sicher der nächste Bildqualitätsalbtraum.
 
Es geht um AI Chips nach China.
Deren Entwicklung soll als Diktatur gebremst werden. Hat mit Gaming GPUs gar nichts zu tun.

Nvidia wird natürlich weiter Gaming GPUs anbieten, wie kommt man bitte auf sowas? Der Markt ist groß genug.
Nur leider wird der Gaming zukunfts Chip genau auf diese AI setzen müssen wenn du immer mehr Leistung willst. Der Gaming Chip der heute da ist ist ohne KI bereits am Ende.
 
Genau, deswegen wird bei einigen Titeln per FSR schon von 720p hochskaliert. Die Konsolen pfeifen wenige Jahre nach Release aus dem letzten Loch. Ich bin auf die Tech-Analyse zu Avatar auf den Konsolen gespannt, das wird sicher der nächste Bildqualitätsalbtraum.
Gut, trifft nur auf die Nintendo Switch zu.
Damit haben sie sich etwas Zeit verschafft.
 
Ja aber diese Lücke wird dann keiner füllen, Weder AMD, nich Intel und erst recht nicht die Chinesen in den nächsten 10 Jahren.
Wenn es eine Lücke im Milliardenmarkt gibt, wird die auch befüllt.
Es steht und fällt halt mit den Produktionskapazitäten von TSMC:
wenn noch irgendwo Kapazitäten frei sind, kann AMD, Intel, Nvidia oder wer auch immer eine GPU auflegen die den 200-400€ Preisbereich abdeckt.

Die Mail ist übrigens schon Jahre alt, das Ganze wurde auch schon berichtet, also was wirklich neues ist heute nicht dabei. Die Folgen sehen wir schon.
Klar musst du als Gewinnorientiertes Unternehmen immer schauen den Gewinn (in dem Fall pro mm² Chipfläche) zu maximieren.
Und da eignet sich ein 10.000€ GPU Beschleuniger bei einem 800mm² Chip halt besser als eine 1500€ Geforce 4090 auf einem 600mm² Chip.
 
Wenn es eine Lücke im Milliardenmarkt gibt, wird die auch befüllt.
Es steht und fällt halt mit den Produktionskapazitäten von TSMC:
wenn noch irgendwo Kapazitäten frei sind, kann AMD, Intel, Nvidia oder wer auch immer eine GPU auflegen die den 200-400€ Preisbereich abdeckt.
Ganz klar.
Angst habe ich nur, das wenn Nvidia keine Karten mehr bringt, es für mehrere Jahre keinerlei Fortschritt geben könnte und das Innovationen wie Raytracing/Pathtracing oder DLSS für Konsumenten ausbleiben.
Das aus der Sicht eines Gamers.

Intel braucht noch ein paar Jahre zum Lernen und AMD wird bestimmt keine Karten günstig anbieten, wenn sie die einzigen sind und Innovationstreiber sind AMD nicht.

An Gaming GPUs hängt noch viel mehr als nur Gaming. Auch Filme (CGI) und die Wissenschaft hängen an den Karten.
Die Quadros sind auch im Grunde Gamingkarten mit Workstation Treibern. (gleiche DIEs)
Fallen Gamingkarten weg, so fallen auch unweigerlich Quadros weg und man muss sich mit den speziellen KI-Beschleunigern zufrieden geben.

Von daher glaube ich kaum, das Nvidia keine Gamingkarten mehr machen würde, denn Bedarf ist immer da.

Das ist meine grobe Sicht auf die Dinge:
Aktuell ist halt ein neuer Zweig entstanden: KI. Dieser Zweig hat einen enormen Bedarf und viel Geld, aber auch der Zweig ist irgendwann gesättigt.
Aktuell ist der noch in der Anfangsphase, in einem Boom und jeder braucht neue Hardware, aber zeitnah wird die Entwicklung langsamer, bzw das Interesse sinken. Warum? Nun Geld wächst nicht an Bäumen und Entwicklung und Hardware kosten viel Geld und es sieht nicht danach aus, als würde man derzeit viel Geld rausholen.
Was ich meine ist, das man jetzt nicht alle paar Jahre die Hardware komplett auf die neusten und schnellsten KI-Beschleuniger austauschen kann. Somit wird der Markt nach dem ersten großen Sättigung, deutlich weniger Kaufen und Nvidia/TSMC haben dann wieder Kapazitäten für andere Produkte, wie Gamingkarten.

Tl;dr Es wird möglicherweise 1-2 Generationen lang schlecht aussehen für GPUs, danach wird es aber wieder besser.
 
Das Nvidia irgendwann keine GPU für uns Gamer mehr anbietet bekommen sie von der Regierung indirekt vorgeschrieben und das hat ganz andere Gründe. Die Regierung verbietet jetzt schon Exporte der RTX 4090 nach China weil die Karte über die Rechenleistung von mehr als 4.800 Tops bietet. Wie soll das denn in 3 bis 4 Jahren dann aussehen ? Es würde generell gar keine GPUs mehr nach China geliefert werden weil ne Einstiegs bis Mittelklasse Karte dann vermutlich diese Leistung von 4800 Tops übertreffen würde.
China soll damit verhindert werden High Tech KI Computer zu bauen damit Amerika die "Weltmacht" bleibt , denn in Zukunft werden Kriege auch damit entschieden wer vermutlich die beste KI bzw leistungsfähigste hat.
Der Amerikaner ist bestrebt darin Hochtechnologie im eigenen Land zu halten und anderen Staaten vorzuenthalten um die eigene Wirtschaft zu stärken und den anderen technologisch voraus zu sein und das klappt eben nicht wenn andere Staaten z.b China dann das High End Modell kaufen und daraus ein KI Computer basteln.
Das Amerika das auch anderen Ländern außer China in Zukunft erschweren will kann ich mir gut vorstellen.
Sie machen also praktisch das Gegenteil, was Deutschland macht .. :D
 
Nein. Das trifft ausdrücklich auch auf die PS5 zu.
Du sprichst von Forspoken.

Naja, die ersten DEV Kits hatten nur 1,8ghz beim Grafikchip. Als die XSX vorgestellt wurde mit ihren 12TF und deutlich mehr Shadern, musste sich Sony was überlegen, und taktete den Grafikchip auf bis zu 2,2GHZ, das Netzeil verträgt die Spannungsspitzen nicht, daher kämpft das gute Ding seit Release vor drei Jahren mit Spulenfiepen je nach Spiel. Die Cbox One CPU 2013 wurde kurz vor Release von 1,6ghz auf 1,75ghz angehoben, somit nicht ganz ausgeschlossen, das Sony dies auch tat. Ich schätze die DEV Kits hatten ca 8-9TF gehabt. Jetzt sind es bis zu 10,23TF. Warum bis zu, da sich CPU & GPU dynamisch hochtakten. Die Series X hat fixe Taktraten. Nur meine Vermutung.
Nein. Das trifft ausdrücklich auch auf die PS5 zu.
Hab mich mit Einschränkungen arrangiert. Bis jetzt läuft alles super was ich zocke von daher. Zelda auf der Switch war die erreichte schmerzgrenze, das geruckelt und Geflimmer konnte ich mir nicht mehr antun. Am Ende geht’s ins Spiel und nicht um die Hardware. Hardware ist bekannt somit sollte man dafür auch ordentlich Programmieren können.
 
Zuletzt bearbeitet:
Da geht einer der Stift ab
Nun ai wird sehr bald auf den harten Boden der Realität aufschlagen wenn die Regulierungen und Datenschutz vorgaben mit Exportbegrenzungen greifen
Dann war es dass den dann kann ai nur noch lokal auf eigene Datenbanken laufen was den Sinn dahinter also primäre cloud Anwendung nur firmenintern geht dann fraglich wird.
Folglich wird ai maximal nen Helfer für kleine aufgaben und da ist es sehr fraglich ob es einen nutzen hat.
Da davon nur Menschen profitieren würden die genau prüfen können ob das ai generierte material rechtskräftig bestehen kann.
Nix mit ai generiete chipdesign, ai generierte Schreiben, ai generierte filme Musik oder Kunst und futsch das Geschäftsmodell.
Der einzige nutzen wäre für Regierungen für Medienmanipulation, was man an der alternativen Medien schon jetzt sieht.

Nvidia wird die Kuh solange melken bis sie rubin also 2027 mit en neuen design wieder auf den Boden der Tatsachen zurückkommen und dann wieder sagen sie wären wieder ne Grafikkartenfirma.
Das bedeutet nicht das ai nutzlos wird sondern eher das es in die cpu wandert und deutlich flexibler und genauer wird.
Ggpu sind linear und könne nur einfache aufgaben lösen und sobald mehr Gedächtnis der ai gebraucht wird und es komplexer wird versagen die gpu beschleunigten gegen ne npu.
Ai ist maßgeblich software und so ziemlich alle design der LLM machen ab den 3te schritt einer Erstellung Fehler insbesondere wenn fragen darauf aufbauen da die Ergebnisse immer angepasst werden und keine daten als wahr und echt verifiziert sind
Der code einer ai lernt selbstständig kann aber nicht feste annahmen voraussetzen und passt diese an wen das Ergebnis nicht passt also macht Fehler.
Und gerade das ist es, was ai ohne Entscheidungsfähigkeit das problem darstellt ohne Menschen der entscheidet geht da mal nix.
Wenn ich darüber nachdenke was Microsoft vorschwebt kann ich nur mitn Kopf schütteln die Vorgabe ist ai im OS das problem ne cloud ist essentiell dafür und ebenso große Datenbanken .
Der aufwand ist viel zu groß als das es Algorithmen ersetzen könnte die sind im Gegensatz zu ai genau und funktionieren seit Jahrzehnten

also nein nvidia wird vermutlich nur noch die hopper Architektur maximal bei blackwell mit ai abräumen danach ist es Geschichte wie beim mining.
Da die Technik sich auf npu spezifizieren wird und dann auf Energieeffizienz umsteigt
Um dann als Helfer für hochbegabte nützlich wird. Die das auch prüfen können.
Microsoft co pilot wird wie cortana scheitern.

Demnach wird ai ein Thema bleiben den für Medien manipulation wird es nützlich sein aber wird rechtlich komplett scheitern.
Da ein urheberecht ausgeschlossen wird. also kein Geschäfts Modell darstellt. Wäre noch billigere Kunst erstellen wie filme games und Musik da wird man zwangsläufig kein urheberecht haben und somit auch die Qualität stark schwanken bis sogar schlechter werden.
Womit Schauspieler Musiker und Künstler nicht ersetzt werden können. Autoren können sogar gar nicht verzichtet werden gleiches gilt für Nachrichten
Ai kann generieren wäre aber nur in manipulation von Medien für Regierungen interessant.
Darum gibt es auch diese export limitierungen bis Verbote.
Es ist ein typischer Börsen hype der bald enden wird ich gehe nach den großen Bestellungen die nvidia hat für hopper davon aus das ab q2 2025 die Umsatzzahlen im Bereich Datacenter komplett einbrechen werden.
Wenn nvidia bis dahin nicht blackwell bereit hat hat nvidia ein problem. Darum gehe ich fast davon aus das q4 2024 blackwell kommen wird

Dafür spricht auch das amd mI300 deutlich schneller ist und schon q1 2024 kommt
wie schnell schätze ich blackwell ein das design wird kaum verändert und ist primär ne grafik gpu kein data center gpu wie hopper.
Womit das so aussehen wird
ein sm hat 128 alu 4 tensor cores ein rt core
Daran ändert sich nix dafür wird die gpc neu aufgeteilt in 16sm per gpc bei den üblichen 6 Renderengines (tpc)
Den mehr erlaubt der sheduler vom Treiber nicht. Macht im summe 192 alu bei 12gpc oder 6 tpc bei vermutlich 3,1 oder 2,9ghz je nachdem wie man die sku aufteilen will
Der n4x node ist geradezu ideal um größere chips per sku machen da der node vermutlich ab 2024 nur noch 10000$ kostet
4n kostet nvidia derzeit 17000$
Und nein die neuen preise von tsmc 2023 von 13000$ gelten nicht da Verträge ne Laufzeit haben und die preise nicht angepasst werden.
Darum lohnt sich auch nen refresh der ada gen sogar wenn es neue chips sind aber das hängt von der Verfügbarkeit ab ob die chips schon produziert sind also den Absatz und der ist bei ada sehr schlecht.
Abseits dem ad102 tut sich da kaum was im Abverkauf maximal ist noch der ad104 gefragt ad103 und ad106 sowie bei laptop ad107 verkaufen sich sehr schlecht und das sind die chips die primär produziert wurden.

nvidia gpu's müssen im preis Sinken da führt kein Weg daran vorbei. Und das wird auch passieren sobald der Ai boom abebbt und das sehe ich so q2 2024 kommen
Dann muss nvidia um die umsatzzahlen zu stabilisieren die gpu preise senken damit der Umsatz steigt.
Den je länger gpu erst ab 600€ deutlich an perf Zuwachs kommt wird keiner mehr kaufen der high end markt ist abgedeckt.
8gb sku sind nutzlos und die 12gb wanken auch schon
Der endgültige ende kommt mit der ps5 pro ab q4 2024 und amd rx8600 und rx8700 gen


ps5 pro +- 24tf ab 500€ für 1080p upscaled 4k (entspricht dlss perf)
amd rx8600 17-21tf ab 350€-450€ 12gb
amd rx8700 28-33tf ab 550€-600€ 16gb

ich tippe auf folgendes Szenario
rtx3050 6gb um auch die letzten ga106 zu verwursten ab 150$ bei uns 180€ gpu ohne pcie Stecker (7tf Bandbreitenlimtiert ideal 720p)
rtx3060 12gb 200$ bei uns 220€ (9,2tf ideal 1080p)
rtx4060 250$ bei uns 280€ (11,4tf Bandbreitenlimtiert ideal 720p dlls 3,5 quality/dlss 2 balanced )
rtx4060ti 8gb eol 300$ bei uns 330€ (16,5tf Bandbreitenlimtiert ideal 720p)
rtx4060ti 16gb eol 380$ bei uns 430€ (16,5tf Bandbreitenlimtiert ideal 720p)
rtx4060ti super 12gb 420$ bei uns 460€ (19tf Bandbreitenlimtiert ideal 720p)
rtx4070 eol 450$ bei uns 500€ (22tf ideal 1080p)
rtx4070 d6 460$ bei uns 510€ (22tf ideal 1080p)
rtx4070 super 550$ bei uns 620€ (28tf ideal 1080p)
rtx4080 eol 950$ bei uns 1060€ (37tf ideal 1440p)
rtx4080 super 1000$ bei uns 1100€ (39tf Ideal 1440p)

Das dürfte spätestens q2 2024 passieren wenn amd mit rx8600 angreift unklar ist nur ob nvidia mit ne refresh der rtx4060ti bringt mit gddr6x Speicher oder ne neue sku als super letztere nehme ich eher an.
Diese sku wäre 42sm 12gb 18gbps vram etwa 19tf mit 432gb/s und perfekt für 1080p

Das kann auch als rtx4060 super sein womit eine rtx4060 30sm (14,7tf) mit gddr6 20gbps(240gb/s) und 12gb 250$ etwa 280€ kommen wird und ne rtx4050 mit 20sm (9,6tf) und 20gbps (240gb/s) 12gb ab 200$
Diese Optionen hat nvidia

Dies erwarte ich erst q4 2024 frühestens wenn ampere rtx30 sku komplett abverkauft sind.
alle 8gb sku die derzeit noch gibt sind quasi unverkäuflich und dürften bald extreme Rabatt Aktionen haben von min -60% das wie ist noch offen ich vermute das man gamebundle anbieten wird und dazu nen abo service mit nen Rabatt von etwa -50%
Das könnte sich mit den rtx3060ti und rtx3070 lohnen
Das nvidia was tun muss ist sicher der ai markt ist nicht sicher nach den großen Bestellungen wird es einbrechen.

Was amd angeht nur so viel, mal sehen wie der fix für rdna3 endlich die perf auf die Straße kommt der erste fixed betrifft Effizienz und Takt in n4x node und meine angenommenen 3,55ghz sind noch pessimistisch beim n44 40cu sehe ich da 150w tbp und mit n48 64cu ab 200w

Der zweite fix also rdna5 ab q4 2025 dürfte die 4,0ghz marke kratzen und mit mehreren gcd ab 3*20cu per chip in 2 bis 4 chips Verbund dann mal locker die performance verdoppeln bis vervierfachen vs n48
n51 4*60cu
n52 2*60cu
n53 60cu etwa auf level der rx7900xtx ab 450€ Einstieg
Keine low end chips mehr

Das wann ist noch offen ich gehe ab n53 q2 2026 aus n51 ab q4 2025
relativ nah wird es Gerüchte über ne ps6 kommen die vermutlich q1 bis q3 2027 kommt und min 30tf haben wird wer sagt nochmal n53 kann auch sein das rdna6 drin ist dann aber reden wir über 5ghz gpu's dann erwarte ich aber ne angepasste chip für sony vermutlich ne apu mit hbm4 memory. Das aber ist voll geraten

2026 wird sowieso entscheidend werden da sich ab dann vieles ändern wird. Ai im OS chiptaktraten ab 7,0ghz cpu und 5,0ghz gpu und am6 ab 2027 wird sicher quadchannel haben eher sogar octa channel das wird erforderlich da die apu bis 40cu gehen und bei 5,0ghz (30tf) die Bandbreite benötigt wird.
Somit ist klar das ich mein System nicht vor 2027 wechseln werde und da muss nvidia gewaltige gründe geben min 50tf damit ich ne gpu statt ne apu kaufe
Es wäre möglich das ddr6 auf 128bit geht per channel das würde die Bandbreitenprobleme lösen den mehr als die ddr6 10000 sind nicht drin
also ja gpu werden Später definitiv nur noch mid class und high end sein.
Amd apu ab der ryzen 10000 Serie fangen ab 20tf (32cu) an und gehen bis 30tf (40cu) bei quadchannel ddr6 128bit per channel =512bit 640gb/s
Da ist mit inf cache der die Latenz verringert kaum nochn Grund warum ne dedizierte gpu benötigt wird.
Das entspricht dann den Konsolen standard ab 2027
Die meisten Leute kaufen aber pc um 1000€ mit dgpu .
Ob nvidia nur mit high end chips und mid class für Enthusiasten überleben kann ist unklar.
Wenn nvidia später also ab 2027 mit rubin arch dann der kleinste chip min 400€-500€ kostet als gr204 4gpc 3,2ghz 152fp32 per sm =64tf ab 200w tbp
Und eine cpu erst ab den r9 ohne igp sind sprich 12 oder 16 core die auch ab 400€ losgehen
Dürfte ein build ab 1500€ kosten und somit die meisten ablehnen und die meisten ne apu nehmen werden
bsp konfig
cpu ab 400€
ram 2 mal ddr6 7200 128bit vermutlich 64gb ab 80€
280er aio ab 120€
board ab 250€
gpu ab 450€
ssd übernehmen
hdd und co ebenso
Netzteil ab 100€
Gehäuse wegen aio 100€
Win 12 pro ab 150€

kosten für das build ab 1500€ und tschüss
hallo apu

apu ab 300€
board ab 150€
ram ab 180€
rest gleich
~1100€

ist wirr ich weiß aber nvidia muss sich was einfallen lassen.
Das hinauszögern beim vram und chip sku Sortierung geht nicht mehr lange gut ab 2025 muss min in low end +150% an perf Zuwachs und doppelten vram kommen
Sprich der gb207 kann man direkt beerdigen (32sm) und in die laptop Abteilung verschieben
Den gb206 muss auf den kleinste sku kommen radikal auf stromsparen reduziert mit 60sm bei maxed 140w (n4x 22% Effizienz ohne Taktsteigerung) um die 2,6ghz 28tf als rtx5060 128bit 16gbit 32gbps vram 16gb ab 450€
Der chip kostet um die 70$ der vram 16gbit ab 10$ acht chips nötig =80$ bruttomarge 70% + Rest = 480€ uvp
daher gehe ich davon aus das man sogar 28gbps gddr7 und der wird vermutlich bei 8$ sein dann wäre die marke erreichbar ab 430€.
Wir werden Sehen bis dahin dürfte nur die rtx4060ti super sofern diese kommt oder eben den sauren Apfel rtx4070 der Kompromiss sein.
egal wie ich es drehe und wende am ende dürfte sich ab 2026 sich mein Pc komplett anders aufbauen.
Und ai wird definitiv fehlschlagen
achja es ging ja um ai dazu sagte ich nur das is ne Börsenblase
 
Dann will ich mal hoffen, daß meine 4090 noch lange hält. Denn AMD will wohl auf die gleiche Schiene aufspringen. Also bleiben nur noch intels ARC und diese Chinesen Moore Threads übrig.
Warum sind die eigentlich alle so geil auf dieses KI-Skynet-Gelumpe? Ich seh darin keinen wirklichen Mehrwert... nur Gefahren, wenn es jenseits des Anscheins mal funktioniert. Alles was bisher jenseits von Programm-Code über KI "erschaffen" wurde, war jedenfalls auch als solches erkennbar, meist irgendwie seelenlos und hat mich echt nicht vom Hocker gehauen.
 
Nur leider wird der Gaming zukunfts Chip genau auf diese AI setzen müssen wenn du immer mehr Leistung willst.
Sicher wird AI eine Rolle spielen. DLSS und FG sind erst der Anfang, aber Rechenleistung wird für RT auch gebraucht werden, das kann man nicht mit AI erschlagen.
Der Gaming Chip der heute da ist ist ohne KI bereits am Ende.
Ja, die Chips werden mithilfe von AI designed.
 
Rastergrafikkarten sind tot. Der VRAM ist nicht mehr Zukunftsoption Nr. 1. Da gab es wirklich naive Vertreter in den Foren.
Dafür, dass Rastergrafikkarten tot sind hab ich RT auf meiner Karte noch erschreckend selten angemacht. (Noch nie um genau zu sein)

Das Rastergrafikkarten super bald veraltet sind wollten mir die Leute schon bei der 20xx Serie erzählen. Und ganz ehrlich? So überragend sieht das Feld für RT in Games immer noch nicht aus. Es gibt jetzt mehr als früher, aber richtig viele sinds gemessen an den gesamten Releasen immer noch nicht wirklich.

Klar, RT wird weiter wachsen, aber bevor das richtig wichtig wird läuft man vermutlich nochmal in VRam-Limits wenn man da spart.
 
Zurück