Geforce RTX 4000: Lovelace angeblich ohne größere Architektur-Änderungen

Ist denn davon auszugehen, das GDDR7 Speicher bereits auf dem zumindest Top Dog der RX4000 Serie zum Einsatz kommen wird?
Mit Samsung ist ja anscheinend vor 2023 nicht damit zu rechnen.
 
Anstatt sich wieder sinnlos um Kopf und Kragen zu diskutieren, sollten sich alle die neutrale Zusammenfassung vom guten Leonidas aus dem 3DCenter zu Gemüte führen:

Laut Twitterer Greymon55 braucht man zu nVidias kommender "Lovelace"-Architektur für Gaming-Grafikchips (im Gegensatz zur "Hopper"-Architektur, welche augenscheinlich nur für HPC-Zwecke existiert) keine großen Architektur-Verbesserungen zu erwarten. Dies erscheint allerdings auch nicht zwingend notwendig, denn nVidia hat hierfür zwei andere gewichtige Argumente: Zum einen der große Sprung von (maximal) 84 auf 144 Shader-Cluster (+71%), zum anderen der Wechsel von Samsung 8nm auf TSMC 5nm. Dies entspricht locker anderthalb Nodes, da Samsungs 8nm-Fertigung nur ein Derivat von deren 10nm-Fertigung darstellt. Mittels dieser Veränderung bei der Chipfertigung dürfte nVidia vermutlich AMD bei den Chiptaktraten wieder deutlich näher kommen können, nachdem AMD in dieser Disziplin zuletzt doch deutlich davongezogen ist.

http://www.3dcenter.org/news/news-des-56-februar-2022
 
Bezug auf den BIOS Flash bei Karten mit LHR.
Ich weiß nicht, ob man sowas bei den Preisen machen sollte. Eine illegale Firmware ist sicherlich nachweisbar und ob man dann eine Karte für 2000€ in dieses Risiko bringt, weiß ich nicht. Der Gewinn ist ohnehin nicht mehr so hoch und es dauert lange.

Bei 200€ Gewinn pro Monat nach 1-2 Jahren, muss man schon einige Karten am Laufen halten damit sich das lohnt.
Vor allem bei den steigenden Strompreisen wird das nix mehr............
 
Habe nirgendwo etwas von Fanboy geschrieben, zudem auch angegeben, dass ich mich selbst natürlich auch manchen eher zuwende als anderen. Wo ich Dich hier "immer und überall" so bezeichne, wäre dann schon interessant.
Es ist mir schon öfters aufgefallen dass Du mich mit dem Hinweis zitierst dass ich NV zugeneigt wäre. Ich werde jetzt keine Recherche betreiben wo genau, dafür ist mir meine Zeit zu schade.

Schon das sie teilweise ausgehebelt wurde, beweist dass sie nicht einwandfrei funktioniert und die Karten dennoch bei Minern landen. Zudem kosten die CMP-Karten (wie ich schon erwähnte) zu viel und haben keinen Wiederverkaufswert bzw. einen viel geringeren Kundenkreis dafür - der sich nicht wie hoffnungsvolle Gamer verarschen lässt.
Besser als es gar nicht zu versuchen, findest Du nicht?


Dir ist schon bewusst, dass die besseren Hashes auf ausgehebelte LHR-Blockaden bezogen waren oder wolltest Du das bewusst nicht verstehen?
Also mit einiger Verzögerung (über 1 Jahr wenn ich mich recht erinnere?)


Nvidia hat damit lediglich versucht sein Image gegenüber gutgläubigen (und kaum nachdenkenden) Gaming-Kunden zu verbessern und gleichzeitig selbst mehr Profit aus speziellen Karten zu schlagen. Dass durch diese Separierung eben nicht "mehr" GPUs entstehen sollte jedem nur halbwegs intelligenten Menschen klar sein. Es werden die vorhandenen dann eben aufgeteilt und durch einen Teil kann Nvidia jetzt mehr Geld verdienen und nicht mehr nur die Hersteller, Händler und Scalper. Für Gamer bringt das genau null - da wie gesagt die Gamingkarten dennoch auch von Minern gekauft werden.
Nvidia wurde hart angegangen endlich etwas dagegen zu machen, dann machen sie etwas und dann ist es reine Image-Pflege? Paradox...

Und es sind durch die Separierung sehr wohl "mehr" GPUs entstanden da einige CMP Karten auf Turing Chips (12nm TSMC) basieren.
 
Was sollte uns denn Dein Beitrag bringen? Müssen wir wissen, dass DLSS und RT für Dich nicht wichtig ist?
Ich dachte ein Forum wäre ein Ort für Meinungsaustausch. Wenns für dich nur eine Produktivplattform ist wo jeder Satz einen Nutzen haben muss (vielleicht hat er den für andere oder sprichst du für alle...? :ugly: ) haben wir vielleicht unterschiedliche Ansichten davon warum wir hier sind.
 
Idealfall wären aber doch 40% mehr Transistoren? Zumindest aus effizienztechnischer Sicht! Denn dann würden die Karten die gleiche VErlustleistung haben, bei 40% Mehrleistung (ohne architektonische Gewinne)
Wenn man damit die angestrebte Leistung schafft und die Packdichte es hergibt. Am Ende ist aber der Kernpunkt, den man im Kopf haben sollte, dass ein neuer Prozess weniger Leistungsaufnahme oder mehr Performance bietet. Will man beides ist der Fortschritt weit weniger spektakulär.
 
Ich mein gibt ja einen Grund, warum die 6900XT teilweise mit der 3090 Schlitten fährt, ohne den ganzen propritären Mist von NV.
Wo ist das bitte der Fall? Kannst du mir 3 Beispiele dazu liefern?

DLSS benutze ich nach vielen Jahren wo es so hart beworben wird in zwei Spielen (God of war und D2 Resurrected) die anderen ca. 100 Spiele die ich habe könnens nicht.
Sind unter diesen 100 Spiele auch etliche ältere? Falls ja, dann muss man auch mal die Kirche im Dorf lassen und Spiele, welche aktuell so gut wie keinen Support mehr seitens Studio/Publisher bekommen, außenvor lassen.
Ein Left4Dead braucht beispielsweise kein DLSS. Du kannst hier mittels DSR die Qualität erhöhen.
DLSS ist für neuere Spiele gedacht, welche extrem Leistungshungrig sind.
 
Wenn man damit die angestrebte Leistung schafft und die Packdichte es hergibt. Am Ende ist aber der Kernpunkt, den man im Kopf haben sollte, dass ein neuer Prozess weniger Leistungsaufnahme oder mehr Performance bietet. Will man beides ist der Fortschritt weit weniger spektakulär.
Es geht auch beides. Die Leistungsaufnahme wird um 10% kleiner und die Leistung um 30% höher, wenns 40% mehr Transistoren sind ^^.
Wenns wieder ein mords Sprung wird, dann wäre 4k 120Fps mit RT nicht weit weg (inklusive DLSS Quality)..
 
Das Problem ist doch, dass sowohl Nvidia als auch AMD die schnellste Gaminggrafikkarte haben wollen. Daher wird dort keiner 10% weniger Strom und 30% mehr Leistung wählen. Vielmehr nimmt man 50% mehr Strom und 80% mehr Leistung. Außerdem kaufen so 3090 Besitzer auch wieder eine 4090. Für weniger Stromverbrauch und/oder etwas mehr Leistung tauscht man die Grafikkarte nicht aus.

Aus Kundensicht sollte man eben dann zu 4070 greifen und hat dort eine günstigere Karte. Leistung wie bei der 3090 und dazu eben weniger Stromverbrauch. Man muss ja nicht alles mitmachen.
 
Wo ist das bitte der Fall? Kannst du mir 3 Beispiele dazu liefern?
Kann diese Schlussfolgerung auch nicht nachvollziehen. Beide liefern sich im Rasterization ein Kopf an Kopf rennen. Ich denke der gewählte bzw. genutzte Prozess hat viel mehr Impact auf die Architekturen und das Ergebnis. NVidia kann mit 2 Ghz maximal aufwarten und braucht dafür aber Unmengen an Saft. Man stelle sich Ampere mal in TSMC 7nm vor.
2.4 Ghz und deutlich geringeres Powerbudget. Man sieht ja immer wieder was passiert sobald die Last ansteigt durch z.B. höhere Auflösungen. Erst da kann Ampere seine stärken ausspielen, im unteren Bereich (1080p) dagegen bekommt Ampere die PS nicht bzw. kaum auf die Straße...
 
Wo ist das bitte der Fall? Kannst du mir 3 Beispiele dazu liefern?
Benutz google oder den Leistungsindex. Brauch ich nicht, ist hinlänglich bekannt.
Sind unter diesen 100 Spiele auch etliche ältere? Falls ja, dann muss man auch mal die Kirche im Dorf lassen und Spiele, welche aktuell so gut wie keinen Support mehr seitens Studio/Publisher bekommen, außenvor lassen.
Ein Left4Dead braucht beispielsweise kein DLSS. Du kannst hier mittels DSR die Qualität erhöhen.
DLSS ist für neuere Spiele gedacht, welche extrem Leistungshungrig schlecht optimiert sind.
fixed
Im Firestrike!!1elf Aber nicht im Extreme... :lol:
Sag mal, hat deine 3080 eigentlich immer noch 10GB?
 
Benutz google oder den Leistungsindex. Brauch ich nicht, ist hinlänglich bekannt.
Wenn du eine Behauptung in den Raum wirfst, bist du auch in der Beweispflicht und nicht dein Gegenüber.
Im GPU Index von PCGH sehe ich keine 6900 XT, die mit der 3090 "schlitten" fährt:
Screenshot 2022-02-07 141306.png


Auch hier hätte ich gerne Belege für diese Aussage. Du wirfst mit Behauptungen nur so um dich, ohne auch nur einen Beleg dafür zu liefern.

Mal wieder ein Nvidia Thread, welcher von den üblichen Verdächtigen gekapert wird, um gegen Nv zu hetzen und AMD in den Himmel loben.
 
Es geht auch beides. Die Leistungsaufnahme wird um 10% kleiner und die Leistung um 30% höher, wenns 40% mehr Transistoren sind ^^.
Wenns wieder ein mords Sprung wird, dann wäre 4k 120Fps mit RT nicht weit weg (inklusive DLSS Quality)..
Klar, aber würde der Markt über 25-30% mehr Leistung jubeln?
 
Zurück