Geforce und Radeon: Gerüchte um Daten und Leistung der RTX 4090 und RX 7900XT

Wo zaubert ihr nur immer diese Leute her, die keine Kontakte zu Firmen haben und das blaue vom Himmmel runterlügen. ?

Als ob jetzt schon jemand wissen kann, wie schnell eine GPU sein wird, die in einem Jahr auf den Markt kommen wird !?
Hallo Nebulus07,

rege dich nicht auf.
Leider ist PCGH schon lange zu einem Klick generierten Hardwareseite verkommen.
Sprich sie versuchen mit Bildzeitung Niveau Klicks zu generieren, was sehr traurig ist.

Sobald sie als Gerüchte schreiben, sollte man diese Beiträge schon lange nicht mehr ernst nehmen!
Denn diese sind frei erfunden und basieren nicht auf Fakten, also FAKE NEWS!
 
Leute ehrlich ? Die 3000er Serie gibt es kaum oder nur zu Mondpreisen zu kaufen und ihr hyped schon wieder so ein Produkt?
Ja warum denn nicht???

Ich habe hier diverse RTX 3080 sowie zwei RX 6800XT, und die waren nicht mal schwer zu bekommen.

Natürlich möchte ich News, Gerüchte usw. über neue Produkte bekommen da ein Wechsel auf RTX 4080 und RX 7800XT (sofern die so heißen) so oder so dann anstehen.
 
Meiner Meinung nach müsste die 4000er Serie nicht schneller sein. Aber die Raytracingleisttung dürfte man gerne wesentlich mehr Power geben. In BF2042 auf maximum 140FPS...RT an gleich nur noch 70, was sich wie 30 anfühlt. Also Power hat meine 3080Ti sonst ohne Ende.

@Lanto-Guardian: Oben steht doch klar Gerücht. Wie kannstt du das Fake-News nennen und tust so als würde PCGH es als News verkaufen. Man muss sich hier schon stark wundern.

Ich zeige dir mal Fake-News: 100% der PCGH-Member verfügen über einen Intellekt, welcher seinesgleichen sucht...;););)
 
Wird das extra Netzteil für die GraKa eigentlich im Bundle verkauft oder muss man sich extra drum kümmern?:ugly:
Das bekommst du zum Kauf deines eigenen Windrades bzw. Photovoltaik-Anlage mit dazu vom Energieversorger deiner Wahl :ugly:

Die beraten dich dann auch, dass du sicher bist für die nächsten Jahre, wenn dann die CPU auch mal noch 400Watt frisst und dein GPU-Limit bis 5000W gehen kann.
 
Lese nur mehr Flop, Flop, Flop...
Wünsche mir aber einen Rückwärts[Flip]
... und dann erst den Flop :D

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

@Lexx
Sei doch nicht so direkt mit der Wahrheit ;)
Unsere Gattung ist halt seit Jahrzehnten mit Preisen konfrontiert gewesen, die planbar waren.
Du weißt doch, dass Daumen runter nicht mehr angezeigt werden soll… oh falscher Beitrag....

Ich finde es auch schade, dass man mit wenig Einkommen kaum etwas, bis nichts Aktuelles auf dem GPU-Markt bekommt.

Fakt: Zeiten ändern sich… und das immer.
...und man glaubt es kaum, es geht immer weiter.
 
Denn diese sind frei erfunden und basieren nicht auf Fakten, also FAKE NEWS!
Nun es sind News über Gerüchte, die tatsächlich im Internet zu finden sind. Gerüchte über zukünftige Grafikkarten, was vom Thema her wiederum zur Seite passt. Ob jeder einzelne sich mit Gerüchten befassen möchte, obliegt der Entscheidung des einzelnen.

Ob sich eine Hardware-Magazin mit "Hardware-Gerüchten" nicht befasst, in dem sie dessen Existenz auch nicht nennt, wäre eine Entscheidung der Redakteure. Vielleicht auch eine Frage, was die Leser davon wissen wollen.
 
Wo zaubert ihr nur immer diese Leute her, die keine Kontakte zu Firmen haben und das blaue vom Himmmel runterlügen. ?

Als ob jetzt schon jemand wissen kann, wie schnell eine GPU sein wird, die in einem Jahr auf den Markt kommen wird !?

Tja, es gibt auch Insiderwissen, was unter der Tür durchgereicht wird.
Wie kommt die Bild z.B. an ganz geheime Informationen?
Die wissen ja auch immer alles im Vorraus.
Ein Teil stimmt dann sogar, irgendwie, sei es per Zufall.
Glauben sollte man davon natürlich erstmal nichts.
Interessant ist es soweit, dass man einen Vorgeschmack bekommt, was evtl. eintreten könnte, und dann mitzuerleben, was wie bei der stillen Post dann letzendlich bei herauskommt, und was die Auflösung tatsächlich hergibt.
Kann man also mit einer Wettervorhersage für die kommenden 2 Wochen vergleichen, was man dann täglich nochmal nachdiskutiert, bis man dann letztendlich nach draussen geht und schaut, obs nun regnet, oder nicht. ^^
Es ist halt der Spaß an der Sache.
Wenn man sich komplett überraschen lassen will, schaut/liest man halt keine News.
 
Hallo Nebulus07,

rege dich nicht auf.
Leider ist PCGH schon lange zu einem Klick generierten Hardwareseite verkommen.
Sprich sie versuchen mit Bildzeitung Niveau Klicks zu generieren, was sehr traurig ist.

Sobald sie als Gerüchte schreiben, sollte man diese Beiträge schon lange nicht mehr ernst nehmen!
Denn diese sind frei erfunden und basieren nicht auf Fakten, also FAKE NEWS!
Beispiel wäre die allwöchentlichen "Playstation 5-Verfügbar-Meldungen".
Sieht verdächtig nach Klick-Jagd aus..
Ja, Preis steht aber noch in den Sternen, reist Richtung Mond.
Momentan mittlerweile Normalität.
Schau dir die neuen Z690 und das DDR5-Gelumpe an....
Naja, stehen einfach zu viele Deppen morgens auf...
 
Hallo Nebulus07,

rege dich nicht auf.
Leider ist PCGH schon lange zu einem Klick generierten Hardwareseite verkommen.
Sprich sie versuchen mit Bildzeitung Niveau Klicks zu generieren, was sehr traurig ist.

Sobald sie als Gerüchte schreiben, sollte man diese Beiträge schon lange nicht mehr ernst nehmen!
Denn diese sind frei erfunden und basieren nicht auf Fakten, also FAKE NEWS!

Man sollte einfache, zudem gekennzeichnete Gerüchte nicht mit fiesen Fake News verwechseln, das ist also absoluter Quatsch, was du hier behauptest und eine böse Unterstellung an die Redaktion.
Und wie willst du überhaupt wissen, wo die Informationen her kommen, und ob die wahr sind, oder ob die frei erfunden worden sind?
Bist du denn darüber so genau informiert?
Dein Kommentar ist mehr "Fake News" als alles andere hier.
Dann klär und alle doch endlich auf, was Ende nächsten Jahres - oder wann auch immer - genau von den Herstellern auf den Markt kommt.
Fakten bitte auf den Tisch.
Wir warten.
....
Nichts?
Da sieht man, was du für einen Unsinn redest.
Also halte demnächst bitte deinen Mund, wenn du es nicht z.B. durch eine Gegendarstellung mit Quelle belegen kannst.
Danke.
Fassen wir zusammen:

- Die Leistung wird steigen
- Der Stromverbrauch wird nochmals steigen
- Die Preise werden steigen

Aber echte Enthusiasten schreckt das alles nicht ab. :ugly:

Genau.
Die Leistung wird vermutlich wieder stärker steigen.
Anscheinend mindestens so gut wie bei der 900er zur 1000er und 2000 zur 3000er Serie.
Wenn's am Ende nur 50% sind, auch gut.
Und das bei beiden Teams.
Das klingt vielversprechend, jedenfalls viel besser als Gerüchte, die wie bei der 200er Serie nur über relativ geringe Zuwächse sprechen.
Wohl leider alles erneut auf Kosten der Stromaufnahme und wie immer der Preise.
Aber da kann man ja notfalls durch ein kleineres Modell dann gegensteuern, wo man dann hoffentlich trotzdem viel Zusatzleistung bekommt, ohne dabei die Stromrechnung unnötig mehr zu belasten, wenn man so wie ich noch auf ner 1080 rumsitzt.
Viel mehr sollte man aus solchen frühen Gerüchten eh nicht entnehmen können.
Das weitere Gerede über technische Daten kann man sich eigentlich fast immer bis zum Schluss schenken, solange von den Herstellern noch keine klareren Infobrocken und Benchmarkfolien kommen.
So weiß ich jedenfalls, dass ein Aussitzen der hohen Preise auf jeden Fall lohnen kann, wenn man dann bei trotzdem hohen Preisen zumindest dann den Mehrwert zur alten Karte sich gutreden kann (Euro/Framezuwachs).
 
Zuletzt bearbeitet:
Wie kommt die Bild z.B. an ganz geheime Informationen?
Die wissen ja auch immer alles im Vorraus.
Klar.
Am 10.11.1989 gab es dann 15 cm große Schlagzeilen, weil sie wohl gar nichts wußten.
Die vom 12.11. weiß ich noch die hieß: "Wahnsinn!"

Ein Teil stimmt dann sogar, irgendwie, sei es per Zufall.
Laut Wahrscheinlichkeitsrechnung sind 50% der Lügen dann richtig.
 
Erstmal sehe ich ganz andere Probleme die bewältigt werden müssen, auch wenn der Fortschritt natürlich weiter gehen soll.

Und zwar:
Die Gründe für die mangelnde Verfügbarkeit.
Es fällt schwer den Blick auf neue GPUs zu werfen, wenn wir solche massiven Probleme mit Halbleitern haben.

Auch wenn ich mir als großer Raytracing-Fan natürlich AMD in Zukunft deutlich besser wünsche, dann ist es trotzdem sehr schade warum es nicht schon in der jetzigen Gen passiert ist.
Jetzt steckt das alles schon in den Konsolen, wir wissen wie sehr Konsolen Einfluss auf Spiele haben und dabei kommt am Ende nur Raytracing light raus.
Alles was von den Konsolen und/oder AMD kommt ist eher Raytracing auf dem Papier, aber so weit weg davon was nVidia GPUs schon heute leisten können. (Inkl. DLSS, was sehr wichtig ist)

Mit anderen Worten: Wäre AMD bei RT besser gewesen, würde so manches Spiel einfach noch besser aussehen.

Aber gut, das Kind ist in den Brunnen gefallen.
Wünschenswert wäre eine signifikante RT-Steigerung bei AMD und vielleicht noch entsprechende Pro Versionen der aktuellen Konsolen.

Die großen Mengen an VRAM auf nVidia Seite die hier angesprochen werden... naja ich weiß nicht so recht ob ich das glauben kann. Was AMD mit RT nicht so gut kann, so ist es nVidia mit ihrem Speichergeiz. :ugly:
Und geizen sie nicht, kommt sowas absurdes wie eine 3090 dabei raus. Super Karte, kack Preis.

Aber das sind alles nur Luxuswünsche, erstmal müssen GPUs überhaupt wieder anständig bezahlbar werden.
Auch wenn ich glaube, dass die Bereitschaft so vieler Menschen so viel Geld für GPUs zu bezahlen, einiges kaputt gemacht hat. Es wird dauern bis man sich davon erholt...
 
Das die beiden chips es gibt ist klar
Ds die beiden deutlich mehr leistung haben werden auch
Das diese aber für den consumermakt kommen werden nein
FP32 wovon alle ausgehen ist der wert der eine leistung ebschreibt einer gpu seit 2006
Als mit dx10 die starre pixel und evrtex shader vereint wurden.Und durch primitive texel und rop ersetzt wurden
ROp hgab es schon vorher und stellen das rastergitter her je mehr desto genauer kann das netz sein. Die reine pixelberechnung ist jetzt flexibel und wird in den united shader verarbeitet und vom daher kommt der begriff floating point
Vorher wurde das per mb bis gb/s an pixel und texel ausgegeben.

Nviida Spezial aufbau des ampere chip und kommende gpu
es sind afaik 50% fp32 und 50% fp16 Einheiten verbaut
Die 50% fp16 können allerdings zu ganzzahl also 50% dessen auf fp32 laufen.
bedeutet in einen sm derzeit 128 sind 96fp32 Ausführungen möglich.
das macht beim ad102 wenn nviia die Aufteilung nicht ändert
18432*2 Operationen pro Takt/ 2 (fp32+fp16)*1,5 reale fp32*2,5ghz=69tf
amd gegensatz dazu rdna3 n31 15360*2*2,5=76,8tf

beide aber hängen am SI beim amd sind das theoretische 3,51gb/s
bei nvidias ohne inf cache kommen wir auf 1,08gb/s
nvidia hat ein großes SI Problem das die gpu die 69tf nicht auf die Straße bekommt weswegen ich davon ausgehe das nvidia entweder einen eigene cache auf der gpu setzen wird oder was wahrscheinlicher ist ein zwischen speicher als hbm drauf ist.
Quasi dassselbe prinzuip wie bei amd aber mit dem unterschied das man das per L4 cache löst das umgeht nvidia Lizenz Schwierigkeiten mit amd.
Folglich wird der ad102 monströs bis zum max der Produzierbaren 5nm Belichtung (800mm²)
Was einen comsumer launch komplett ausschließt
Für nvidia wäre es sogar billiger ganz auf gddr6x zu verzichten und auf hbm zu wechseln.

Was aber kommen wird ist ad106 mit gddr6x 80sm
Und refrresh ampere auf 6nm ga104 /48sm und ga106/28sm
ga107/24sm wird auf samsung bleiben.
Ampere sollte ursprünglich auf tsmc 7nm kommen dafür gibt es tape outs wurde aber nix draus weil nvidia sich beim poker verschätzt hat (2018).
Man hatte quasi nicht genug Kapazitäten was jeden chip je weiter in entwicklung gekommen ist auf samsung umgestellt werden musste.
Folglich ist ampere deutlich stromhungriger geworden als geplant und man musste die chips ans limit oc

Der 6nm refresh ist quasi sicher irgendwann q3 2023
Die high end chips sind aber
n32 mit 120cu und 2,5ghz ~400w 38,4tf 3,51tb/s
und ad104 mit 120sm und 2,5ghz 550w 57,6tf 1,08tb/s
wobei amd hier klar gewinnt.

nvidia muss was am cache tun um den abstand zu verringern einzig die Hoffnung das amd mit dem internen cache latenzen hat könnte beide gpu gleichschnell werden lassen. Nehme ich nur gddr6x vs gddr6 an wird nvidia am SI verhungern.
Nvidia hat keine andere Wahl als ad102 und ad104 mit hbm2e auszuliefern mit 8072bit an chiptakt.
was dann etwa 2,5tb/s ergibt
Monolithisch kann nvidia nicht mit nur 384bit gegen inf cache und realen 936gb/s =3,51tf/s ankämpfen einzig amd mcm Ansatz könnte da Probleme machen.
ich wette das nvidia darauf setzen wird das unter windows zwar die amd gpu als Monolithen gesehen werden kann aber real nur zur hälfte arbeiten kann.
Mit glück kommt man wie bei gcn auf 60-80% fp32 load.
was wieder treiber magie voraussetzt

Und bei den tf menge kann ich nur sagen das diese sowieso nur mit dxr und pathtracing genutzt werden kann. Das cpu limit setzt schon jetzt ab 1080p ein egal ob amd oder nvidia und die cpu werden maximal 50% im singlecore schneller (zen4 2023 intel4 fertigung nachfolger in 2024)
Aktuell ist man bei etwa 270 cb15 danach wird es etwa 405 cb15 sein
zen 4 0 ryzen 7000 2023
intel4 = core i14th gen 2024
ab dann sind die 80cu und 84sm auslastbar etwa 26tf auf 1080p

Nächster schritt am desktop zen 3d +15% ipc durch mehr cache am4
zen 4 +50%( ja die haben auch 3dcache) Architektur Verbesserung +35%

Wichtiger sind die strom Ersparnisse durch 5nm und 6nm
5nm reduzierung -50% vs samsung 8nm node 80sm 350w vs 80sm =175w
7nm vs 6nm -20% und -30% vs 8nm samsung
amd 40cu 140w und nvidia 48sm 140w
amd wird allerdings auch kein n34 bringen sondern so
n31 servermarkt
n32 consumer high end
n33 80cu
n22 refresh 6nm 40sm
n23 32cu
n24 cancelt ursprünglich 18cu

Für uns konsumenten gilt rtx4060 +80% Leistung (ga104)
rx7600xt +90% Leistung (n22 refresh)
nvidia lovelace und amd rdna3 wird high end vorbehalten sein mit entsprechenden verbrauch von 350w

Die ganzen Horror Vorstellung das man demnächst min 1200w Netzteile braucht ist völlig an den haaren herbeigezogen

Zum Schluss spiele werden für die Konsolen designet folglich sind 10-14tf das maximum was will man dann mit 40-60tf?
 
Man darf den Energieaufwand für die Kühlung nicht vergessen. So ein Kompressor zieht auf Dauer schon ordentlich Saft aus der Dose, zusätzlich zur GraKa.
:fresse:
 
Das die beiden chips es gibt ist klar
Ds die beiden deutlich mehr leistung haben werden auch
Das diese aber für den consumermakt kommen werden nein
FP32 wovon alle ausgehen ist der wert der eine leistung ebschreibt einer gpu seit 2006
Als mit dx10 die starre pixel und evrtex shader vereint wurden.Und durch primitive texel und rop ersetzt wurden
ROp hgab es schon vorher und stellen das rastergitter her je mehr desto genauer kann das netz sein. Die reine pixelberechnung ist jetzt flexibel und wird in den united shader verarbeitet und vom daher kommt der begriff floating point
Vorher wurde das per mb bis gb/s an pixel und texel ausgegeben.

Nviida Spezial aufbau des ampere chip und kommende gpu
es sind afaik 50% fp32 und 50% fp16 Einheiten verbaut
Die 50% fp16 können allerdings zu ganzzahl also 50% dessen auf fp32 laufen.
bedeutet in einen sm derzeit 128 sind 96fp32 Ausführungen möglich.
das macht beim ad102 wenn nviia die Aufteilung nicht ändert
18432*2 Operationen pro Takt/ 2 (fp32+fp16)*1,5 reale fp32*2,5ghz=69tf
amd gegensatz dazu rdna3 n31 15360*2*2,5=76,8tf

beide aber hängen am SI beim amd sind das theoretische 3,51gb/s
bei nvidias ohne inf cache kommen wir auf 1,08gb/s
nvidia hat ein großes SI Problem das die gpu die 69tf nicht auf die Straße bekommt weswegen ich davon ausgehe das nvidia entweder einen eigene cache auf der gpu setzen wird oder was wahrscheinlicher ist ein zwischen speicher als hbm drauf ist.
Quasi dassselbe prinzuip wie bei amd aber mit dem unterschied das man das per L4 cache löst das umgeht nvidia Lizenz Schwierigkeiten mit amd.
Folglich wird der ad102 monströs bis zum max der Produzierbaren 5nm Belichtung (800mm²)
Was einen comsumer launch komplett ausschließt
Für nvidia wäre es sogar billiger ganz auf gddr6x zu verzichten und auf hbm zu wechseln.

Was aber kommen wird ist ad106 mit gddr6x 80sm
Und refrresh ampere auf 6nm ga104 /48sm und ga106/28sm
ga107/24sm wird auf samsung bleiben.
Ampere sollte ursprünglich auf tsmc 7nm kommen dafür gibt es tape outs wurde aber nix draus weil nvidia sich beim poker verschätzt hat (2018).
Man hatte quasi nicht genug Kapazitäten was jeden chip je weiter in entwicklung gekommen ist auf samsung umgestellt werden musste.
Folglich ist ampere deutlich stromhungriger geworden als geplant und man musste die chips ans limit oc

Der 6nm refresh ist quasi sicher irgendwann q3 2023
Die high end chips sind aber
n32 mit 120cu und 2,5ghz ~400w 38,4tf 3,51tb/s
und ad104 mit 120sm und 2,5ghz 550w 57,6tf 1,08tb/s
wobei amd hier klar gewinnt.

nvidia muss was am cache tun um den abstand zu verringern einzig die Hoffnung das amd mit dem internen cache latenzen hat könnte beide gpu gleichschnell werden lassen. Nehme ich nur gddr6x vs gddr6 an wird nvidia am SI verhungern.
Nvidia hat keine andere Wahl als ad102 und ad104 mit hbm2e auszuliefern mit 8072bit an chiptakt.
was dann etwa 2,5tb/s ergibt
Monolithisch kann nvidia nicht mit nur 384bit gegen inf cache und realen 936gb/s =3,51tf/s ankämpfen einzig amd mcm Ansatz könnte da Probleme machen.
ich wette das nvidia darauf setzen wird das unter windows zwar die amd gpu als Monolithen gesehen werden kann aber real nur zur hälfte arbeiten kann.
Mit glück kommt man wie bei gcn auf 60-80% fp32 load.
was wieder treiber magie voraussetzt

Und bei den tf menge kann ich nur sagen das diese sowieso nur mit dxr und pathtracing genutzt werden kann. Das cpu limit setzt schon jetzt ab 1080p ein egal ob amd oder nvidia und die cpu werden maximal 50% im singlecore schneller (zen4 2023 intel4 fertigung nachfolger in 2024)
Aktuell ist man bei etwa 270 cb15 danach wird es etwa 405 cb15 sein
zen 4 0 ryzen 7000 2023
intel4 = core i14th gen 2024
ab dann sind die 80cu und 84sm auslastbar etwa 26tf auf 1080p

Nächster schritt am desktop zen 3d +15% ipc durch mehr cache am4
zen 4 +50%( ja die haben auch 3dcache) Architektur Verbesserung +35%

Wichtiger sind die strom Ersparnisse durch 5nm und 6nm
5nm reduzierung -50% vs samsung 8nm node 80sm 350w vs 80sm =175w
7nm vs 6nm -20% und -30% vs 8nm samsung
amd 40cu 140w und nvidia 48sm 140w
amd wird allerdings auch kein n34 bringen sondern so
n31 servermarkt
n32 consumer high end
n33 80cu
n22 refresh 6nm 40sm
n23 32cu
n24 cancelt ursprünglich 18cu

Für uns konsumenten gilt rtx4060 +80% Leistung (ga104)
rx7600xt +90% Leistung (n22 refresh)
nvidia lovelace und amd rdna3 wird high end vorbehalten sein mit entsprechenden verbrauch von 350w

Die ganzen Horror Vorstellung das man demnächst min 1200w Netzteile braucht ist völlig an den haaren herbeigezogen

Zum Schluss spiele werden für die Konsolen designet folglich sind 10-14tf das maximum was will man dann mit 40-60tf?
Die 15+ IPC von Zen 3 zu 3 D sind wohl eher understatement von AMD, wenn man die Data Center Keynote als Maßstab nimmt! Milan zu Milan-X = +66% Performance, das wird ein kurzes Intermezzo für Intel an der Spitze wenn sich das 1:1 auf Desktop Zen 3 3 D V-Cache zutrifft! Ergo haben Sie die Auswirkungen von 4 GHZ zu 4, 9 wohl unter den Tisch fallen lassen und so wie ich das verstehe gibt das bestenfalls eisigen Gegenwind für ADL ab Februar 2022!
 
Zurück