RTX 4000 und RX 7000: Leaker mit neuer Specs-Tabelle

raPid-81

Software-Overclocker(in)
Also bist Du wegen AMD mit Deiner Nvidia bis jetzt klar gekommen mit CP2077 und das ist die Begründung, oder die Motivation jetzt wieder Nvidia zu kaufen?

Sry, dass kann ich wirklich nicht verstehen, ...
naja eigentlich doch.
Ist halt Mode Nvidia zu haben, auch wenn sie einen als Kunden hängen lassen, weil man nicht die neueste Hardware gekauft hat, mit den angeblich notwendigen vereinfachten Schaltungen -4 Bit FTW- , um neue Features zu sehen (RT , Sound, DLSS)

Ps. bei mir wird's die fetteste AMD-Karte. Ich habe so das Gefühl, als würde ich die eben so lange nutzen können wie meine 7970 anno dazumal. (5 Jahre :D [Ohne RT, sonst natürlich alle 9 Monate neue Karte] ).

Liebe Grüße

Und wenn man AMD kauft unterstützt man Robin Hood oder wie? So klingt es zumindest, als wäre NV das ultimativ böse und AMD der Heilsbringer. Am Ende sind beides Aktienunternehmen die versuchen so viele Produkte wie möglich zu verkaufen.

Und nach den 5 Jahren war der Treibersupport plötzlich weg, richtig? Der ist bei NV nämlich deutlich länger, da werden alte Karten später abgesägt.

Der kleine Infinity Cache bei AMD hat eine hervorragende Hitrate.
Ja, in kleinen Auflösungen:

According to AMD, the Infinity Cache should be able to work very effectively in games. The hit rate varies depending on the resolution, in 1,920 × 1,080 it should be 80 percent, in 3,840 × 2,160 it should be 58 percent. If the data is not in the cache, it must be searched for in the 16 GB memory. If, on the other hand, the data is available in the large cache, it is never transferred via the VRAM memory interface. Because this transfer of data requires a lot of energy (AMD speaks of six to eight times as much energy per transferred bit compared to the Infinity Cache), the energy efficiency increases compared to a GPU without Infinity Cache.
Das ist ein Grund (einer, 1!) warum RDNA2 in höheren Auflösungen langsamer ist.

Der einzige Grund warum Nvidia in höheren Auflösungen näher an AMD rankommt, ist das NVDIA ihre Chips erst dann auslasten kann. In kleinen Auflösungen läuft der Chip hohl. Das weißt Du doch eigentlich auch oder nicht ?
NV zieht in höheren Auflösungen vorbei und kommt nicht näher ran. Aber ja, mir ist die Architektur und deren Vor- / Nachteile bekannt.

Man kann auch ausrechnen wie viel Leistung bei höhreren Auflösungen verloren geht, Computerbasee und PCGh haben das genau getestet und dem Chip von AMD eine gute Leistung in allen gängigen Auflösungen bescheinigt.
Ich sage ja nichts Gegenteiliges, RDNA2 hat eine super Leistung in FullHD (aufgrund guter Auslastung der Shader und des Infinity Cache). In WQHD sind die Karten meist gleichauf, in 4K ist NV schneller.

Noch mal,
der Eindruck, dass Ampere in hohen Auflösungen prozentual mehr zulegt stimmt, aber es kommt daher, dass Nvidia dort eine Schwäche von Ampere kaschieren kann.

Viele Grüße
Du sprichst von "Schwäche kaschieren", andere würden sagen "hier kann Ampere seine Stärken ausspielen". Merkste selber? Ist beides richtig.


Er ist auf die FPS und als Bonus auf die Effizienz eingegangen.
Wie kann man bei 4 Zeilen schon so selektiert wahrnehmen oder ist das ein Reflex ?
Er ist genauso biased wie Du und kramt immer die gerade für ihn passenden Benchmarks raus. Performance-Rating nur für Rasterisierung, Performance pro Watt bei maximaler FPS, wo sind das allgemein gültige Benchmarks?
 

C_17

Freizeitschrauber(in)
Das würde keiner kaufen. Wenn man mit 15% Mehrleistung bei gleicher TDP ankommt dann sprechen die Leute von "null Fortschritt" etc...
Das Problem ist da wahrscheinlich, das man das nicht mehr sagen würde, wenn nur aller 3-4 Jahre eine neue GPU auf den Markt käme.
Mittlerweile vergeht ein Jahr nach Release und die ersten "Leaks" kommen schon zur nächsten Gen. Man kennt das ja.
Vielleicht sollten die Hersteller mal länger forschen bis zum nächsten Produkt.
 

seahawk

Lötkolbengott/-göttin
Das eigentlich Problem ist die Selbstkontrolle der Konsumenten. Bringt die neue Generation nur 20% Mehrleistung kauft man eben jede zweite oder dritte. Eigentlich müsste man froh sein, da das eigene Investment länger hält, trotzdem hätten wir dann die Leute, die "Fail" schreien und bei CPU und GPU immer brav jede Generation kaufen. Warum auch immer.
 

raPid-81

Software-Overclocker(in)
Das Problem ist da wahrscheinlich, das man das nicht mehr sagen würde, wenn nur aller 3-4 Jahre eine neue GPU auf den Markt käme.
Mittlerweile vergeht ein Jahr nach Release und die ersten "Leaks" kommen schon zur nächsten Gen. Man kennt das ja.
Vielleicht sollten die Hersteller mal länger forschen bis zum nächsten Produkt.
Ziemlich großes Risiko für ein Unternehmen. Was wenn eine Gen mal keine super Ergebnisse bringt? Dann hat man 6-8 Jahre kein Produkt? Insolvenz incoming...

An RT / DLSS hat NV bestimmt 5-10 Jahre geforscht bis es in die GPUs kam.
 

C_17

Freizeitschrauber(in)
Ziemlich großes Risiko für ein Unternehmen. Was wenn eine Gen mal keine super Ergebnisse bringt? Dann hat man 6-8 Jahre kein Produkt? Insolvenz incoming...
Sehe ich nicht so.
Die Folge wäre ja immer schnellere Entwicklung, sonst geht man "pleite".

War früher ja auch nicht so und siehe da, die Firmen haben es auch geschafft. Mir kommt es heute so vor das immer mehr Produkt in schnellerer Zeit auf den Markt gehauen werden, besser wäre weniger dafür unterschiedlichere Modelle und mehr Ideenreichtum.
Was wenn eine Gen mal keine super Ergebnisse bringt?
Das Risiko haben dann aber alle Firmen welche GPUs auf den Markt bringen. Das spornt vielleicht mal wieder an, an jedes Bedürfnis zu denken und Fehler vorher auszumerzen.

Ich erinnere nur an manch schäbige Kühllösung bei Pascal (gerade EVGA hat sich da anfangs nicht mit Ruhm bekleckert) oder bei den Kondensatoren bei Ampere zum Start, als auch da Fehler bekannt worden. Auch der VRAM war bei Ampere oft nicht ausreichend gekühlt. Das sind alles Sachen die bei längerer Forschung hätten vorher schon behoben werden müssen.

Hab das selbst ab 2016 oft erlebt, das ich selbst Hand anlegen musste an eine versiegelte GPU, weil der Hersteller nicht in der Lage ist bei den Preisen ordentliche Kühlpads zu verbauen oder eine ausreichende Menge (Siehe EVGA). Ich war froh das ich bei meiner GTX 1080 von EVGA eine Zusatzabsicherung hatte auf 5 Jahre extra. Eines Tages ging der PC nicht mehr an - Speicher kaputt bei der EVGA - war Gott sei Dank noch im 4. Jahr und es wurde getauscht. Ich denk nämlich oft, das das bei EVGA so gewollt ist, sonst würden die keine Zusatzversicherung anbieten. Deren Kühllösungen sind bisher immer recht schlecht gewesen und sehr dünn im Vergleich zu anderen.

1657612340123.png
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Sehe ich nicht so.
Die Folge wäre ja immer schnellere Entwicklung, sonst geht man "pleite".

War früher ja auch nicht so und siehe da, die Firmen haben es auch geschafft. Mir kommt es heute so vor das immer mehr Produkt in schnellerer Zeit auf den Markt gehauen werden, besser wäre weniger dafür unterschiedlichere Modelle und mehr Ideenreichtum.

Das Risiko haben dann aber alle Firmen welche GPUs auf den Markt bringen. Das spornt vielleicht mal wieder an, an jedes Bedürfnis zu denken und Fehler vorher auszumerzen.
Und die Firma die dann häufiger GPUs rausbringt hat einen Vorteil am Markt. Das funktioniert nicht in der freien / sozialen Marktwirtschaft, dazu müssten wir einen weiteren Planwirtschafts-Versuch unternehmen. Wie die bisher alle ausgegangen sind ist ja bekannt...


Ich erinnere nur an manch schäbige Kühllösung bei Pascal (gerade EVGA hat sich da anfangs nicht mit Ruhm bekleckert) oder bei den Kondensatoren bei Ampere zum Start, als auch da Fehler bekannt worden. Auch der VRAM war bei Ampere oft nicht ausreichend gekühlt. Das sind alles Sachen die bei längerer Forschung hätten vorher schon behoben werden müssen.
Was hat jetzt eine neue GPU Generation mit den verbauten Teilen der AIBs zu tun?

Der VRAM auf den Ampere Founder Editions war / ist ausreichend gekühlt. Wenn sich manche an 100°C stören ist das verständlich, aber die Bauteile halten noch mehr aus bevor sie drosseln.

Hab das selbst ab 2016 oft erlebt, das ich selbst Hand anlegen musste an eine versiegelte GPU, weil der Hersteller nicht in der Lage ist bei den Preisen ordentliche Kühlpads zu verbauen oder eine ausreichende Menge (Siehe EVGA). Ich war froh das ich bei meiner GTX 1080 von EVGA eine Zusatzabsicherung hatte auf 5 Jahre extra. Eines Tages ging der PC nicht mehr an - Speicher kaputt bei der EVGA - war Gott sei Dank noch im 4. Jahr und es wurde getauscht. Ich denk nämlich oft, das das bei EVGA so gewollt ist, sonst würden die keine Zusatzversicherung anbieten. Deren Kühllösungen sind bisher immer recht schlecht gewesen und sehr dünn im Vergleich zu anderen.

Anhang anzeigen 1398280
Und wieder ein Beispiel für AIBs, die haben nichts mit der Rate an GPU Generationen zu tun.
 

C_17

Freizeitschrauber(in)
Und wieder ein Beispiel für AIBs, die haben nichts mit der Rate an GPU Generationen zu tun.
Mag schon sein. Dann müssen die AIBs (was auch immer das heißt?! Allied Irish Banks :D ) halt mehr Sorgfalt bei Ihrer Produktentwicklung walten lassen.

Ich denke trotzdem das es sinnvoll wäre, das dieses aller 2 Jahre neue GPU etwas verlangsamt werden könnte. Bisher machen es ja auch die Hersteller "ungefähr gleich". Das würde dann mit 3 Jahren auch nich anders sein.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Die Entwicklung von gpu dauern in der Regel 3-4 Jahre je nachdem ob eine neu Architektur ist
ada ist eine Weiterentwicklung von ampere hat aber paar gene von hopper drin
Das betrifft cache und shader menge pro sm
Es ist derzeit unklar ob wirklich 128 fp32 drin sind oder ob es 96 fp32 + 32 fp64 sind
Erstere würde deutliche Performancezuwächse bringen und lässt sku wie die rtx4060 mit nen ad106 unwahrscheinlich wirken eher wird das der ad107

Alle reden über high end was den größten Marktanteil kräftig am a vorbeigeht
Die sku sind noch völlig offen Welcher chip was ist meine Rechnungen sind die min zu erwartende Leistung
bsp rtx4060 mit 128fp32 wären bei 24sm 16,5tf
Damit könnte nvidia deutlich die marge erhöhen auf 120% da der ad107 nur 135mm² groß wäre und das für 329€ uvp das einzige was stört ist 8gb vram bei 150w tbp
Das wäre quasi das optimum woran ich zweifle

man muss sich den Markt ansehen etwa16tf kosten derzeit als rtx3070 etwa 600€
amd n33 soll etwa 2 sku bekommen eine mit 12wgp und eine mit 16wgp
preise sehe ich bei 500€ und 700€ im maximalen mit 8gb und 16gb
3584*2*3,2=22,9tf
4096*2*3,0=26,1tf

Darunter wird amd nix haben mit rdna 3
Das wird der Abverkauf von rdna2 wie die rx6800 und rx6750xt
19,2tf rx6800 bei 400€
13,2 tf bei rx6750 200€

dazwischen hat amd nix

aktuell bekommt man diese menge an tf
170€ rx6500xt 5tf bei amd etwa gtx1060 Leistung (im schnitt auf 1080p neue games 30-40fps) pcie gen4 Pflicht
300€ 9tf rx6600 bei amd Etwa rtx3060 Leistung (im schnitt 1080p neue games 60-80fps aktueller Konsolen standard) vs
399€ rtx3060 9,1tf nvidia (in 1080p neue spiele zwischen 70-90fps)
409€ rx 6600xt 10,5tf bei amd kein Gegner
479€ rx7700xt 12,8tf amd vs
499€ rtx3060ti 12,1tf nvidia
599€ rtx3070 16tf nvidia
Tendenz fallende preise bis ende des Jahres
maximal bei -25% bei nvidia -10% amd

Ob n33 auf 10wgp beschnitten wird ist offen
was dann bei 3,2ghz etwa 16tf wären
das könnte die rx6800 ersetzen was wahrscheinlich ist

Die sku werden immer 6 Monate vor release geplant und 3 Monate vor release getestet
Die chips sind dann schon 2,5 Jahre in design
Da zu amd kaum was bekannt ist, ist das mehr raten eins wissen wir rdna3 wird 3 chips haben n31 n32 und n33 und es ist immer ein gcd+ 6 Mcd chips
In sept wissen wir mehr.
 

raPid-81

Software-Overclocker(in)
Mag schon sein. Dann müssen die AIBs (was auch immer das heißt?! Allied Irish Banks :D ) halt mehr Sorgfalt bei Ihrer Produktentwicklung walten lassen.

Ich denke trotzdem das es sinnvoll wäre, das dieses aller 2 Jahre neue GPU etwas verlangsamt werden könnte. Bisher machen es ja auch die Hersteller "ungefähr gleich". Das würde dann mit 3 Jahren auch nich anders sein.

Add-in boards (AIBs) use discrete GPUs (dGPU) with dedicated memory.

Natürlich sollten alle Hersteller mehr testen und fixen vor Produkt Release. Leider betrifft das ja nicht nur Grafik-Karten, das Problem von unfertigen / fehlerhaften Produkten zieht sich durch alle Kategorien. Games, Autos, Lebensmittel, überall dasselbe Spiel.

Was würde denn ein längerer Produktzyklus ändern? Dann sind es statt 2 Jahre eben 4 Jahre zur neuen Gen, dafür wird dann aber 400% Leistung erwartet...
 

Pu244

Lötkolbengott/-göttin
Ich denke trotzdem das es sinnvoll wäre, das dieses aller 2 Jahre neue GPU etwas verlangsamt werden könnte. Bisher machen es ja auch die Hersteller "ungefähr gleich". Das würde dann mit 3 Jahren auch nich anders sein.

Ja, für AMD und Nvidia ware das sehr sinnvoll, da sie den Kunden ihre alten Karten 50% länger andrehen und dabei gesunkene Kosten mitnehmen können.

Es ist klar, dass du mit deiner RTX 3080 ersteinmal versorgt bist (laß mich raten: deine Neuanschaffungspläne passen in einen 3 Jahreszyklus), aber es gibt neben dir auch noch andere Leute.

Von mir aus gesehen könnten AMD und Intel eigentlich auch nur alle 10 Jahre eine neue CPU Generation rausbringen, dann hättest du aber einen i7 3770K oder einen i7 3930K drin, statt dem 5800X, aber ich könnte damit gut leben.

Am besten für die Kundschaft wäre es, wenn jährlich neue Karten rauskommen, so wie früher.
 

C_17

Freizeitschrauber(in)
deine Neuanschaffungspläne passen in einen 3 Jahreszyklus)
Ne das nicht. Ich überspring immer eine Generation. Und da ich CPU & GPU eigentlich sofort zum Release geholt habe, würd ich so auf circa 4 Jahre kommen. Vielleicht sogar mehr - wer weiß das schon im Vorraus. Ich bin recht genügsam. Ich kauf dann wieder neu, wenn ich es dann auch brauche.

Und beim Neukauf kommt es auch immer auf die zeitlich aktuellen Bedürfnisse bei mir an: ich werd' nächstes mal auch nur zu einer xx70 greifen als GPU, weil mir WQHD mehr als ausreicht. Prozessor reicht mir auch 6- oder 8-Kerne. AM5 1.Gen überspring ich sowieso.

Ich würde mich als Bsp. nochmal über einen 5600X3D freuen und meinen 5800X veräußern - der würde mir für das bisschen Spielen reichen, hätte durch den Cache Vorteile und ist stromsparender als der 5800X3D (vermutet).
 

Bert2007

PCGH-Community-Veteran(in)
Ich würde mich als Bsp. nochmal über einen 5600X3D freuen und meinen 5800X veräußern - der würde mir für das bisschen Spielen reichen, hätte durch den Cache Vorteile und ist stromsparender als der 5800X3D (vermutet).

Das würde gar keinen Sinn machen. Ein Schritt zurück und einen nach vorn. Der 5800x ist so schon top.
 

C_17

Freizeitschrauber(in)
Das würde gar keinen Sinn machen. Ein Schritt zurück und einen nach vorn. Der 5800x ist so schon top.
Für mich macht das Sinn. Zugegeben, es klingt etwas abenteuerlich.
Ich möchte halt den Cache dazu, auf die 2 Kerne zusätzlich scheiß ich. Bei dem bisschen spielen, YT schauen und hier und da surfen, wäre der 5600X3D stromsparender und kühler noch dazu, als der 5800X3D.

Wie gesagt ich lass AM5 für die nächsten 2-3 Jahre aus und wenn da für AM4 nochmal ein letzter Prozessor kommt,nehm ich den mit. Verkauf den 5800X günstig, leg noch was drauf udn hol mir den 5600X3D mit B2 Stepping.

Muss dazu sagen ich hab einen der ersten Ryzen 5000er (gleich zu Release geholt) mit B0 Stepping. Und da mekr ich schon, wenn ich so sehe was manche da aus ihrer CPU mit B2 Stepping zaubern, wie meiner da noch am Anfang "schlechter" produziert wurde. Ich schaff in Curve Optimizer bei manchen Kernen nicht mal -5.
 
Zuletzt bearbeitet:

Bert2007

PCGH-Community-Veteran(in)
Für mich macht das Sinn. Zugegeben, es klingt etwas abenteuerlich.
Ich möchte halt den Cache dazu, auf die 2 Kerne zusätzlich scheiß ich. Bei dem bisschen spielen, YT schauen und hier und da surfen, wäre der 5600X3D stromsparender und kühler noch dazu, als der 5800X3D.

Wie gesagt ich lass AM5 für die nächsten 2-3 Jahre aus und wenn da für AM4 nochmal ein letzter Prozessor kommt,nehm ich den mit. Verkauf den 5800X günstig, leg noch was drauf udn hol mir den 5600X3D mit B2 Stepping.

Muss dazu sagen ich hab einen der ersten Ryzen 5000er (gleich zu Release geholt) mit B0 Stepping. Und da mekr ich schon, wenn ich so sehe was manche da aus ihrer CPU mit B2 Stepping zaubern, wie meiner da noch am Anfang "schlechter" produziert wurde. Ich schaff in Curve Optimizer bei manchen Kernen nicht mal -5.
Gehen wir mal davon aus das es den 5600x3d gibt. Was würde der Kosten? Wie viel müsstet du noch drauf legen? Selbst mit eine zukünftigen 4080 und deinem 5800x wärst du noch gut unterwegs. Es wäre Geld zum Fenster raus werfen bei einem Upgrade. Gern kannst du dem Forum auch etwas spenden, wenn du zu viel Geld hast. Da würden sich viele freuen 😁
 

C_17

Freizeitschrauber(in)
Gehen wir mal davon aus das es den 5600x3d gibt. Was würde der Kosten? Wie viel müsstet du noch drauf legen? Selbst mit eine zukünftigen 4080 und deinem 5800x wärst du noch gut unterwegs. Es wäre Geld zum Fenster raus werfen bei einem Upgrade. Gern kannst du dem Forum auch etwas spenden, wenn du zu viel Geld hast. Da würden sich viele freuen 😁
Ich find das immer lustig das viele denken das man zu viel Geld hat, nur weil man ein Upgrade machen will. :-)
Ich spare halt fleißig und leg immer was weg. Na und dann kann ich auch ab und an was kaufen. Das kann jeder, selbst mit einem kleinen Job.

Ich weiß nicht was der 5600X3D kosten wird - würde von 350 € ausgehen.
Wenn ich den 5800X für 200-210 € verkaufe, leg ich 150 € drauf und das sollte dann für die nächsten Jahre reichen.
Wenn du werter @Bert2007 Interesse an meinem 5800X hast, nur raus mit der Sprache!
AM5 1. Gen mach ich sowieso halt nicht mit.
 

cunhell

Komplett-PC-Aufrüster(in)
Die Einstellungen sind vernünftig. Wenn dir der Verbrauch zu hoch ist, kauf eine kleinere Karte. Das wurde hier aber auch schon von mehrere Usern vorgeschlagen. Niemand sagt, dass du für 1500€+ eine 450W Karte kaufen und dann selbst noch Hand anlegen musst, aber du hast die Möglichkeit dies zutun.


Es gibt kein Opt-Out. Du tust so als gäbe es neben den 450-600W Karten nichts anderes mehr und das ist Unfug.
Laut Gerüchten liegt die 4060 bei 180-250W und wenn dir das zu viel ist, gibt es noch den AD106 und AD107.


Tun sie eigentlich nicht. Meine ASUS TUF bietet z.B. ein Silent BIOS. Du hast eine große Auswahl zwischen verschiendenen Modellen. Wo ist das Problem? Was stört dich daran, Auswahl zu haben? Check ich nicht.
Kauf, was dir gefällt und ignoriere den Rest, aber hör doch auf Nvidia und AMD vorschreiben zu wollen, was sie zutun haben.
Wenn es nach dir ginge, hätte ich mir keine 3090 kaufen können, weil es sie nicht gegeben hätte.

Es erschließt sich mir nicht, welchen Vorteil du persönlich davon hättest, wenn die Topmodelle max. 280W verbrauchen würden. Störst du dich daran, dass User wie ich eine 450W Karte kaufen würden?
Und wo war dein Aufschrei bei der Fury oder R9 295X2, welche einen Verbrauch von über 500W hatte?
Wenn eine 4090 mit vernünftigen Werten betrieben wird ist sie immer noch um Welten schneller als eine 4060.
Sich hinzustellen und zu sagen, kauf Dir eine Einstiegskarte wenn man die unsinnigen Verbrauchswerte nicht haben will ist, sorry, einfach nur überhebliches Gelaber.
Was mit einer 3090 mit 300W möglich ist kann man hier sehr schön sehen:
Und die gebremste Karte ist immer noch meilenweit vor einer 3060 oder ähnlichem, die Du jemanden empfiehlst, der keinen Bock auf 400W plus hat. Und die Karte braucht sogar noch weniger als die 3080er-Derivate und ist trotzdem schneller oder zumindest fast gleich schnell (3080ti). Und das bei 100W weniger Verbrauch.

Zudem, wo habe ich denn gesagt, dass die R9 295X2 sinnvoll war? Zumindest war die R9 295X2 ein Crossfire aus zwei R9 290 auf einer Platine, also quasi zwei vollwertigen Karten. Vergleich das bitte dann auch mit einen SLI oder Crossfire-Gespann aus zwei Karten die jeweils 250W - 350W gezogen haben. Dann wird der Verbrauch der R9 295X2 schon gleich relativiert, da zwei einzelne Karten zusammen mindestens genau soviel Leistung gezogen haben.
Und Xfire bzw SLI war damals nicht so aussergewöhlich. Also vergleich bitte nicht Äpfel mit Birnen.

Cunhell
 
Oben Unten