RTX 4000 und RX 7000: Leaker mit neuer Specs-Tabelle

Hier sehen wir AMD ganz klar eine Firmenphilosophie verfolgen und die lautet, Caches im Chip müssen größer werden. Mehr rechnen, weniger kopieren. Der 5800X3D zeigt dass der Ansatz Erfolg verspricht und auch die RDNA2, 3, 4 Karten werden das hergeben. Auch so eine RTX30 Serie hat 128kb pro Cuda Core (V8.6), das ist bei einer 3080 über ein Gigabyte an kumulativem Cache in dem Chip.
Das tun "die anderen" ja auch. NV vergrößert die Caches, Intel wird bei Meteor Lake wohl auch Cache stapeln. Der "kleine" Infinity Cache in RDNA2 ist natürlich eine tolle Sache, leider zu klein für gute Hitrates in höheren Auflösungen. Erst wenn das stapeln günstiger und massentauglicher wird werden wir mehr davon im Consumer Markt zu sehen bekommen.
 
Im zunehmend hinkenden Vergleich mit dem Auto würde das bedeuten, dass man auch 100km mehr als 6l verbraucht, einfach weil das Benzin ja irgendwie an die Tankstelle kommen muss und das ist auch Energie die das Auto anteilig konsumiert. Nur nehmen wir das nicht wahr. Genau so ist es mit der Energie beim Berechnen eines Frames und der Energie beim hin und her-kopieren von Daten ohne Berechnung, in Vorbereitung einer Berechnung und als Folge einer Berechnung.

Man könnte auch einfach das 3l Auto als Beispiel nehmen, das gab es mal, wollte aber keiner kaufen. Der Trend geht weiterhin Richtung große SUVs...
 
Das tun "die anderen" ja auch. NV vergrößert die Caches, Intel wird bei Meteor Lake wohl auch Cache stapeln. Der "kleine" Infinity Cache in RDNA2 ist natürlich eine tolle Sache, leider zu klein für gute Hitrates in höheren Auflösungen. Erst wenn das stapeln günstiger und massentauglicher wird werden wir mehr davon im Consumer Markt zu sehen bekommen.
Nvidia Cuda hat L1 und L2 Caches, der AMD Infinity Cache ist im Vergleich dazu ein L3 Cache. Aber Ja, AMD könnte mehr davon verbauen. Ohne in der Entwicklungsabteilung zu sitzen wird sich schwer sagen lassen, ab wieviel Cache die Architektur nicht mehr von mehr Cache profitiert.


Man könnte auch einfach das 3l Auto als Beispiel nehmen, das gab es mal, wollte aber keiner kaufen. Der Trend geht weiterhin Richtung große SUVs...

Wenn der Kunde nicht weiß was er braucht, dann ist die gängige Verkaufsstrategie ihn zu verunsichern und nach dem Motto "haben ist besser als brauchen" das absolute Maximum zu verkaufen. In dem Sinne wird mein nächstes Auto vermutlich ein Rheinmetall Panther KF51
 
Wieso der RDNA2 Vergleich? Du vergleichst mal wieder Äpfel (Samsung 8nm) mit Birnen (TSMC 7nm). Und ignorierst völlig dass NV jetzt einen minimal besseren Prozess haben wird als AMD.

Ne, den Äpfel und Birnen Vergleich bringst du. Nvidia konnte auch bei Samsung ordentliche Taktraten fahren, jedoch ist der wesentliche Punkt auch die Architektur, diese muss auch für hohe Taktraten ausgelegt sein.
Es spielt also immer beides mit rein, denn wenn für deine Architektur hohe Taktraten von Nöten sind und der Prozess dann nicht bietet, hast du ein Problem. Siehe AMD mit Bulldozer, da hatte Glofo Taktraten von bis zu 5Ghz zugesagt und das war nicht machbar.
Es bleibt also spannend, wie die Taktraten bei beiden Ausfallen werden bzw. was uns generell erwartet. Ich halte von den Leaks persönlich ja nichts und warte lieber auf gesicherte Fakten.
 
Ab einem gewissen Punkt kommt man nur mit einer massiven Erhöhung der Leistungsaufnahme weiter. Da die Kunden nach Leistung kaufen, ist Nvidia gezwungen, das zu tun, wenn AMD es macht.
Na ja, AMD macht es, weil nVidia es macht ... :schief:

MfG Föhn.
 

Anhänge

  • Watt FPS.jpg
    Watt FPS.jpg
    286,1 KB · Aufrufe: 21
Woher willst du das denn wissen? Du bist Mitglied seit Juni diesen Jahres. :nene:
Ist doch dem Thepunisher240 sein neuer Account :schief:

MfG Föhn.
Sehr Witzig!

TDP:
HD 7970 250W, GTX 680 195W
R9 290X 275W, GTX 980 180W
Realer Verbrauch
R9 390X 300W GTX 980 180W
Fury X über 380W, GTX 980Ti 250W

Soviel zu "AMD macht es weil Nvidia es macht".
Jesus, Maria und Josef !
Immer von Spiel zu Spiel denken (ja, 3 € ins Phrasen Schwein).
Ja, Früher mal ! Da hatte NV aber schon auch den ein oder anderen Heizofen/Föhn im Portfolio.
Meinte eher von der aktuellen Gen zur Darauffolgenden ... :ugly:

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Jesus, Maria und Josef !
Immer von Spiel zu Spiel denken (ja, 3 € ins Phrasen Schwein).
Ja, Früher mal ! Da hatte NV aber schon auch den ein oder anderen Heizofen/Föhn im Portfolio.
Meinte eher von der aktuellen Gen zur Darauffolgenden ... :ugly:

MfG Föhn.
Jaja, mal ist die Vergangenheit wichtig, dann wieder nicht, und weiter schwingt der Halm im Wind damit es in der Argumentation immer passt.
 
Fury X über 380W, GTX 980Ti 250W
Na na, 380 Watt %-)
einigen wir uns auf max. 330 Watt (siehe Anhang)
Dafür war sie auch im Bench ebenbürtig gegen die 980Ti.
Bei 9 Games 4 x für "ROT", 1 x Pari und 4 x für "GRÜN".


siehe Post #106

MfG Föhn.
 

Anhänge

  • Watt Fury X.jpg
    Watt Fury X.jpg
    436,5 KB · Aufrufe: 16
Na na, 380 Watt %-)
einigen wir uns auf max. 330 Watt (siehe Anhang)
Dafür war sie auch im Bench ebenbürtig gegen die 980Ti.
Bei 9 Games 4 x für "ROT", 1 x Pari und 4 x für "GRÜN".


siehe Post #106

MfG Föhn.
Jahrelang war AMD was Perf/Watt angeht hinten. Jetzt sind sie einmal vorne aufgrund des Fertigungsvorteils und Du reitest darauf rum als wäre eine endgültige Zeitenwende eingetreten.

Wir werden sehen wie sich RDNA3 vs Ada schlägt, beide sind in einem ähnlichen Prozess gefertigt. Hier wird sich zeigen wie effizient RDNA wirklich im Vergleich ist. Die TDP Unterschiede der aktuellen Gen sind fast komplett auf den Fertigungsprozess und GDDR6X zurückzuführen.
 
Na na, 380 Watt %-)
einigen wir uns auf max. 330 Watt (siehe Anhang)
Selber Link:
Unser Messprotokoll zeigt schlimmstenfalls eine Leistungsaufnahme von 383 Watt

Dafür war sie auch im Bench ebenbürtig gegen die 980Ti.
Bei 9 Games 4 x für "ROT", 1 x Pari und 4 x für "GRÜN".
Ebenbürtig war die nie. In einem größeren Parcour war die Karte langsamer und was wurde AMD damals gefeiert, weil sie so klein und so toll war.
 
Bei mir wirds entweder ne 4070 oder 7700xt, je nach Preis/Leistung/Raytraycing/Vram.
Meine Schmerzgrenze dafür sind 700 Euro! Mich juckts halt in den Fingern und würde morgen schon gerne kaufen!
2023 kommen so viel geile Games, freu mich schon so!

Bin bisher mit meiner 1070 gut klargekommen. Z.B. CP2077 mit FSR2.0 Mod und high details @ WQHD um die 40 fps!

Hoffe sie liegt im Dezember unterm Weihnachtsbaum!

LG
 
Jahrelang war AMD was Perf/Watt angeht hinten. Jetzt sind sie einmal vorne aufgrund des Fertigungsvorteils und Du reitest darauf rum als wäre eine endgültige Zeitenwende eingetreten.

Das stimmt schlicht und ergreifend nicht. Die HD 4870 oder 5870 waren sehr effizient.
Und nein sie sind nicht aufgrund eines Fertigungsvorteils vorne, sondern weil sie eine effiziente Architektur haben, die auf dem gleichen Fertigungsnode im Vergleich zur RDNA um 50% gesteigert wurde.
Es wird hier immer so getan, als wäre Samsungs 8nm so schlecht gewesen und nein, das war sie nicht, sonst hätte Nvidia sie nicht gewählt. Und Nvidia ist nur im Verbrauch hinten, weil man mit der Brechstange unbedingt den längsten Balken haben wollte...
 
Selber Link:



Ebenbürtig war die nie. In einem größeren Parcour war die Karte langsamer und was wurde AMD damals gefeiert, weil sie so klein und so toll war.
Die Fury X konnte gerade so mit der 980ti bei 1075MHz mithalten.
Nur gab es da halt Customkarten mit meist um die 200-250MHz mehr.
Da war sie durchgehend langsamer.
Dazu noch der wenige VRAM.
Die Fury war ein Testballon, mehr nicht.
 
Ich sagte nie, dass es leicht ist, aber etwas nicht zu wissen ist kein Argument. Wenn ich mich an etwas störe, dann setze ich mich mit der Thematik auseinandern und versuche eine Lösung zu finden.

Es gibt auch noch andere Lösungen: Eine 4060/4070 anstatt einer 4090TI zu kaufen, aber wenn dir die Leistung der 60/70 nicht reicht, dann musst du eben mit mehr Verbrauch klarkommen. Das wäre aber auch nicht anders gewesen, wenn NV und AMD den Verbrauch bei 300W gedeckelt hätten.
Fakt ist doch, dass es nicht die Aufgabe des Kunden sein kann, die Aufgaben des Herstellers zu erledigen, vernünftige Einstellungen zu wählen.
Abgesehen davon gibt es genügend Beispiele, bei denen das Silent-Bios der Karten kaum Performance einbüßt gegenüber der Sauf-was-Du-willst-Version. Genauso wie die Pro-Versionen der Karten nahezu am Sweetspot betrieben werden und auch kaum Leistung verlieren. Ich erwarte einfach eine für den unbedarften User ausgelegte Standard-Version. Wer mehr will soll halt selbst Hand anlegen. Opt-in statt Opt-out.
Leider verzichten immer mehr Hersteller darauf solche Hardware zu liefern, von gut abgestimmten Silent-Biosversionen ganz zu schweigen.
Aber solange man es schafft, dass die "Profis" die unsinnigen Einstellungen verteidigen, wird sich nichts daran ändern.
Spätestens wenn ein Hersteller ein wenig zurücksteckt kann man überall lesen, wie lahm und schlecht die Karten seien. Selbst wenn es nur ein paar Prozent Leistung sind, die man hinten dran ist. Sowas verkauft sich halt schlecht.

Cunhell
 
Fakt ist doch, dass es nicht die Aufgabe des Kunden sein kann, die Aufgaben des Herstellers zu erledigen, vernünftige Einstellungen zu wählen.
Und wer definiert "vernünftige" Einstellungen? Du?

Fakt ist: die Hersteller werben mit X Mhz und Y Performance. Das müssen die Karten zwangsweise liefern, sonst Rückgabe-Recht.

Es gibt vielleicht einen kleinen Markt für Ultra-Low-Power-aber-trotzdem-High-Performance Karten. Nur ist der viel zu klein um den Aufwand zu rechtfertigen.

Ich habe in meine UV / OC Einstellungen bestimmt einen Tag gesteckt bis 5 Profile fertig waren und jeden Benchmark mehrfach durchgelaufen sind. Und das für eine einzige Karte. Den Aufwand können die Hersteller gar nicht betreiben, da wird ein "X Mhz Basistakt und booste bis nicht mehr geht" BIOS draufgepackt und ab geht's.

Soweit ich weiss sind die Silent-BIOS meist nur angepasste Lüfterkurven und ggf. mal ein abgesengtes Powerlimit, echtes UV hab ich in dem Zusammenhang noch nie gehört.
 
Zurück