Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

Höre ich immer wieder und doch pendelt er sich bei 45.000 ein. Das ist alles reine Spekulation und seitdem Steuern angekündigt wurden lässt der Hauptsächliche Nutzen der Währung sowieso nach.

Und so oder so, wird das ganze nicht lange weiter gehen. China verbietet es und die USA setzt Steuern darauf. Das ist auch gut so weil es einfach keinen Nutzen für die Menschheit, den Planeten oder irgendeinem größeren Wohl hat.
In DE gab es schon immer Steuern.

Naja, dann haben für dich Bargeld und Banken wohl auch keine Daseinsberechtigung.
 
(...)
Was sollte eigentlich der komische Satz zur Effizienz von RDNA2 im Artikel?
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ich hatte noch nie so ne sparsame Graka! (leicht UV/OCed)
Dann lies nochmal.
An den Effizienzsteigerungen wurde gezweifelt. Aber sie (die Effizienzsteigerung) kamen doch. Also gab es entgegen anderslautender Meinungen eine bessere (!) Effizienz.
Deshalb könne man sich auch berechtigte Hoffnungen machen, dass es wieder so kommt.
An der Effizienz von RDNA2 zweifelt man hier also nicht, sondern bestätigt sie.
 
Dann lies nochmal.
An den Effizienzsteigerungen wurde gezweifelt. Aber sie (die Effizienzsteigerung) kamen doch. Also gab es entgegen anderslautender Meinungen eine bessere (!) Effizienz.
Deshalb könne man sich auch berechtigte Hoffnungen machen, dass es wieder so kommt.
An der Effizienz von RDNA2 zweifelt man hier also nicht, sondern bestätigt sie.
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."

Deutsche Sprache = schwere Sprache, oder wars doch eher negativ gemeint im Artikel:
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
 
Hier geht´s um ne Grafikkarte, die vielleicht/oder auch nicht-irgendwann/oder auch nicht- mit wahnsinniger Geschwindigkeit/oder auch nicht...herauskommen könnte.
Und die Forengrünen:Was ist mit Dammwildschatten ( Rehtracking)
Da hat sich das Marketing in die Stammhirnrinde gebrannt !
Gruß Yojinbo
 
noch eine Grafikkarte, die es nicht zu kaufen geben wird
Interessant zu sehen (aus psychologischer Sicht) wie Enthusiasmus und Depression so funktionieren.
Da gibts mal ein halbes Jahr keine GPUs und schon wird geschrieben "gibts eh nicht zu kaufen" über ein Produkt, das 2023 erscheint. Alles furchtbar, wir werden alle sterben, es wird immer nur schlimmer.

Wenns dann vielleicht (man weiß es nicht) nächstes Jahr ne Wende gibt und Grafikkarten wieder an jeder Ecke billig kaufbar sind wird dann wieder geschrieben "in 2 Jahren gibts die doppelte Performance zum halben Preis!! Juhuuu!"

Beide Extremszenarien sind nahezu immer falsch. Trotzdem glaubt offenbar die Masse gerne an solche Geschichten (wie man an der Börse die auch in beide Richtungen die Neigung hat wild zu übertreiben sehen kann). Wir sind schon ein lustiges Völkchen. :haha:
 
Wenn etwas zu schön ist, um wahr zu sein, ist es meist nicht wahr...

Wenn doch ist es ein Grund zum Jubel, sollte der Preis stimmen.
 
2,5x Performance... Na das kann ja wieder alles heißen. :hmm:

Wenn es rein nach der Compute Leistung geht, ist der Sprung von einer RTX 2080Ti zur RTX 3090 auch riesig
(13,5TF gegenüber 35,6TF). Beim Zocken läuft es in der Regel aber eher auf ~30% Plus hinaus.

Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen. Nur Spekulationen, wie die Möglichkeit dass aktuelle Spiele doch mehr Integer-Berechnungen nutzen als gedacht und deshalb eben bei weitem nicht alle FP32 Einheiten zur Verfügung stehen bis hin
zu simplem mangel an Optimierung der Game-Engines um solche Monster effizient auszulasten.

Aber Auslastungsprobleme und interne Flaschenhälse sind ja nun nichts neues mehr, gerade bei den Shaderboliden von Heute. Bei Keppler war's ja ähnlich...

Ich persönlich gebe auf solche absurd hoch gegriffenen Behauptungen recht wenig und glaubhaft sind die schon gar nicht. Und selbst wenn - was soll son' Ding denn an Strom fressen? 600W anstatt 300W? :stupid:
Diese Generation haben sich beide Lager beim Stromverbrauch ohnehin schon die Kante gegeben und Besserung sehe ich bei solchen Gerüchten kaum, zumindest was das angeht.
 
Und selbst wenn - was soll son' Ding denn an Strom fressen? 600W anstatt 300W?
1.) 5nm statt 7nm reduziert den Verbrauch bei gleichem Takt um 30-40%.
2.) Die letzten paar 100 MHz verbrauchen unverhältnismäßig viel - eine angepasste 6900XT auf 2 GHz statt 2,5 GHz ist unter 200W fahrbar.

--> ein 2 x 80CU Konstrukt das mit Größenordnung 0,8v bei 2 GHz läuft wäre vom Verbrauch her einer aktuellen 6900XT sehr ähnlich.

Klar, wenn man zwei Chiplets UND sehr hohe Taktraten will ist man schnell bei 400+W.
 
1,5x bei 250-300W halte ich für realistisch. Verluste wird durch chiplet geben und der takt wird niedriger ausfallen da sonst die tdp irgendwo bei 500W+ liegen müsste. Interessant werden die Karten unter Wasser und ohne tdp Limit werden.
 
Wenn es rein nach der Compute Leistung geht, ist der Sprung von einer RTX 2080Ti zur RTX 3090 auch riesig
(13,5TF gegenüber 35,6TF). Beim Zocken läuft es in der Regel aber eher auf ~30% Plus hinaus.

Ähm?! WTF?! Der Unterschied zur 2080Ti liegt bei ca.45-55% aber hey....

Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen. Nur Spekulationen, wie die Möglichkeit dass aktuelle Spiele doch mehr Integer-Berechnungen nutzen als gedacht und deshalb eben bei weitem nicht alle FP32 Einheiten zur Verfügung stehen bis hin
zu simplem mangel an Optimierung der Game-Engines um solche Monster effizient auszulasten.

Das ist auch richtig was du hier schreibst, deshalb ist noch viel Reserve in Optimierung und Anpassung auf Ampere möglich.

600W anstatt 300W? :stupid:

Meine 3090 frisst jetzt 480W mit dem Asus Strix BIOS, vertretbar.
Siehst du eben anders.
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.
Bei den Zahlen tun mir alle leid die eine RX6000er gekauft haben xD

Häh wieso? War doch ein TOP Upgrade, über UVP Preise kann man jetzt diskutieren, sofern man aber Mehrleistung wollte passt das.
Was willst du machen? Bis 2023 die alte GTX900/1000er Reihe oder RX5000 weiter bis in den Tod reiten?
Wer Upgraden wollte oder zwangsweise musste wegen anderen Faktoren hat doch genau das bekommen was er wollte....

Hardware kauft man bei Bedarf... warten kann man immer....
 
Und dann gehr wieder der Backofen auf...Na die haben noch genügend reserven, Raytracing sind sie extrem überlegen das kann keiner anzweigeln.
genauso, wie intel bereits alle notwendigen konter zu ryzen auch schon 5 jahre im schreibtischfach für so eine situation bereitliegen hatte und nur zum spaß immernoch dieses geheime fach nicht geöffnet hat. ach, ne. warte... ?
 
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.
Wie hoch der Verbrauch ist ist mir persönlich auch egal - die 200 Stunden im Jahr die ich spiele würden selbst bei 1000W nur 60€ Stromkosten ausmachen. Das blöde ist nur die elektrische Leistung die rein geht muss auch als Wärmeleistung wieder raus - und derartige Abwärmen gehen für mich akzeptabel leise (bedeutet WIRKLICH leise) nur über ne dicke WaKü. Nein, diese Tripleslot-Monsterluftkühler die gegen die 400W solcher Karten ankämpfen sind NICHT leise (genug).

Die aktuelle Grenze die ich persönlich als ausreichend leise mit Luft kühlbar erachte sind 250W. Meine 2080 hab ich schon auf 180 gebremst (auch weils performanceseitig keum 5% ausmacht) damit sie leise ist und das mit nem dicken STRIX-Kühler. Die neuen 3000er/6000er Karten sind nochmal besser in der Kühllösung so dass ich beispielsweise eine große 6700XT-Custom mit 230-250W als ausreichend leise empfand. Aber ne 300+W 3080/90 ists definitiv nicht mehr, egal welches Design ich bis jetzt gesehen (/gehört) habe.

Von daher: Wenn die Karten mit 300W TDP erscheinen und man sie mit etwas manueller Optimierung zu 250W bei 95+% Performance bewegen kann ist das ne Option. Viel höher will ich ohne weiteres nicht.
 
Das blöde ist nur die elektrische Leistung die rein geht muss auch als Wärmeleistung wieder raus - und derartige Abwärmen gehen für mich akzeptabel leise (bedeutet WIRKLICH leise) nur über ne dicke WaKü. Nein, diese Tripleslot-Monsterluftkühler die gegen die 400W solcher Karten ankämpfen sind NICHT leise (genug).

True, absolut.
In meiner Sig. steht noch die AiO usw.
Alles viel zu laut - weicht jetzt einem MO-RA3 420er und 4 leisen 200MM Noctua.
Unglaublich echt wie viel Abwärme hier produziert wird, auch für mich die einzige Downside.

Aber diejenigen die eine Custom Wakü haben, wollen sowieso nie wieder zurück.
 
Aber diejenigen die eine Custom Wakü haben, wollen sowieso nie wieder zurück.
Manchmal müssen sie aber^^
Ich hatte auch nen 5960X und ein 980SLI und später ne TitanXP an nem MoRa420. Aber nachdem mir 3 Boards gestorben sind und man immer wieder umbauen musste bin ich irgendwann wieder zurück auf Luft und hab die WaKü (einschließlich TitanXP) für ne Stange Geld bei nem Kollegen verbaut. Auch weil sich mein Lebensstil (und damit auch die Spielzeit) stark verändert hatten und eine Oberklassekarte einfach genug ist für das was ich aktuell zocken kann.

Aber zugegeben, die Ruhe eines MoRas mit 500upm-Lüftern ist kaum zu ersetzen. Da hatteste mit max OC an die 600W an Abwärme rausgedrückt und man hörte... das ganz leise entfernte surren der ASXT. Sonst nix. :haha:

Ich hoffe, dass die kommenden Generationen auch wieder manuell sehr gut auf Effizienz trimmbar sind. 160CUs bei 2 GHz und <200W plus der IPC von RDNA3 wäre ne Granate.
 
Zurück