Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

1.) 5nm statt 7nm reduziert den Verbrauch bei gleichem Takt um 30-40%.
2.) Die letzten paar 100 MHz verbrauchen unverhältnismäßig viel - eine angepasste 6900XT auf 2 GHz statt 2,5 GHz ist unter 200W fahrbar.

--> ein 2 x 80CU Konstrukt das mit Größenordnung 0,8v bei 2 GHz läuft wäre vom Verbrauch her einer aktuellen 6900XT sehr ähnlich.

Klar, wenn man zwei Chiplets UND sehr hohe Taktraten will ist man schnell bei 400+W.
Was theoretisch möglich ist und in der Praxis ankommt ist relativ...

RTX 2080Ti (FE): 12nm TSMC - 260W
RTX 3090: 8nm Samsung - 350W
6800XT: 7nm TSMC - 300W

Wie man sieht, Effiziens gestiegen, real verbrauch explodiert. :what:
Vom OC will ich isb. bei der 3090 gar nicht anfangen...
 
Alles was nicht bezahlbar geliefert wird, können die behalten.
Bis jetzt peile ich eine 3060 an. Zumindest wenn diese bis Weihnachten bei Ihrer UVP ist. Ansonsten warte ich noch bis zur nächsten Generation.
 
Ähm?! WTF?! Der Unterschied zur 2080Ti liegt bei ca.45-55% aber hey....



Das ist auch richtig was du hier schreibst, deshalb ist noch viel Reserve in Optimierung und Anpassung auf Ampere möglich.



Meine 3090 frisst jetzt 480W mit dem Asus Strix BIOS, vertretbar.
Siehst du eben anders.
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.


Häh wieso? War doch ein TOP Upgrade, über UVP Preise kann man jetzt diskutieren, sofern man aber Mehrleistung wollte passt das.
Was willst du machen? Bis 2023 die alte GTX900/1000er Reihe oder RX5000 weiter bis in den Tod reiten?
Wer Upgraden wollte oder zwangsweise musste wegen anderen Faktoren hat doch genau das bekommen was er wollte....

Hardware kauft man bei Bedarf... warten kann man immer....
Im idealfall mag sein, aber bei weitem nicht überall. Und es kommt drauf an welche "Varianten" man vergleicht.

480W... Na wenn du das für vertretbar hältst... :haeh:

Aber unabhängig davon ob so ein Stromverbrauch nun moralisch vertretbar ist oder nicht halte ich es immernoch für ein Armutszeugnis - von beiden Herstellern. Aber AMD und Intel sind mit ihren CPU's ja auch keine Leisetreter.

Das Problem beim Mehrverbrauch beim Gaming ist nur, dass dieser nicht durch "kürzere Rechenzeiten/Effizienz" gerechtfertigt werden kann wie z.B. bei großen Severanlagen. Hier kann sich höhere Effizienz durchaus positiv auswirken, obwohl der einzelne Server de facto mehr schluckt.

Beim Gaming wird einfach mehr verbraucht und in FPS oder Bildqualität umgesetzt. Aber unter keinen Umständen
zockt deswegen jemand weniger. Dementsprechend resultiert es immer in realem Mehrverbrauch.
 
RTX 2080Ti (FE): 12nm TSMC - 260W
RTX 3090: 8nm Samsung - 350W
6800XT: 7nm TSMC - 300W

Wie man sieht, Effiziens gestiegen, real verbrauch explodiert.
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.

Das problem: Eine 300W-6900XT ist minimal schneller als eine 250W-3090. Das kann NVidia nicht machen. UNd eine 250W-6900XT verliert den Anschluss an die 3090 - das kann AMD auch nicht machen (erstaunlich genug dass AMD "nur" 300W reinschiebt und keine 350).

Ähnlich bei CPUs - die Ryzen3000/5000er CPUs sind, wenn sie 300 MHz weniger boosten, mit gefühlt dem halben Verbrauch zu betreiben. Aber AMD wollte die letzten 5% Performance eben unbedingt haben um Intel maximal zu bedrängen.


Es ist technisch wahrscheiblich ohne große Probleme möglich, eine RX7900XT oder RTX4090 zu bauen, die nur 250W benötigt und dennoch den Vorgänger um 50% und mehr schlägt. Nur ists blöd wenn du das machst und der jeweilige Gegenspieler +80% auflegt (bei 350W). Denn dann stehste am Markt in den Augen der breiten Masse halt als Verlierer da.
 
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.
Jo,
vgl. leichtgemacht duch Duvar in Port Royal:
192W asic vs. 370W asic
Die letzten 20% Mehrtakt/Perfomance verdoppeln fast den Verbrauch.
 
2000 werdens nur werden wenn das mit dem Mining so weitergeht. (Drecks miner sollen sich ascis kaufen)
ist einfach nur krank wie GK gestiegen sind. meine 5700xt die ich letztes jahr für 360-oder 390 erworben hab kostet jetzt 1660€
das ist so krank das ich überlege die zu versetzen ,als ersatz ne 580 rein, das geld zur seite legen und ne 6800xt zu kaufen wenn die preise wieder normal sind
 
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.

Das problem: Eine 300W-6900XT ist minimal schneller als eine 250W-3090. Das kann NVidia nicht machen. UNd eine 250W-6900XT verliert den Anschluss an die 3090 - das kann AMD auch nicht machen (erstaunlich genug dass AMD "nur" 300W reinschiebt und keine 350).

Ähnlich bei CPUs - die Ryzen3000/5000er CPUs sind, wenn sie 300 MHz weniger boosten, mit gefühlt dem halben Verbrauch zu betreiben. Aber AMD wollte die letzten 5% Performance eben unbedingt haben um Intel maximal zu bedrängen.


Es ist technisch wahrscheiblich ohne große Probleme möglich, eine RX7900XT oder RTX4090 zu bauen, die nur 250W benötigt und dennoch den Vorgänger um 50% und mehr schlägt. Nur ists blöd wenn du das machst und der jeweilige Gegenspieler +80% auflegt (bei 350W). Denn dann stehste am Markt in den Augen der breiten Masse halt als Verlierer da.
Nun, grundsätzlich mag das richtig sein, letzten Endes ist es aber schon traurig, dass man es jahrelang geschafft hat trotz Leistungssteigerung den Stromverbrauch weitestgehend zu halten und jetzt so ne Schippe drauflegt...

Für den Klimaschutz ist das ein echtes Armutszeugnis, allerdings gillt das auch für viele Monitore ond TV's...
Wärend vor einigen Jahren noch große erfolge bei der Effizienz zu verzeichnen waren, ist es dank riesen TV's und HDR heute auch schon wieder vorbei mit Stromsparen, auch wenn es sicher gute Gegenbeispiele gibt... :ka:
 
Nun, grundsätzlich mag das richtig sein, letzten Endes ist es aber schon traurig, dass man es jahrelang geschafft hat trotz Leistungssteigerung den Stromverbrauch weitestgehend zu halten und jetzt so ne Schippe drauflegt...
Wie gesagt es geht nicht ums können, es geht ums wollen. Sowohl NV als auch AMD könnten problemlos per BIOS-Update ihre Karten auf 250W einstellen. Nur verlieren sie dann gegen die Konkurrenz.

Für den Klimaschutz ist das ein echtes Armutszeugnis
Für den Klimaschutz ist es verglichen mit anderen Energieverbrauchern und Verhaltensweisen unwichtiger als ein Sack Reis in China ob ne 3080 jetzt 200, 300 oder 400W braucht. Ich weiß, das Buzzword "Klima" ist die letzten Jahre verdammt in geworden - aber so wichtig das Thema ist wird es nicht automatisch in allen Bereichen ein wichtiges Argument.
 
In DE gab es schon immer Steuern.

Naja, dann haben für dich Bargeld und Banken wohl auch keine Daseinsberechtigung.
Wenn Sie Barged mit Bitcoin vergleich dann habe ich wohl ein paar Neuigkeiten für Sie...
Und naja, Banken brauche ich nur damit Sie mir mein Geld auszahlen.
 
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.
bei AMD wohl eher CrossFire-Probleme...Klugscheißmodus aus!!!!
 
Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen.
Rasterization ist so langsam an der Grenze, deswegen auch der Wechsel zu RT.
Schau dir mal die 3090 in Optix an. Das ist teilweise echt krank was da so geht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die rohe Power der Amperekarten ist echt krank, aber bei Spielen sieht man davon nicht so viel
 
Wie gesagt es geht nicht ums können, es geht ums wollen. Sowohl NV als auch AMD könnten problemlos per BIOS-Update ihre Karten auf 250W einstellen. Nur verlieren sie dann gegen die Konkurrenz.


Für den Klimaschutz ist es verglichen mit anderen Energieverbrauchern und Verhaltensweisen unwichtiger als ein Sack Reis in China ob ne 3080 jetzt 200, 300 oder 400W braucht. Ich weiß, das Buzzword "Klima" ist die letzten Jahre verdammt in geworden - aber so wichtig das Thema ist wird es nicht automatisch in allen Bereichen ein wichtiges Argument.
Das ist Ansichtssache und nebenbei ein oft genutztes Argument um keine Verantwortung zu übernehmen.
Irgendwo muss man ja schließlich anfangen. Mit "In" hat das herrlich wenig zu tun...

Und erstgenanntes Argument ist im Grunde keins. Konkurrenz gab es schon immer. Das hat NV und AMD auch früher nicht abgehalten sich zumindest etwas beim Stromverbrauch am Riemen zu reißen...
Schließlich hat man es gut ~13 Jahre geschafft den Energiebedarf im Zaum zu halten...

Mag zwar individuell kein Beinbruch sein, aber wenn man alle produzierten GPU's dieser Art mal hochrechnet,
kommt das schon ganz schön was zusammen, bei einem Mehrverbrauch von gut 30%...
Von der immer aufwendigeren Produktion oder der heutigen "Werfgesellschaft" will ich gar nicht anfangen...
Rasterization ist so langsam an der Grenze, deswegen auch der Wechsel zu RT.
Schau dir mal die 3090 in Optix an. Das ist teilweise echt krank was da so geht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die rohe Power der Amperekarten ist echt krank, aber bei Spielen sieht man davon nicht so viel
Eben, im Verhältnis zur angestiegenen Rohleistung kommt bei Spielen recht wenig an. Ist bei Prozessoren aber auch nicht anders... Die Frage ist nur woran es liegt - Ich würde mal auf die mangelnde Optimierung tippen...
 
Zuletzt bearbeitet:
Wenn Sie Barged mit Bitcoin vergleich dann habe ich wohl ein paar Neuigkeiten für Sie...
Und naja, Banken brauche ich nur damit Sie mir mein Geld auszahlen.
Ja dann hau doch mal raus die Neuigkeiten :-)

Bargeld ist wie jede Cryptowährung eine (erfundene) Währung. Papier und Blech und nicht ansatzweise so viel "wert" wie draufgedruckt ist.
 
Selbst mit Chiplets und mehr CUs würde der Stromverbrauch um den entsprechenden Faktor ansteigen, deswegen halte ich die genannte Leistungssteigerung für sehr optimistisch. Lasse mich aber gerne vom Gegenteil überzeugen.
 
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."

Deutsche Sprache = schwere Sprache, oder wars doch eher negativ gemeint im Artikel:
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ja ok, der Plural ist falsch. Trotzdem bezieht es sich eindeutig nicht auf die Zweifel, denn die "kommen" nicht.
 
So ist das halt, wenn man seine Marke verteidigen will.
Dann liest man in einen Schreibfehler etwas falsches hinein.
 
Zurück