• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

X-Bow

PC-Selbstbauer(in)
Höre ich immer wieder und doch pendelt er sich bei 45.000 ein. Das ist alles reine Spekulation und seitdem Steuern angekündigt wurden lässt der Hauptsächliche Nutzen der Währung sowieso nach.

Und so oder so, wird das ganze nicht lange weiter gehen. China verbietet es und die USA setzt Steuern darauf. Das ist auch gut so weil es einfach keinen Nutzen für die Menschheit, den Planeten oder irgendeinem größeren Wohl hat.
In DE gab es schon immer Steuern.

Naja, dann haben für dich Bargeld und Banken wohl auch keine Daseinsberechtigung.
 

Schinken

Software-Overclocker(in)
(...)
Was sollte eigentlich der komische Satz zur Effizienz von RDNA2 im Artikel?
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ich hatte noch nie so ne sparsame Graka! (leicht UV/OCed)
Dann lies nochmal.
An den Effizienzsteigerungen wurde gezweifelt. Aber sie (die Effizienzsteigerung) kamen doch. Also gab es entgegen anderslautender Meinungen eine bessere (!) Effizienz.
Deshalb könne man sich auch berechtigte Hoffnungen machen, dass es wieder so kommt.
An der Effizienz von RDNA2 zweifelt man hier also nicht, sondern bestätigt sie.
 

RX480

Volt-Modder(in)
Dann lies nochmal.
An den Effizienzsteigerungen wurde gezweifelt. Aber sie (die Effizienzsteigerung) kamen doch. Also gab es entgegen anderslautender Meinungen eine bessere (!) Effizienz.
Deshalb könne man sich auch berechtigte Hoffnungen machen, dass es wieder so kommt.
An der Effizienz von RDNA2 zweifelt man hier also nicht, sondern bestätigt sie.
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."

Deutsche Sprache = schwere Sprache, oder wars doch eher negativ gemeint im Artikel:
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
 

yojinboFFX

Software-Overclocker(in)
Hier geht´s um ne Grafikkarte, die vielleicht/oder auch nicht-irgendwann/oder auch nicht- mit wahnsinniger Geschwindigkeit/oder auch nicht...herauskommen könnte.
Und die Forengrünen:Was ist mit Dammwildschatten ( Rehtracking)
Da hat sich das Marketing in die Stammhirnrinde gebrannt !
Gruß Yojinbo
 

Hannesjooo

Software-Overclocker(in)
@MaW85 das die nächsten Grafikkarten von Nvidia was von nem Backofen
haben glaube ich auch :D.
Ich sag auch jedem der RT will, kauf Nvidia, aber wer eben drauf verzichten kann
ist mit AMD besser dran.
@yojinboFFX AMD hat schon längst das Kartoffel-Püh RT Patten-Tier-t :D.
 

Incredible Alk

Moderator
Teammitglied
noch eine Grafikkarte, die es nicht zu kaufen geben wird
Interessant zu sehen (aus psychologischer Sicht) wie Enthusiasmus und Depression so funktionieren.
Da gibts mal ein halbes Jahr keine GPUs und schon wird geschrieben "gibts eh nicht zu kaufen" über ein Produkt, das 2023 erscheint. Alles furchtbar, wir werden alle sterben, es wird immer nur schlimmer.

Wenns dann vielleicht (man weiß es nicht) nächstes Jahr ne Wende gibt und Grafikkarten wieder an jeder Ecke billig kaufbar sind wird dann wieder geschrieben "in 2 Jahren gibts die doppelte Performance zum halben Preis!! Juhuuu!"

Beide Extremszenarien sind nahezu immer falsch. Trotzdem glaubt offenbar die Masse gerne an solche Geschichten (wie man an der Börse die auch in beide Richtungen die Neigung hat wild zu übertreiben sehen kann). Wir sind schon ein lustiges Völkchen. :haha:
 

ZeroZerp

Freizeitschrauber(in)
Wenn etwas zu schön ist, um wahr zu sein, ist es meist nicht wahr...

Wenn doch ist es ein Grund zum Jubel, sollte der Preis stimmen.
 

DragonX1979

PC-Selbstbauer(in)
2,5x Performance... Na das kann ja wieder alles heißen. :hmm:

Wenn es rein nach der Compute Leistung geht, ist der Sprung von einer RTX 2080Ti zur RTX 3090 auch riesig
(13,5TF gegenüber 35,6TF). Beim Zocken läuft es in der Regel aber eher auf ~30% Plus hinaus.

Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen. Nur Spekulationen, wie die Möglichkeit dass aktuelle Spiele doch mehr Integer-Berechnungen nutzen als gedacht und deshalb eben bei weitem nicht alle FP32 Einheiten zur Verfügung stehen bis hin
zu simplem mangel an Optimierung der Game-Engines um solche Monster effizient auszulasten.

Aber Auslastungsprobleme und interne Flaschenhälse sind ja nun nichts neues mehr, gerade bei den Shaderboliden von Heute. Bei Keppler war's ja ähnlich...

Ich persönlich gebe auf solche absurd hoch gegriffenen Behauptungen recht wenig und glaubhaft sind die schon gar nicht. Und selbst wenn - was soll son' Ding denn an Strom fressen? 600W anstatt 300W? :stupid:
Diese Generation haben sich beide Lager beim Stromverbrauch ohnehin schon die Kante gegeben und Besserung sehe ich bei solchen Gerüchten kaum, zumindest was das angeht.
 

Incredible Alk

Moderator
Teammitglied
Und selbst wenn - was soll son' Ding denn an Strom fressen? 600W anstatt 300W?
1.) 5nm statt 7nm reduziert den Verbrauch bei gleichem Takt um 30-40%.
2.) Die letzten paar 100 MHz verbrauchen unverhältnismäßig viel - eine angepasste 6900XT auf 2 GHz statt 2,5 GHz ist unter 200W fahrbar.

--> ein 2 x 80CU Konstrukt das mit Größenordnung 0,8v bei 2 GHz läuft wäre vom Verbrauch her einer aktuellen 6900XT sehr ähnlich.

Klar, wenn man zwei Chiplets UND sehr hohe Taktraten will ist man schnell bei 400+W.
 

SFT-GSG

Software-Overclocker(in)
1,5x bei 250-300W halte ich für realistisch. Verluste wird durch chiplet geben und der takt wird niedriger ausfallen da sonst die tdp irgendwo bei 500W+ liegen müsste. Interessant werden die Karten unter Wasser und ohne tdp Limit werden.
 

unti20

PC-Selbstbauer(in)
Wenn es rein nach der Compute Leistung geht, ist der Sprung von einer RTX 2080Ti zur RTX 3090 auch riesig
(13,5TF gegenüber 35,6TF). Beim Zocken läuft es in der Regel aber eher auf ~30% Plus hinaus.

Ähm?! WTF?! Der Unterschied zur 2080Ti liegt bei ca.45-55% aber hey....

Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen. Nur Spekulationen, wie die Möglichkeit dass aktuelle Spiele doch mehr Integer-Berechnungen nutzen als gedacht und deshalb eben bei weitem nicht alle FP32 Einheiten zur Verfügung stehen bis hin
zu simplem mangel an Optimierung der Game-Engines um solche Monster effizient auszulasten.

Das ist auch richtig was du hier schreibst, deshalb ist noch viel Reserve in Optimierung und Anpassung auf Ampere möglich.

600W anstatt 300W? :stupid:

Meine 3090 frisst jetzt 480W mit dem Asus Strix BIOS, vertretbar.
Siehst du eben anders.
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.
Bei den Zahlen tun mir alle leid die eine RX6000er gekauft haben xD

Häh wieso? War doch ein TOP Upgrade, über UVP Preise kann man jetzt diskutieren, sofern man aber Mehrleistung wollte passt das.
Was willst du machen? Bis 2023 die alte GTX900/1000er Reihe oder RX5000 weiter bis in den Tod reiten?
Wer Upgraden wollte oder zwangsweise musste wegen anderen Faktoren hat doch genau das bekommen was er wollte....

Hardware kauft man bei Bedarf... warten kann man immer....
 

Flaim

PC-Selbstbauer(in)
Und dann gehr wieder der Backofen auf...Na die haben noch genügend reserven, Raytracing sind sie extrem überlegen das kann keiner anzweigeln.
genauso, wie intel bereits alle notwendigen konter zu ryzen auch schon 5 jahre im schreibtischfach für so eine situation bereitliegen hatte und nur zum spaß immernoch dieses geheime fach nicht geöffnet hat. ach, ne. warte... 🤔
 

Incredible Alk

Moderator
Teammitglied
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.
Wie hoch der Verbrauch ist ist mir persönlich auch egal - die 200 Stunden im Jahr die ich spiele würden selbst bei 1000W nur 60€ Stromkosten ausmachen. Das blöde ist nur die elektrische Leistung die rein geht muss auch als Wärmeleistung wieder raus - und derartige Abwärmen gehen für mich akzeptabel leise (bedeutet WIRKLICH leise) nur über ne dicke WaKü. Nein, diese Tripleslot-Monsterluftkühler die gegen die 400W solcher Karten ankämpfen sind NICHT leise (genug).

Die aktuelle Grenze die ich persönlich als ausreichend leise mit Luft kühlbar erachte sind 250W. Meine 2080 hab ich schon auf 180 gebremst (auch weils performanceseitig keum 5% ausmacht) damit sie leise ist und das mit nem dicken STRIX-Kühler. Die neuen 3000er/6000er Karten sind nochmal besser in der Kühllösung so dass ich beispielsweise eine große 6700XT-Custom mit 230-250W als ausreichend leise empfand. Aber ne 300+W 3080/90 ists definitiv nicht mehr, egal welches Design ich bis jetzt gesehen (/gehört) habe.

Von daher: Wenn die Karten mit 300W TDP erscheinen und man sie mit etwas manueller Optimierung zu 250W bei 95+% Performance bewegen kann ist das ne Option. Viel höher will ich ohne weiteres nicht.
 

unti20

PC-Selbstbauer(in)
Das blöde ist nur die elektrische Leistung die rein geht muss auch als Wärmeleistung wieder raus - und derartige Abwärmen gehen für mich akzeptabel leise (bedeutet WIRKLICH leise) nur über ne dicke WaKü. Nein, diese Tripleslot-Monsterluftkühler die gegen die 400W solcher Karten ankämpfen sind NICHT leise (genug).

True, absolut.
In meiner Sig. steht noch die AiO usw.
Alles viel zu laut - weicht jetzt einem MO-RA3 420er und 4 leisen 200MM Noctua.
Unglaublich echt wie viel Abwärme hier produziert wird, auch für mich die einzige Downside.

Aber diejenigen die eine Custom Wakü haben, wollen sowieso nie wieder zurück.
 

Incredible Alk

Moderator
Teammitglied
Aber diejenigen die eine Custom Wakü haben, wollen sowieso nie wieder zurück.
Manchmal müssen sie aber^^
Ich hatte auch nen 5960X und ein 980SLI und später ne TitanXP an nem MoRa420. Aber nachdem mir 3 Boards gestorben sind und man immer wieder umbauen musste bin ich irgendwann wieder zurück auf Luft und hab die WaKü (einschließlich TitanXP) für ne Stange Geld bei nem Kollegen verbaut. Auch weil sich mein Lebensstil (und damit auch die Spielzeit) stark verändert hatten und eine Oberklassekarte einfach genug ist für das was ich aktuell zocken kann.

Aber zugegeben, die Ruhe eines MoRas mit 500upm-Lüftern ist kaum zu ersetzen. Da hatteste mit max OC an die 600W an Abwärme rausgedrückt und man hörte... das ganz leise entfernte surren der ASXT. Sonst nix. :haha:

Ich hoffe, dass die kommenden Generationen auch wieder manuell sehr gut auf Effizienz trimmbar sind. 160CUs bei 2 GHz und <200W plus der IPC von RDNA3 wäre ne Granate.
 

DragonX1979

PC-Selbstbauer(in)
1.) 5nm statt 7nm reduziert den Verbrauch bei gleichem Takt um 30-40%.
2.) Die letzten paar 100 MHz verbrauchen unverhältnismäßig viel - eine angepasste 6900XT auf 2 GHz statt 2,5 GHz ist unter 200W fahrbar.

--> ein 2 x 80CU Konstrukt das mit Größenordnung 0,8v bei 2 GHz läuft wäre vom Verbrauch her einer aktuellen 6900XT sehr ähnlich.

Klar, wenn man zwei Chiplets UND sehr hohe Taktraten will ist man schnell bei 400+W.
Was theoretisch möglich ist und in der Praxis ankommt ist relativ...

RTX 2080Ti (FE): 12nm TSMC - 260W
RTX 3090: 8nm Samsung - 350W
6800XT: 7nm TSMC - 300W

Wie man sieht, Effiziens gestiegen, real verbrauch explodiert. :what:
Vom OC will ich isb. bei der 3090 gar nicht anfangen...
 

deftones

PC-Selbstbauer(in)
Alles was nicht bezahlbar geliefert wird, können die behalten.
Bis jetzt peile ich eine 3060 an. Zumindest wenn diese bis Weihnachten bei Ihrer UVP ist. Ansonsten warte ich noch bis zur nächsten Generation.
 

DragonX1979

PC-Selbstbauer(in)
Ähm?! WTF?! Der Unterschied zur 2080Ti liegt bei ca.45-55% aber hey....



Das ist auch richtig was du hier schreibst, deshalb ist noch viel Reserve in Optimierung und Anpassung auf Ampere möglich.



Meine 3090 frisst jetzt 480W mit dem Asus Strix BIOS, vertretbar.
Siehst du eben anders.
Sofern ich die Leistung auf dem Bildschirm in Grafik und Framerate sehe kann sich das Teil auch gerne 700W aus der Dose ziehen, mir eigentlich egal - sicher denkt nicht jeder so, aber im Enthusiasten Bereich gibts viele, denen es egal ist wie hoch der Verbrauch ist.


Häh wieso? War doch ein TOP Upgrade, über UVP Preise kann man jetzt diskutieren, sofern man aber Mehrleistung wollte passt das.
Was willst du machen? Bis 2023 die alte GTX900/1000er Reihe oder RX5000 weiter bis in den Tod reiten?
Wer Upgraden wollte oder zwangsweise musste wegen anderen Faktoren hat doch genau das bekommen was er wollte....

Hardware kauft man bei Bedarf... warten kann man immer....
Im idealfall mag sein, aber bei weitem nicht überall. Und es kommt drauf an welche "Varianten" man vergleicht.

480W... Na wenn du das für vertretbar hältst... :haeh:

Aber unabhängig davon ob so ein Stromverbrauch nun moralisch vertretbar ist oder nicht halte ich es immernoch für ein Armutszeugnis - von beiden Herstellern. Aber AMD und Intel sind mit ihren CPU's ja auch keine Leisetreter.

Das Problem beim Mehrverbrauch beim Gaming ist nur, dass dieser nicht durch "kürzere Rechenzeiten/Effizienz" gerechtfertigt werden kann wie z.B. bei großen Severanlagen. Hier kann sich höhere Effizienz durchaus positiv auswirken, obwohl der einzelne Server de facto mehr schluckt.

Beim Gaming wird einfach mehr verbraucht und in FPS oder Bildqualität umgesetzt. Aber unter keinen Umständen
zockt deswegen jemand weniger. Dementsprechend resultiert es immer in realem Mehrverbrauch.
 

Incredible Alk

Moderator
Teammitglied
RTX 2080Ti (FE): 12nm TSMC - 260W
RTX 3090: 8nm Samsung - 350W
6800XT: 7nm TSMC - 300W

Wie man sieht, Effiziens gestiegen, real verbrauch explodiert.
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.

Das problem: Eine 300W-6900XT ist minimal schneller als eine 250W-3090. Das kann NVidia nicht machen. UNd eine 250W-6900XT verliert den Anschluss an die 3090 - das kann AMD auch nicht machen (erstaunlich genug dass AMD "nur" 300W reinschiebt und keine 350).

Ähnlich bei CPUs - die Ryzen3000/5000er CPUs sind, wenn sie 300 MHz weniger boosten, mit gefühlt dem halben Verbrauch zu betreiben. Aber AMD wollte die letzten 5% Performance eben unbedingt haben um Intel maximal zu bedrängen.


Es ist technisch wahrscheiblich ohne große Probleme möglich, eine RX7900XT oder RTX4090 zu bauen, die nur 250W benötigt und dennoch den Vorgänger um 50% und mehr schlägt. Nur ists blöd wenn du das machst und der jeweilige Gegenspieler +80% auflegt (bei 350W). Denn dann stehste am Markt in den Augen der breiten Masse halt als Verlierer da.
 

RX480

Volt-Modder(in)
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.
Jo,
vgl. leichtgemacht duch Duvar in Port Royal:
192W asic vs. 370W asic
Die letzten 20% Mehrtakt/Perfomance verdoppeln fast den Verbrauch.
 

tendenziell

Schraubenverwechsler(in)
2000 werdens nur werden wenn das mit dem Mining so weitergeht. (Drecks miner sollen sich ascis kaufen)
ist einfach nur krank wie GK gestiegen sind. meine 5700xt die ich letztes jahr für 360-oder 390 erworben hab kostet jetzt 1660€
das ist so krank das ich überlege die zu versetzen ,als ersatz ne 580 rein, das geld zur seite legen und ne 6800xt zu kaufen wenn die preise wieder normal sind
 

DragonX1979

PC-Selbstbauer(in)
Aber nicht weil es technisch notwendig gewesen wäre sondern weil die Kontrahenten sich gegenseitig ans Limit gepusht haben.
Du kannst sowohl eine RTX3090 als auch eine RX6900XT mit 250W betreiben und beide Karten werden nur wenig langsamer dadurch aber sehr viel effizienter.

Das problem: Eine 300W-6900XT ist minimal schneller als eine 250W-3090. Das kann NVidia nicht machen. UNd eine 250W-6900XT verliert den Anschluss an die 3090 - das kann AMD auch nicht machen (erstaunlich genug dass AMD "nur" 300W reinschiebt und keine 350).

Ähnlich bei CPUs - die Ryzen3000/5000er CPUs sind, wenn sie 300 MHz weniger boosten, mit gefühlt dem halben Verbrauch zu betreiben. Aber AMD wollte die letzten 5% Performance eben unbedingt haben um Intel maximal zu bedrängen.


Es ist technisch wahrscheiblich ohne große Probleme möglich, eine RX7900XT oder RTX4090 zu bauen, die nur 250W benötigt und dennoch den Vorgänger um 50% und mehr schlägt. Nur ists blöd wenn du das machst und der jeweilige Gegenspieler +80% auflegt (bei 350W). Denn dann stehste am Markt in den Augen der breiten Masse halt als Verlierer da.
Nun, grundsätzlich mag das richtig sein, letzten Endes ist es aber schon traurig, dass man es jahrelang geschafft hat trotz Leistungssteigerung den Stromverbrauch weitestgehend zu halten und jetzt so ne Schippe drauflegt...

Für den Klimaschutz ist das ein echtes Armutszeugnis, allerdings gillt das auch für viele Monitore ond TV's...
Wärend vor einigen Jahren noch große erfolge bei der Effizienz zu verzeichnen waren, ist es dank riesen TV's und HDR heute auch schon wieder vorbei mit Stromsparen, auch wenn es sicher gute Gegenbeispiele gibt... :ka:
 

Incredible Alk

Moderator
Teammitglied
Nun, grundsätzlich mag das richtig sein, letzten Endes ist es aber schon traurig, dass man es jahrelang geschafft hat trotz Leistungssteigerung den Stromverbrauch weitestgehend zu halten und jetzt so ne Schippe drauflegt...
Wie gesagt es geht nicht ums können, es geht ums wollen. Sowohl NV als auch AMD könnten problemlos per BIOS-Update ihre Karten auf 250W einstellen. Nur verlieren sie dann gegen die Konkurrenz.

Für den Klimaschutz ist das ein echtes Armutszeugnis
Für den Klimaschutz ist es verglichen mit anderen Energieverbrauchern und Verhaltensweisen unwichtiger als ein Sack Reis in China ob ne 3080 jetzt 200, 300 oder 400W braucht. Ich weiß, das Buzzword "Klima" ist die letzten Jahre verdammt in geworden - aber so wichtig das Thema ist wird es nicht automatisch in allen Bereichen ein wichtiges Argument.
 

Mr_X58

PC-Selbstbauer(in)
In DE gab es schon immer Steuern.

Naja, dann haben für dich Bargeld und Banken wohl auch keine Daseinsberechtigung.
Wenn Sie Barged mit Bitcoin vergleich dann habe ich wohl ein paar Neuigkeiten für Sie...
Und naja, Banken brauche ich nur damit Sie mir mein Geld auszahlen.
 

jostfun

Komplett-PC-Aufrüster(in)
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.
bei AMD wohl eher CrossFire-Probleme...Klugscheißmodus aus!!!!
 

owned139

BIOS-Overclocker(in)
Kann mich sogar dran erinnern, dass beim launch der RTX 3080/3090 mal wieder die Diskussion los ging warum wieder derart wenig der Rohleistung beim Zocken auf dem Monitor ankommt - ne vernünftige Erklärung hab ich bis heute nicht gelesen.
Rasterization ist so langsam an der Grenze, deswegen auch der Wechsel zu RT.
Schau dir mal die 3090 in Optix an. Das ist teilweise echt krank was da so geht:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Die rohe Power der Amperekarten ist echt krank, aber bei Spielen sieht man davon nicht so viel
 

DragonX1979

PC-Selbstbauer(in)
Wie gesagt es geht nicht ums können, es geht ums wollen. Sowohl NV als auch AMD könnten problemlos per BIOS-Update ihre Karten auf 250W einstellen. Nur verlieren sie dann gegen die Konkurrenz.


Für den Klimaschutz ist es verglichen mit anderen Energieverbrauchern und Verhaltensweisen unwichtiger als ein Sack Reis in China ob ne 3080 jetzt 200, 300 oder 400W braucht. Ich weiß, das Buzzword "Klima" ist die letzten Jahre verdammt in geworden - aber so wichtig das Thema ist wird es nicht automatisch in allen Bereichen ein wichtiges Argument.
Das ist Ansichtssache und nebenbei ein oft genutztes Argument um keine Verantwortung zu übernehmen.
Irgendwo muss man ja schließlich anfangen. Mit "In" hat das herrlich wenig zu tun...

Und erstgenanntes Argument ist im Grunde keins. Konkurrenz gab es schon immer. Das hat NV und AMD auch früher nicht abgehalten sich zumindest etwas beim Stromverbrauch am Riemen zu reißen...
Schließlich hat man es gut ~13 Jahre geschafft den Energiebedarf im Zaum zu halten...

Mag zwar individuell kein Beinbruch sein, aber wenn man alle produzierten GPU's dieser Art mal hochrechnet,
kommt das schon ganz schön was zusammen, bei einem Mehrverbrauch von gut 30%...
Von der immer aufwendigeren Produktion oder der heutigen "Werfgesellschaft" will ich gar nicht anfangen...
Rasterization ist so langsam an der Grenze, deswegen auch der Wechsel zu RT.
Schau dir mal die 3090 in Optix an. Das ist teilweise echt krank was da so geht:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Die rohe Power der Amperekarten ist echt krank, aber bei Spielen sieht man davon nicht so viel
Eben, im Verhältnis zur angestiegenen Rohleistung kommt bei Spielen recht wenig an. Ist bei Prozessoren aber auch nicht anders... Die Frage ist nur woran es liegt - Ich würde mal auf die mangelnde Optimierung tippen...
 
Zuletzt bearbeitet:

X-Bow

PC-Selbstbauer(in)
Wenn Sie Barged mit Bitcoin vergleich dann habe ich wohl ein paar Neuigkeiten für Sie...
Und naja, Banken brauche ich nur damit Sie mir mein Geld auszahlen.
Ja dann hau doch mal raus die Neuigkeiten :-)

Bargeld ist wie jede Cryptowährung eine (erfundene) Währung. Papier und Blech und nicht ansatzweise so viel "wert" wie draufgedruckt ist.
 

Sorenhuhn

Komplett-PC-Käufer(in)
Selbst mit Chiplets und mehr CUs würde der Stromverbrauch um den entsprechenden Faktor ansteigen, deswegen halte ich die genannte Leistungssteigerung für sehr optimistisch. Lasse mich aber gerne vom Gegenteil überzeugen.
 

Schinken

Software-Overclocker(in)
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."

Deutsche Sprache = schwere Sprache, oder wars doch eher negativ gemeint im Artikel:
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ja ok, der Plural ist falsch. Trotzdem bezieht es sich eindeutig nicht auf die Zweifel, denn die "kommen" nicht.
 

JoM79

Trockeneisprofi (m/w)
So ist das halt, wenn man seine Marke verteidigen will.
Dann liest man in einen Schreibfehler etwas falsches hinein.
 
Oben Unten