News Radeon RX 7000: AMD klärt Verwirrung um "Probleme" beim Shader-Prefetch

Ach komm AMD bringt hier zukunftweisende Architektur, während Nvidia noch mit Software rum mogelt (DLSS3).

Und was bitte ist daran nicht zu verstehen?

AMD: Es läuft alles wie es soll.

Jaja, die allseits bekannte Mogelpackung "Upscaling". AMD ist mit FSR3 irgendwann nächstes Jahr soweit und wird nachziehen, somit setzt man auch da auf Frame Generation.

Die MCM Architektur gibt es schon lange. Aber ja, ist definitiv zukunftsweisend, hilft nur den Early-Adoptern nicht wenn sie sich mit Kinderkrankheiten rumärgern müssen.

Also wenn AMD meint dass ein 100W+ Idle Verbrauch "läuft wie er soll" nur weil man 2 Monitore mit höheren Refresh Rates anschliesst, dann "Gute Nacht". Zum Glück haben sie gemerkt dass sie damit nicht weiter durchkommen und es in ihre Known-Errors aufgenommen.
 
Bei Multimonitor, vor allem mit verschiedenen oder sehr hohen Refreshraten gibt es häugier diese Problem, Sowohl bei NV als auch bei Amd. Nichts desto trotz ist der Wert für zwei Panel mit identischer Refreshrate viel zu hoch bei den neuen Karten, auch HDR triggert den Verbrauch gravierend.
 

Öhm:

Servus

Mit meiner 3090 Trio hatte ich auf dem Tripple-Screen Setup immer das Problem, dass die Grafikkarte bei aktivierten 144 Hz mal eben 100W gefressen hatte. Auf dem Desktop! Das war wohl ein MSI spezifisches Problem. Wie ist es denn mit den 4090? Vor allem interessiert mich ob das Problem bei MSI weiterbesteht und ob die anderen Hersteller auch das Problem haben.

Moin,
mein 4090 Suprim X braucht im TripleScreen ca. 44W

Wenn ich die beiden äußeren Monitore auf 120Hz einstelle, dann sinkt der Idleverbrauch auf ~30W bei mir.

Sonst frisst die 4090 auch ihre 100W im Idle.



Kannst du ja mal ausprobieren.

Forumseinträge ohne Belege, Screenshots oder sonstiges sind jetzt also gesicherte Fakten?

Aber wie auch immer, mag sein dass ADA im Triple Screen bei 144hz 100W verbraucht. Das schafft AMD aber bereits im Dual Screen Betrieb der wohl deutlich häufiger bei Usern anzutreffen ist.
 
Es gibt auch genug Dualmonitor Setups wo der Verbrauch hochschnellt, gabs auch ein paar hier im Forum. Informier dich doch einfach mal vorher ehe du irgendwelche Behauptungen aufstellst.

Das Problem gibts schon seit Anno Tubak.

Stimmt, und es wurde bei Nvidia stetig besser, während AMD anscheinend auf der Stelle tritt. Belege? Informationen? Hier: https://www.computerbase.de/2020-11..._leistungsaufnahme_desktop_youtube_und_spiele

1671452652191.png
 
Nvidias exorbitante Stromverbräuche kann AMD doch in dieser Gen sogar übertrumpfen?
Und jetzt werden wieder die 1% geschmolzenen Stromkabel ausgepackt die von ein paar Usern falsch eingesteckt wurden als Argument Pro-AMD? Gab es die schmelzenden Stromstecker nicht nur bei der 4090? Hast Du ein Beispiel für einen 4080 Fall?

Die 4080 bleibt laut diversen PC-Hardware Websiten, Youtubern, und auch meiner Meinung nach, auf jeden Fall das rundere Produkt.
Stimmt die Effizienz von AMD ist momentan nicht gut ... macht aber 450+ Watt Grafikkarten nicht besser. Interessant dass du meint ich würde das als "Pro-AMD" Argument sehen. habe ich etwa gesagt AMD mache es besser? Mein Kommentar bezog sich darauf dass "Nvidia perfekte Produkte abliefere".

Und weil die 4080 so ein rundes Produkt ist für 1400€ bleibt es relativ wie Blei in den Regalen liegen? Interessant. Sehen die Kunden wohl anders ;). Genauso wie die 7900XT übrigens ... nicht dass nachher jemand meint ich würde das als Argument Pro-AMD sehen.
 
Stimmt die Effizienz von AMD ist momentan nicht gut ... macht aber 450+ Watt Grafikkarten nicht besser.
Abwarten, von der 7900XTX gibt es ja auch 3-Pin Karten. Was ziehen die?

Die Asus 7900XTX TUF OC kratzt an 430W. Und die 4090 zieht ihre 450W so gut wie nie.

Aber hey, natürlich macht das die maximale Leistungsaufnahme nicht besser, und ändert nichts daran dass Nvidia diese Gen mehr Perf/Watt liefert.

Und weil die 4080 so ein rundes Produkt ist für 1400€ bleibt es relativ wie Blei in den Regalen liegen? Interessant. Sehen die Kunden wohl anders ;). Genauso wie die 7900XT übrigens ... nicht dass nachher jemand meint ich würde das als Argument Pro-AMD sehen.

Ja, das rundere Paket trotz des Preises im Vergleich. Schau doch nach was man für eine XTX hinlegt. Das tut sich nicht viel zur 4080, und da erhält man eben bessere Perf/Watt, mehr Features und von der RT Leistung sprechen wir lieber nicht.
 
So ein Umstieg auf ein Chipletdesign ist bei GPU's sicherlich genauso schwierig wie bei CPU's.
Schaut euch einfach an, wie lange die Optimierung bei Ryzen gedauert hat.
Und nun schaut euch an, wie rasend schnell ein Chip werden kann, wenn man wie bei Apple einfach den ganzen PC in ein Stück Silizium gießt (dafür dann natürlich sämtliche Konfigurationsmöglichkeiten wie bei einem PC aufgibt und alles in einem Stück beim Defekt entsorgen muss).
Was ist also das Problem und die Ursache?
Jede notwendige Querverbindung hemmt die Leistung und verursacht neue Komplikationen.
Ratet mal, was passiert, wenn NVidia nächstes Mal gezwungen ist das ohne Erfahrung umzusetzen?
Die wehren sich nicht umsonst mit Händen und Füßen dagegen und gehen den leichten, aber extrem kostspieligen Weg für die Kundschaft durch Riesenchips.
Vermutlich sind die schon seit Jahren parallel mit der Entwicklung zugange.
Man sieht es ja auch bei Intel, wie lange das bei den Prozessoren dauert, bis man von dem bisherigen Konzept weg kommt.
Und man darf ja nicht vergessen, wie schwer es damals SLI und Crossfire gehabt haben, und wie die Designer am Ende darüber gestolpert sind.
Oder 3DFX Voodoo, mit ihren 4er Chips.
Das ist nicht so wie beim Fliesen verlegen, wo man die Cacheln dann einfach aneinanderlegt und dann hoffentlich rechtwinkelig und in der passenden Höhe ausrichtet.
Da fängt der Spaß doch gerade erst an.
RDNA3 ist quasi das Funktionskonzept (hauptsache es läuft überhaupt erst einmal, so wie Ryzen 1), RDNA4 wird dann sicherlich die eigentliche Optimierung des Ganzen (Ryzen 2+++), und man wird sich dann auch um die wirkliche Verbesserung beim Raytracing kümmern können, um den Rückstand zu NVidia wirklich (auf)schließen zu können.
Genau auf den Punkt gebracht:daumen:
Die Mitbewerber kommen in der Zukunft nicht drum rum den selben Weg einzugehen und dann werden die erstmal ähnliche Probleme bekommen.
Einziger Kritikpunkt von mir, der Release erfolgte etwas zu hastig. Könnte noch ruhig paar Monate reifen bevor man es released hätte bzl. Treiber ect. Aber sie waren unter Zugzwang gegenüber nVidia.
 
Hast Du den Test bei Igor dazu gelesen? Gerade was den Stromverbrauch angeht war das denke ich keine besonders Clevere Idee. Ich weiß nicht ob Du für beide Hersteller offen bist aber eine 4080 wäre wohl besser gewesen. 3% schneller wie eine 4080 FE aber mit enorm schlechter Effizienz. Ich zitiere Igor mal und verlinke Dir den Test falls Du es noch nicht gelesen hast:







Ich finde das Problem mit den 7900ern ist nicht die Leistung (außer in RT) sondern der Verbrauch. Genau dafür wurde doch Nvidia immer "gehatet" das die AMDs ja so viel Stromsparender sind als die Energieverschwender von Nvidia. Und nun ist es umgekehrt. Ich beführchte da ist nich viel zu machen per Treiber. Selbst wenn man nun zur 4090 aufschließen könnte, was bringt das bei doppeltem Stromverbrauch?

Quelle: IgorsLab

Jo da haste schon Recht aber das hab ich ja im ersten Post auch schon geschrieben, vor Allem im Idle schon übel aber ich hoffe das sich da noch was durch Treiber verbessert :D
 
MMh evt AMD bisserl Zeit lassen? Bei intel hat man auch gesagt, die Treiber reifen noch, neuer Player..:
AMD ist einen neuen Weg gegangen und hat die erste Multi CHIP Architektur vorgestellt, Nvidia ist den leichten Weg gegangen, warten wir mal ab was da noch rausgeholt wird
Ich halte dann einen Teil meines Geldes auch so lange zurück wie AMD braucht oder wie?
 
Ach komm AMD bringt hier zukunftweisende Architektur,
was genau ist an RDNA3 zukunftsweisend?
Man ist in vielen Belangen deuitlich hinter Nvidia
während Nvidia noch mit Software rum mogelt (DLSS3).
lustig, dass AMD dasselbe "mogeln" auch angenkündigt hat.
Und was bitte ist daran nicht zu verstehen?

AMD: Es läuft alles wie es soll.
Der letzte Satz hört sich ein bisschen wie russische Propaganda an
 
Ich war auch mal so drauf, dass ich AMD wegen fast allem in Schutz genommen habe, aber wenn sich Dinge zu oft wiederholen ist es aus mit dem Underdogbonus, vor allem wenn man so eine dicke Stange Geld verlangt.
Fehler können passieren aber dies schon wieder beim Stromverbrauch unter Idle zu sehen nerft echt.
Hier müssen die Hausaufgaben gemacht sein bei release!

Jedoch bin ich zuversichtlich für die Zukunft. Danke Chiplet Architektur soll die entwicklung auch vereinfacht werden.
Erinnert mich hier etwas an Unreal5.
Entwicklungszeit einsparen zu können wird imens wichtig.
 
Zurück