News Radeon RX 7900 XT(X): AMD zieht Effizienzvergleich mit RTX 4090 zurück

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7900 XT(X): AMD zieht Effizienzvergleich mit RTX 4090 zurück

AMD scheint in letzter Sekunde einen Vergleich zwischen der Radeon RX 7900XTX und Nvidias Geforce RTX 4090 aus den offiziellen Slides entfernt zu haben. Das muss allerdings nicht bedeuten, dass die eigene Grafikkarte weniger effizient wäre, sondern lässt vor allem vor dem Hintergrund des realen Verbrauchs der RTX 4090 auf eine fehlerhafte Methodik schließen. Lesen Sie dazu im Folgenden mehr.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 7900 XT(X): AMD zieht Effizienzvergleich mit RTX 4090 zurück
 
Vllt hat Nvidia auch den Verbrauch per Treiber gesenkt wegen dem Adapte-Gate! Würde mich nicht wundern.

Eher nicht, denn selbst bei vollkaufgedrehten Karten werden die hohen Wattzahlen im Gaming nicht erreicht, nur in Stresstests sind die 450/600W möglich. Stock ist das schlimmste wohl etwas über 400W, viel aber eben deutlich entfernt von 600W.

Zur News, wenn AMD das wirklich aus dem Grund entfernt hat, ist es für Foren wie hier ein cleverer Schachzug! Für das sonstige, oft Bildniveauhafte Medientum eher schädlich. Es soll ja Leute geben, die solchen Folien ungesehen Glauben schenken.
 
Möglich das die Nvidia Karten sogar etwas Effizienter sind. Aber immerhin weiß man bei AMD das die Leistungsaufnahme nur begrenzt sein kann. Mehr wie 360 Watt dürfte es bei der 7900 XTX Variante ja nicht sein. Wobei die Boardpartner auch mehr Stecker anbieten könnten.
 
Möglich das die Nvidia Karten sogar etwas Effizienter sind. Aber immerhin weiß man bei AMD das die Leistungsaufnahme nur begrenzt sein kann. Mehr wie 360 Watt dürfte es bei der 7900 XTX Variante ja nicht sein. Wobei die Boardpartner auch mehr Stecker anbieten könnten.
Das die Boardpartner auf 3x 8pin gehen ist schon bestätigt, siehe asus tuf!
 
[...] Zur News, wenn AMD das wirklich aus dem Grund entfernt hat, ist es für Foren wie hier ein cleverer Schachzug! Für das sonstige, oft Bildniveauhafte Medientum eher schädlich. Es soll ja Leute geben, die solchen Folien ungesehen Glauben schenken.
Du weißt doch, dass es hier im Forum auch einige speziellere Gesellen gibt, die nicht einmal derartiger Folien bedürfen sondern auch ohne diese das Blaue vom Himmel herunterbeschwören. ;-)

Letzten Endes ist das hier auch wieder eher eine Art "Nicht-News" oder Click-Bait, je nachdem, wie man es verstehen will. Solche Marketing-Folien entstehen auch nicht erst unmittelbar vor der Produktpräsentation und offensichtlich wähnte man sich hier anfänglich gut aufgestellt und wollte sich auch effizienztechnisch vergleichen, musste dann aber wohl nachträglich doch feststellen, dass Lovelace sehr effizient geworden ist, sodass von einem solchen Vergleich (im besten Fall) nichts zu gewinnen war. Letzten Endes hat nur wer vergessen die zugehörige Fußnote zu entfernen. *gähn*
 
Ich glaube auch nicht das die 7900 reihe Effizienz mässig an die 4090 rankommt. Dafür ist die 4090 Sau stark bei super wenig verbrauch. aber ich glaube auch das die 7900 trozdem Effizienz haben gegenüber der 6000 Reihe. Sollte das so sein kann ich das Begrüßen
 
Ich glaube auch nicht das die 7900 reihe Effizienz mässig an die 4090 rankommt. Dafür ist die 4090 Sau stark bei super wenig verbrauch. aber ich glaube auch das die 7900 trozdem Effizienz haben gegenüber der 6000 Reihe. Sollte das so sein kann ich das Begrüßen
Würde auch überraschen, immerhin hat Nvidia den besseren Fab Level und so schlecht das sie den dann nicht entsprechend umsetzen ist der Marktführer sicher nicht. Davon abgesehen find ichs gut das man dies TDP Folie entfernt hat denn die hab ich schon als sie das Erste mal aufgetaucht ist eher sinnfrei gefunden...
 
Würde auch überraschen, immerhin hat Nvidia den besseren Fab Level und so schlecht das sie den dann nicht entsprechend umsetzen ist der Marktführer sicher nicht. Davon abgesehen find ichs gut das man dies TDP Folie entfernt hat denn die hab ich schon als sie das Erste mal aufgetaucht ist eher sinnfrei gefunden...
Ich sehe mir die Folien nur teilweise an weil viel davon schön Färberei ist und ich auf die Test warte. Bevor die 4000 Reihe getestet wurde gab es Watt Zahl des todes, umso schöner waren die Test das die Richtung genau andersherum geht. Das einzige was der 4000 Reihe zum Großteil das versaut ist der Preis.
 
Wie wird denn getestet? Ein Redakteur nimmt die Karte dreht die auf Anschlag und schaut wer den größten Balken hat, alles andere spielt keine Rolle. Als Resultat haben wir die moderne vier Slot 600W GPU. Die Karten sind kein Zufall die sind das Resultat von 15 Jahren Berichterstattung und welche Prioritäten darin gesetzt wurde. fps über alles.

Nur ein Vorschlag. Man nimmt ein Spiel stellt den fps Limiter auf 60fps und auf 144fps. Misst damit seine 10 Spiele durch und macht einen Balken welche Karte dafür wieviel Watt braucht. Gibt ja Software die das anzeigt.

Dann kann man den Leuten Information bieten. Hier ist was man für 60fps an Strom zahlt, hier ist was man für hohe fps braucht und wer wirklich bis zum Anschlag fährt der hat diesen Verbrauch und dieses Maximum. Dann könnte man wirklich sagen welches die effizienten Karten sind.
 
Wie wird denn getestet? Ein Redakteur nimmt die Karte dreht die auf Anschlag und schaut wer den größten Balken hat, alles andere spielt keine Rolle. Als Resultat haben wir die moderne vier Slot 600W GPU. Die Karten sind kein Zufall die sind das Resultat von 15 Jahren Berichterstattung und welche Prioritäten darin gesetzt wurde. fps über alles.

Nur ein Vorschlag. Man nimmt ein Spiel stellt den fps Limiter auf 60fps und auf 144fps. Misst damit seine 10 Spiele durch und macht einen Balken welche Karte dafür wieviel Watt braucht. Gibt ja Software die das anzeigt.

Dann kann man den Leuten Information bieten. Hier ist was man für 60fps an Strom zahlt, hier ist was man für hohe fps braucht und wer wirklich bis zum Anschlag fährt der hat diesen Verbrauch und dieses Maximum. Dann könnte man wirklich sagen welches die effizienten Karten sind.
Das ist in der Tat etwas was mir auch immer fehlt mit den 60 fps wie auch 144/165 dazu dann auch Auflösung. Das hat mir bei der 3090ti auch erst bange gemacht. Das Upgrade war zwar richtig, von einer 1070 aber der Verbrauch war bei den Test erschreckend. Als ich sie dann eingebaut hatte und mit 60 FPS gelockt hatte, viel mir auf das sie Unglaublich effizent in meinen Spiele war und Teilweise effizenter wie die 1070. Mit DLSS/FSR sogar sau Effizenter es gibt kaum ein Spiel wo sie über 180W geht und das bei WQHD und alles max. Der Höchste Verbrauch war bis jetzt RDR2 und Cyperpunk bei ungeefähr 250-280W auch in WQHD und max settings
 
Das ist in der Tat etwas was mir auch immer fehlt mit den 60 fps wie auch 144/165 dazu dann auch Auflösung. Das hat mir bei der 3090ti auch erst bange gemacht. Das Upgrade war zwar richtig, von einer 1070 aber der Verbrauch war bei den Test erschreckend. Als ich sie dann eingebaut hatte und mit 60 FPS gelockt hatte, viel mir auf das sie Unglaublich effizent in meinen Spiele war und Teilweise effizenter wie die 1070. Mit DLSS/FSR sogar sau Effizenter es gibt kaum ein Spiel wo sie über 180W geht und das bei WQHD und alles max. Der Höchste Verbrauch war bis jetzt RDR2 und Cyperpunk bei ungeefähr 250-280W auch in WQHD und max settings
Hier geht man schön auf die Effizienz ein
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Meine Güte. Erstmal Messer verteilen und dann warten wer noch nen Kommentar schreiben kann.
Dafür dass kaum Fakten vorliegen sind die Infos hier bestens.
Zudem lese ich mehrere Quellen und bastel mir daraus meine subjektive Meinung zusammen. Und die biege ich mir so weit zurecht bis ich mir das kaufen muss was meistens schlechter ist als die Alternative.
Bisher war das immer lustig und die Kiste ist gerannt wie son Steuerflüchtling.
 
Amd hat aus der Vergangenheit gelernt. Lieber etwas zu tief stapeln als hinterher den shitstorm zu ernten. Die Leistung wird höher ausfallen als angepriesen.
Es ist durchaus denkbar das die neuen AMD Karten da wo diese bisher eher Ihre Schwächen hatten, z.B. Unrealengine, mit der neuen Arch mehr Boden gutmachen als in der Präsi gezeigt. Das die Karten aber deutlich weniger verbrauchen als die TBP hergibt glaube ich nicht, die Karten werden ziemlich sicher opportunistisch boosten wie bisher und das Budget ausschöpfen. Noch ist auch unklar ob man die Vorteile die man bisher hatte in Auflösungen unterhalb von UHD beibehält, ADA hat da ein wenig aufgeholt, vergeudet aber auch Leistungspotential in dem Bereich.
 
Zuletzt bearbeitet:
Im Text steht, dass RDNA 2 effizienter als Ampere ist.
Basiert das auf Software Messungen?
Igor hat kürzlich erst händisch gemessen und darauf hingewiesen, dass der Wert von Nvidia ziemlich ehrlich ist.
Bei RDNA 2 fehlen aber schon Mal 20%.
Sprich eine 6900 XT zieht dann problemlos 360W.
Allerdings hat Igor nicht (!) bei einer 6900 XT gemessen.

Ich habe so eine drin und bin tendenziell Team Rot, aber auf jeden Fall bin ich Team journalistische Gründlichkeit ;)
 
Zurück