News AMD Radeon: Nahender Release neuer RX-7000-GPUs offiziell bestätigt

Ich erwarte von den 7800XT und kleineren Varianten relativ wenig, ähnlich wie schon die 4070 nicht gerade glanzvoll war. Letztlich wird die 7800XT z.B. etwas langsamer als die 7900XT sein müssen, wo wir allerdings schon in den Gefilden der 6950/6900XT angekommen wären, die es für das gleiche Geld zu kaufen gibt.

Da der VRAM auch wieder 16Gb sein dürfte, bleibt imho nicht viel Raum für Enthusiasmus. Vielleicht wird die Effizienz besser :ka:
Denke auch, dass die 7800XT einfach die 6950XT "ablöst". Sie eine Zeit lange gemeinsam auf dem Markt sind und eigentlich "gleich" sind, bis auf Energieeffizienz und irgendwann gibts halt nur noch die 7800XT und an Preis und Leistung tut sich dann bis zur nächsten Generation wenig. Über die Zeit werden die Karten hoffentlich günstiger, damit die 8000er wieder etwas besser reinpassen.
 
Fiiiiiiieeeep fiiiiiiieeeep, ich bin die neue Radeon fiiiiiiiieeeeep fiiiiiiiiiieeeeep
Das betrifft leider alle Hersteller.
Sollte die 7600XT wirklich 180 Watt schlucken wäre das schon hart wenn man anguckt was die 4070 mit 20 Watt mehr leistet. Ich frage mich ob AMD die nächsten 15 Jahre weiter auf allen Ebenen hinterherhecheln will oder irgendwann mal einen Großangriff startet wie mit Zen bei den CPU's.
Hinterher hecheln ist schon sehr übertrieben. Die AMD Karten liefern eine Konkurrenzfähige Rasterleistung und auch die RT Leistung ist nicht die schlechteste. Beim VRAM wird Nvidia überall ausgestochen.
 
Das betrifft leider alle Hersteller.

Hinterher hecheln ist schon sehr übertrieben. Die AMD Karten liefern eine Konkurrenzfähige Rasterleistung und auch die RT Leistung ist nicht die schlechteste. Beim VRAM wird Nvidia überall ausgestochen.
Meine RX6600 ist sehr effizient und da sich jetzt die Preise auch wieder halbwegs "normalisiert" haben passt auch das fps pro Euro Verhältnis sehr gut. Full HD uneingeschränkt, WQHD sehr oft möglich und mit FSR erst recht. RT brauche ich nicht, von daher (für mich) kein Kriterium. Und das für 230 € ist mehr als nur gut. Wenn die 7600 kommt fällt der Preis auf?? 190€?? oder ähnlich... Da kann Team Grün leider nicht mithalten, also gar nicht. Das zum Thema Konkurrenzfähigkeit. Muss jeder für sich entscheiden...
 
Sollte die 7600XT wirklich 180 Watt schlucken wäre das schon hart wenn man anguckt was die 4070 mit 20 Watt mehr leistet. Ich frage mich ob AMD die nächsten 15 Jahre weiter auf allen Ebenen hinterherhecheln will oder irgendwann mal einen Großangriff startet wie mit Zen bei den CPU's.
Schon bei den RX 6000 hatte AMD Navi 22, 23 & 24 so stark abgespeckt, das sie über hohen Takt kommen mussten, um nicht den Anschluss zu verlieren - bereits zur großen Schwester, Navi 21. Der hohe Takt führt aber auch zu einer höheren Leistungsaufnahme.
So hatte die 6800 non-XT (250W) die bessere Effizienz als die 6700 XT (230W), und erst recht besser als die 6750 XT (250W).

Macht AMD scheinbar bei RX 7000 nun wieder, leider..
 
Wie kommst du darauf dass ihn das enttäuschen könnte? Ich meine er hat das humorvoll gemeint und sich ausschließlich auf den Inhalt des Links bezogen der mit in seinem Beitrag stand.

Persönlich finde ich die 4090 geil und freue mich wenn ich deren Werte so sehe. Ich behalte aber im Hinterkopf dass sie ml auf 600W bis 900W ausgelegt war. Wir erinnern uns... dass sie so gut werden könnte, wusste selbst Nvidia nicht die ganze Zeit. Das war durch TSMCs Leistung möglich und spielte ihnen in die Karten. Zu der Zeit dachten sie noch, dass AMD mit einer 7900XTX mit 3GHz aufwärts und besserer Effizienz um die Ecke biegt. AMD hat sich hier überschätzt und Nvidia unterschätzt. Genau diese Konstellation ist für uns Kunden toll. Nur hat Nvidia eben auch zeitnah die Preise entsprechend platziert und AMD sich direkt daran orientiert. Das wiederum war nicht so gut für uns. Ich schweife aber ab. Wie gesagt, technisch ist die 4090 ein tolles Produkt.

Das hoffe ich von den kleineren RX7000ern auch. Für den Markt sind die wichtig, auch wenn das Leistungsklassen sind welche die meisten von uns ignorieren. Die hier aufgeführten Werte passen mMn nicht so Recht zum angegebenen Stromverbrauch. Auch weil AMD ja etwas Zeit hatte am Prozess zu feilen. Ne, richtig rund wirkt das nicht auf mich.
 
Ich warte immernoch auf eine 7970XTX 3GHz Edition :devil:
Die prognostizierten VRAM Größen passen Imho auch nur die Leistungsaufnahmen finde ich wild.
Auch die 8GB bei einer RX7600 finde ich, im untersten Segment, i.O. es muss nur der Preis auch dazu passen.
Gibt doch Gerüchte zu einer RX7950XTX die auf Hardwareseite der 7900XTX eins zu eins gleicht. Jedoch mit deutlich mehr Takt. Da wird bis zu 3,3GHz Boost spekuliert.

Also eigentlich eine OC 7900XTX mit extremen OC Takt. Wer das braucht...bitte. Aber eigentlich uninteressant. Man sieht auch bei der 7900XTX schon das mehr Takt nicht wirklich viel bringt.

Wenn man für die 7900XTX 355W annimmt, dann kann man sich denken das man bei 450W (als Vergleich zur 4090)
rund 10 - 11% mehr Takt in Spielen halten kann... Wenn der Speicher dabei unangerührt bleibt wird man wohl bei max. 6 - 6,5% mehr Fps landen.

Mit Speicher OC und Undervolting lässt sich das dann eventuell noch auf 7,5 - 8,2% steigern... Wenn man von anderen OC Ergebnissen ausgeht.

Das braucht die Welt nicht. Wenn dadurch aber die Preise der 7900XTX etwas fallen bitte gerne ;)
Meine ist noch nicht bestellt.
Auf Reddit hatte vor ein paar wochen jemand einen screenshot aus dem AMD treiber software gepostet. Dort lief eine 7900xtx angeblich auf 3600mhz mit nur 300w. Ka ob fake oder Silizium Jackpot geknackt.
Fake, bei 3,6GHz würde ich noch sagen, das kann auch ein golden sample sein. Aber das bei 300W niemals.
Das hoffen wir alle seit dem Release von Navi 31. Welche Quelle spinnt sich denn etwas Frisches zusammen? :D

MfG
Raff
Techpowerup
slashcam
wccftech


Tomshardware
Das betrifft leider alle Hersteller.

Hinterher hecheln ist schon sehr übertrieben. Die AMD Karten liefern eine Konkurrenzfähige Rasterleistung und auch die RT Leistung ist nicht die schlechteste. Beim VRAM wird Nvidia überall ausgestochen.
;) Wie nicht die schlechteste ;) (Musste einfach geht nicht anders )
Wenn es nur zwei Hersteller gibt (Intel zähle ich mal noch nicht voll) ist AMD´s RT Leistung natürlich die schlechteste.


Nvidia sticht AMD bei RT
AMD sticht Nvidia bei VRAM

Kann man sich raus suchen, was man lieber möchte!

Bei mir wird es eine 7900XTX, mit 97% Sicherheit
Braucht die 4090 doch auch.
Immer, sofort nach dem einschalten. Manchmal sogar im Standby, wenn ich das richtig raus lese ...

Kann ich nicht raus lesen und Stock sowieso schon mal nicht ;)
Wie kommst du darauf dass ihn das enttäuschen könnte? Ich meine er hat das humorvoll gemeint und sich ausschließlich auf den Inhalt des Links bezogen der mit in seinem Beitrag stand.

Persönlich finde ich die 4090 geil
Das steht außer Frage ;)
und freue mich wenn ich deren Werte so sehe. Ich behalte aber im Hinterkopf dass sie ml auf 600W bis 900W ausgelegt war. Wir erinnern uns...
Woran denn, an Gerüchte? Ich glaube nicht das es so geplant war, da Nvidia auch gewusst hätte wie die Akzeptanz ausgesehen hätte. Mag sein, das sich Nvidia einen Notnagel zurecht gelegt hat, für den Fall das AMD überrascht und dann einfach etwas mehr Spannung und Takt gefahren wäre... Ob das aber wirklich so war, werden wir doch nie erfahren.
dass sie so gut werden könnte, wusste selbst Nvidia nicht die ganze Zeit.
Auch das glaube ich nicht.
Das war durch TSMCs Leistung möglich und spielte ihnen in die Karten. Zu der Zeit dachten sie noch, dass AMD mit einer 7900XTX mit 3GHz aufwärts und besserer Effizienz um die Ecke biegt. AMD hat sich hier überschätzt und Nvidia unterschätzt. Genau diese Konstellation ist für uns Kunden toll. Nur hat Nvidia eben auch zeitnah die Preise entsprechend platziert und AMD sich direkt daran orientiert. Das wiederum war nicht so gut für uns. Ich schweife aber ab. Wie gesagt, technisch ist die 4090 ein tolles Produkt.

Das hoffe ich von den kleineren RX7000ern auch. Für den Markt sind die wichtig, auch wenn das Leistungsklassen sind welche die meisten von uns ignorieren. Die hier aufgeführten Werte passen mMn nicht so Recht zum angegebenen Stromverbrauch. Auch weil AMD ja etwas Zeit hatte am Prozess zu feilen. Ne, richtig rund wirkt das nicht auf mich.
 
Zuletzt bearbeitet:
Unter 100% Last oder mit einem YouTube Video im Hintergrund?
100%

besagter Shot:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
100%

besagter Shot:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Mach mal ein Video, wo man sehen kann, was gespielt wird und dann das die GPU wirklich nur 300W aufnimmt.
 
Warst wohl nicht ganz bei der Sache, als du das gefordert hast, was? Wie soll er denn ein Video von einer Karte machen die er nicht hat? Er schrieb doch dass vor ein paar Wochen ein Reddituser diesen Screen gepostet hat. Willst du uns sagen dass du Forderungen stellst, selbst aber nicht einmal bereit bist ein paar vorangegangene posts zu lesen? :schief:
 
Zuletzt bearbeitet:
Warst wohl nicht ganz bei der Sache, als du das gefordert hast, was? Wie soll er denn ein Video von einer Karte machen die er nicht hat? Er schrieb doch dass vor ein paar Wochen ein Reddituser diesen Screen gepostet hat. Willst du uns sagen dass du Forderungen stellst, selbst aber nicht einmal bereit bist ein paar vorangegangene posts zu lesen? :schief:
Geht doch darum, das er gar nichts belegen kann. ;)

Entschuldigung an der Stelle wenn das nicht deutlich war. Es bleibt aber dabei. das kann keiner belegen. Ich kann meine GPU auch beispielsweise mit der GPUz validierung zu 100%% auslasten und dabei aber nur 70% an elektrischer Leistung aufnehmen... Die 70% sind fiktiv, könnten auch noch weniger gewesen sein. Aber Auslesetools, oder auch der Afterburner zeigten dabei 100%.


Letztendlich geht es darum, das man etwas mitdenkt.

Eine GPU die 355W Stock aufnimmt, bei 2,6 bis 2,7GHz soll bei 3,6GHz 300W aufnehmen... Da führt halt kein Weg hin, niemals... Bei Minus 50Grand schon eher, aber selbst da nicht.

Gab hier doch auch jetzt die Tage den der die 7900XTX um 35% gesteigert hat, da waren es über 800W (meine sogar 880W)

Ohne extreme Maßnahmen gehen 3,6GHz auch nicht, gut möglich das an der Karte auch HardVoltmods gemacht wurden, externe Spannungsquelle, Veränderungen der Messung auf der Karte, damit die selsbt mehr Power ausspuckt usw... (bezieht sich jetzt auf den Redditusewr Post)
 
Zuletzt bearbeitet:
@Cleriker warum so bissig?
@OField halte ich für Fake bzw. irgendwas wird uns dort verheimlicht.
Hier ist ein Benchmark einer 7900 XTX mit ~3,6 GHz und der Verbrauch liegt bei bis zu 880W:
Das sollte überhaupt nicht bissig klingen. Deswegen doch auch der lustige Ausdruck am Ende des posts, so nach dem Motto: Oha, was war denn das? Mit einem Lächeln im Gesicht nachgefragt.
 
Zurück