Radeon RX 7000: RDNA3-Termin nur eine Ankündigung? [Gerücht]

Die 6800xt lässt sich doch auch schon ganz gut UVen!? (und der Preis ist heiß!... 679€)
(Settings je nach Chip- und Vramgüte)

statt 255Wtgp halt mal 150Wtgp ausprobieren, später kann man eeh noch bei Bedarf auf 180Wtgp hochgehen
(255Wtgp=300Wtbp und 150Wtgp=178Wtbp)

als Bsp. RaceOwl vom Luxx, der allerdings sehr guten Vram+SOC hat:
(schafft net jeder Dort so sehr zu UVen, macht aber nur je ca. 2W aus, wenn man net ganz so scharf rangeht)
 

Anhänge

  • RaceOwl@150W.png
    RaceOwl@150W.png
    874,7 KB · Aufrufe: 34
  • 6800XT@679€.JPG
    6800XT@679€.JPG
    73,5 KB · Aufrufe: 29
@PCGH_Andreas
Takt und Leistungsaufnahme sollen im Bereich liegen, den auch Nvidia erreicht.
Woher stammt diese Information? Aus den anderen News jedenfalls nicht.
Mir persönlich ist der Verbrauch der Komponenten völlig egal. Ich sitze im Jahr vielleicht hundert Stunden an Spielen, weshalb dieser kein Kaufargument für mich darstellt, aber diese Aussage kommt für mich jetzt aus dem nichts. Besonders befremdlich wird's aber erst, wenn Sie im nächsten Satz folgendes zitieren:
Es ist nur so, dass sie sie viel höher ansetzen müssen als wir.
Kann ich ihrer Aussage also entnehmen dass Sie persönlich wissen, oder meinen, dass AMD hier bewusst schwindelt? Ist das so?
Nur warum reagierte Nvidia dann nicht darauf? Die sind doch sonst Recht pfiffig was Reaktionen angeht.
 
Naja Nvidia is mit Ada-Lovelace auch wesentlich effizienter als mit der vorherigen Generation, was bedeutet diese Aussage also schon? Nicht soviel finde ich, zumal es ein Gerücht ist. Gespannt in ich in jedem Fall
 
@PCGH_Andreas

Woher stammt diese Information? Aus den anderen News jedenfalls nicht.
Mir persönlich ist der Verbrauch der Komponenten völlig egal. Ich sitze im Jahr vielleicht hundert Stunden an Spielen, weshalb dieser kein Kaufargument für mich darstellt, aber diese Aussage kommt für mich jetzt aus dem nichts. Besonders befremdlich wird's aber erst, wenn Sie im nächsten Satz folgendes zitieren:

Kann ich ihrer Aussage also entnehmen dass Sie persönlich wissen, oder meinen, dass AMD hier bewusst schwindelt? Ist das so?
Nur warum reagierte Nvidia dann nicht darauf? Die sind doch sonst Recht pfiffig was Reaktionen angeht.
Mmmhhh, ich tippe eher darauf, dass es etwas missverständlich geschrieben wurde.
Würde bei der Aussage das so verstehen, dass dies von AMD kommt und die sagen:
"Für eine gleich oder ähnliche Leistung der Grafikkarte benötigen wir weniger Strom".

Ähnlich ist es ja auch bei der aktuellen Generation (RTX und DLSS, sowie FSR ausgenommen).
 
Sollte AMD nicht auf die Spieler ? und mit guten Preisen und angemessener Leistung ihre Grafikkarten auf den Markt bringt, bin ich dabei und wechsle von Nvidia zu AMD.
Da ich so lange gezwungen wurde wegen den Preisen und der Verfügbarkeit mit der Aufrüstung zu warten, werde ich halt noch länger warten bis alle Karten getestet wurden.
Dann werde ich mich wohl entscheiden müssen aber momentan liegt AMD vorne.
 
Ich hab nicht vor mir ne neue Karte in Rechner zu packen, aber mMn kann AMD nur gewinnen. Erstens haben wir mit der jetztigen Gen mehr als genug Leistung, heißt egal wie viel besser es wird reichen. Und wenn sie preislich sich der aktuellen Lage anpassen, statt wie Nvidia meint wir werfen alle nur noch sorgenlos mit Geld um uns ohne das Hirn mal anzuschalten.
Dann let‘s go.
Meine nächste Karte darf, als bis dato only Nvidia Nutzer, gerne von AMD sein. Mir hat Nvidia zu viel Sympathie verloren, keine Lust ein weiteres „exclusives“ DLSS only on new cards zu unterstützen und mich weiter melken zu lassen.
 
Weniger Strom ist auch relativ.

Dass NVidia die Tensor- und dedizierten RT Kerne mit sich rumschleppen muss, auch wenn sie brach liegen, und diese immer eine gewisse Grundlast verursachen, kommt AMD hier natürlich zu pass.

Aber ist ja auch die Frage, ob man in einem bestimmten Bereich überhaupt Raytracing und Co. gebraucht. Eine effiziente Karte, die überhaupt kein Raytracing kann und einfach gut liefert in 4k, wäre ja auch interessant für Viele.

Mich würde z.B. interessieren, wieviele Leute bei der 3060/70 Raytracing benutzen und wieviel diese Integration direkt kostet und was dann nochmal beim Stromverbrauch dafür drauf geht. Eine effiziente und günstige GTX4060 anstelle RTX4060?
 
Hoffentlich nicht nur im AMD Shop, da kriegt man wie immer nix.
Launch bei AMD ist immer zeitglich mit Partnerversionen der Referenzkarten zu Beginn.
Januar und Februar ist der Markt typischerweise tot. Dieses Jahr ist extrem und es kommt hinzu, dass der Markt jetzt schon erheblich schwächelt und die Kombination aus Energiekrise und Inflation den Markt vielleicht auch komplett abwürgen.

Es reicht einfach nicht nur sein Produkt auf den Markt zu werfen wie alle Jahre vorher. Nvidia und AMD haben sich immer darauf verlassen, dass sie den Kunden gesagt haben, ihr zockt eh immer das gleiche, aber mit den neuen Karten zockt ihr es mit höherer Auflösung und/oder mehr fps. An den Reaktionen auf Nvidia haben wir gesehen, dass das nicht mehr reicht. Was noch schlimmer ist, Nvidia hat Einsteiger nicht direkt angesprochen, sondern es dem oberen Ende der Kundschaft überlassen die Message nach außen zu kontrollieren, mit desaströsem Ausgang. Nvidia hat ein Problem mit der Fortnite Generation und es ist nicht, dass die alle 300fps haben und nach 600fps schreien.

AMD wird demnach mehr brauchen als eine Lisa Su die eine Karte hochhält und dazu sagt, dass sie jetzt den größten Lörres im Business hat und die schönste Lederjacke noch dazu. Dieser Kinderkram muss aufhören und einer neuen Seriösität weichen, bei der man allen Kundenschichten ein Produkt bieten kann. Karten für Enthusiasten, Karten für preisbewusstere Hobyisten, Karten für Einsteiger, Produkte jenseits von Steckkarten für all diese Gruppen. Dann auch Gründe liefern warum man diese Karten kaufen soll. Man stelle sich vor Sony oder Nintendo würden eine Konsole ankündigen aber keine Spiele. Nvidia ist da ein bisschen weiter, da hapert es noch mit den Titeln, aber immerhin.
Ich denke auch das wenn die üblichen Erstkäufer abgegrast sind landen die Hersteller im Tal der Tränen.
 
Ich denke auch das wenn die üblichen Erstkäufer abgegrast sind landen die Hersteller im Tal der Tränen.

Meine Vermutung ist, dass es vor Weihnachten ordentlich läuft, da einige kaufen werden und zusätzlich Scalper bei den kleinen Mengen mitkaufen werden. Wenn dann im nächsten Jahr die Scalper rausfallen, weil sie nicht teurer weiterverkaufen können, geht es steil bergab.
 
Für AMD wird man wohl mit den alten 2x8pin-Kabeln (und NT´s) gut zurechtkommen.
Daher tut sich AMD nen Gefallen, wenn man drauf schaut, das der Verbrauch net zu hoch wird.
(und in der Performance noch nah genug dran ist, um in die Lücken vom NV-Portfolio reinzupassen)

Am Ende zählt der Preis Graka+NT.
(ne 4090 muss man net schlagen, das ist eeh ne abgehobene markentreue Klientel)
 
Zuletzt bearbeitet:
Mmmhhh, ich tippe eher darauf, dass es etwas missverständlich geschrieben wurde.
Würde bei der Aussage das so verstehen, dass dies von AMD kommt und die sagen:
"Für eine gleich oder ähnliche Leistung der Grafikkarte benötigen wir weniger Strom".

Ähnlich ist es ja auch bei der aktuellen Generation (RTX und DLSS, sowie FSR ausgenommen).
Missverständlich? Nvidia wird bis zu 600W vom Netzteil saugen dürfen. Der Autor schreibt dass AMD bei der Leistungsaufnahme im selben Bereich liegen soll und ich möchte wissen wo das her kommt?

Da steht nicht Effizienz, also Leistung pro Watt, da steht Leistungsaufnahme. Das sind pure Watt, ohne Relativierung. Demnach 600W.
 
So wie ich das bisher lesen konnte, werden die 600W für boosts und oc zur Verfügung gestellt und im Standardtakt werden es 450W sein.
Also schon noch was anderes wie der Anschluss erlaubt 600W. Das ist ja das Ding. 600W technisch möglich und 600W Leistungsaufnahme die abgerufen dürfen werden sind zwei komplett andere paar Schuhe.
Auch habe ich oben bereits geschrieben dass mir das völlig Latte ist. Von mir aus auch 900W, wurscht. Nur wüsste ich gerne wo das her kommt und mehr nicht. Da ist seitens Nvidia nicht der hauch eines funkens von Kritik drin. Warum du ausgerechnet darauf jetzt eingehst statt auf die eigentliche Frage, erschließt sich mir nicht.
 
Für AMD wird man wohl mit den alten 2x8pin-Kabeln (und NT´s) gut zurechtkommen.
Daher tut sich AMD nen Gefallen, wenn man drauf schaut, das der Verbrauch net zu hoch wird.
(und in der Performance noch nah genug dran ist, um in die Lücken vom NV-Portfolio reinzupassen)

Am Ende zählt der Preis Graka+NT.
(ne 4090 muss man net schlagen, das ist eeh ne abgehobene markentreue Klientel)
Es wird sich auf jeden Fall ein gutes Stück unter 350Watt bewegen, soviel wissen wir bereits. Von der Leistungsaufnahme her werden die Karten schon mal deutlich attraktiver als das 450 Watt Gebläse.
 
Zurück