Radeon RX 6000: Zweitschnellste GPU mit 2.400 MHz Game Clock und 255 Watt?

Also hab gerade knapp 90 Kommentare hier gelesen... und einige scheinen eher vom eigenen Leben entäuscht zu sein und müssen hier so ein durchfall ablassen? Wird die eigene entäuschung nun schon mit AMD verbunden Oo?
Das ist ja manchmal echt Peinlich...

255 Watt Knapp unter 3080? also das wäre verlockend :) aber mal bis zum 28.10 abwarten :) scheint aufjedenfall mal wieder interessant zu werden der Wettbewerb...
 
der fight ist eigentlich non-sense, denn der eigentliche skandal ist das METRO @Ultra mit RT ULTRA es knapp auf 50FPS bringt @1600p bei 367W leistungsaufnahme.
kann Big Navi 75FPS? nein
3090? nein

für lächerliche 75FPS sind die alle zu schlecht... egal wie die heißen
 
Wenn der Stromverbrauch doch in den Regionen bleibt wird es dieses Jahr wohl eine von AMD. 100 Watt weniger ist schon eine Hausnummer
 
Muss denn hier aus jedem Artikel eine Rot/Grün Fanboy Sandkasten Krabbelgruppe werden. Meine Güte es geht um eine gottverdammte sowieso viel zu teure Grafikkarte.
Und wenn Amd nicht ganz so schnell ist wie eine 3080, hingegen vielleicht weniger Strom benötigt und mehr Speicher hat und den guten Preis hat. Dann hat man schon verdammt viel richtig gemacht.
Und wenn die Dinger vielleicht sogar schneller sind, dann ist das gewaltig.

Aber wir werden es in einigen Tagen wissen.
Das manche hier eine persönliche Sache draus machen. Seid ihr im normalen Leben auch so, wenn Nachbar's Auto vielleicht 20PS mehr hat und Ihr deswegen ne Krise bekommt. Calm down und enjoy your life bunny.
 
Ach komm kleines schaffe, nun weine doch nicht. Auch dein Götze wird irgendwann wieder was brauchbares Liefern.
Du musst zwar bis dahin noch 25x den Account löschen lassen und dir neue erstellen aber irgendwann ist es sicher wieder so weit.
Das ist nicht schaffe. Es gibt 2 von der Sorte. Der Schaffe aka Polypolymer und sein letzter Account müsste "HardwareHighlander" gewesen sein, ist zwar auch so ein richtiger Fanboy, aber wenigstens kann er sich grammatikalisch korrekt ausdrücken, beherrscht die Rechtschreibung und man muss ihm auch lassen, dass er sich im Hardware Bereich doch ganz gut auskennt.

Dieser hier ist der selbe Troll der schon 15x gesperrt wurde quasi und immer im Navi Laberthread sich über RDNA1 aufgeregt hat, nachdem er eine Navi Karte von sich reklamieren musste.
 
Ach komm kleines schaffe, nun weine doch nicht. Auch dein Götze wird irgendwann wieder was brauchbares Liefern.
Du musst zwar bis dahin noch 25x den Account löschen lassen und dir neue erstellen aber irgendwann ist es sicher wieder so weit.
Ach, der ist dat. Dachte ich mir das doch. Scheint ja mit den fortlaufenden neuen Usernamen im Netz ja auch hier gewisse "Performance Probleme" zu besitzen. Danke...kommt auch hier auf Ignore ?
@Topic : Oh, ja ..einen kleine Schwester der Xt Version, mit ordentlich RAM und Takt...mit angemessen Stromverbrauch..guter Lieferbarkeit könnte nach Jahren nur Nvidia Mal wieder eine von den Team "Red" werden.?
 
Also ein Leaker der jetzt auch noch Custom Design OC Karten ratet was da wohl möglich ist.

Ja PCGH das ist natürlich eine News wert und ihr nutz dann sogar noch das obere Ende des Ratespiels.


Das ist keine News das ist Klicks machen und genau das führt dann dazu das es heißen wird AMD
enttäuschend. Den ihr setz die Erwartung damit so hoch das AMD nur auf die Schnauze fallen kann.


Solche News sollte man sich einfach verkneifen, wenn man angeblich informieren will.
Besonders weil Daten eben nicht vergleichbar sind PCGH und ich hoffe nicht das man euch das
sagen muss.
 
Jetzt schauen wir mal, was kommt.

Die Tests hier auf der PCGH werden es enthüllen. Leute, macht ran bei den neuen Ryzen, ich will was sehen. :D

Generell scheint es jedoch, daß Big Navi eventuell potenter daher kommt, als man meinte. Wenn se das mit entsprechender Lastaufnahme kombinieren können, sind se auf jeden Nvidia einen Schritt voraus. Dann noch mehr VRam und einen besseren Preis abliefern, dann ist das seltsame Ampere, auch mit dem komischen Gesamtsetup, 3080 zu nah an einer 3090 etc. Vram, Mondpreise etc. ziemlich "yesterday".

Selbst wenn se dann 5-10% Mehrleistung bringen oder Fürzchen wie RT oder DLSS haben, dann ist der Kunde Meilen besser bei AMD aufgehoben. Da sich im Hardwareschrottkartell aber immer alles die Wage hält, daß das Konsumschaf ja nicht den Scheren der Aktionäre entkommt, müßen wir erstmal abwarten.
 
Ich melde mich mal als aussenstehender. Ich hatte bis dato weder ein G-Sync Problem noch ein anderes Problem. Ich hatte noch keine Karte die ein Problem hatte und habe die letzten Jahre nur Nvidia gekauft. Ich weis, es ist schwer zu verstehen, aber es geht auch ohne Probleme und ohne das man Fanboy ist.
Genau die selben Erlebnisse habe ich mit den "ach so schlechten" AMD-Treibern. Ich habe mittlerweile im Bekanntenkries schon 3Mal irgendwelche Trottel gefunden, die die umfangreichen Möglichkeiten des Treibers nutzen, um die böhse 5700 zum Abstürzen zu bringen und dann jaulen sie herum: "AMD-Treiber sind schlecht".
Ich habe in jedem einzelnen Fall durch einfaches Anpassen auf sinnvolle Werte alle Instabitlitäten beseitigen können. Beim Nachfragen, wie sie darauf kamen, derartige Einstellungen vorzunehmen, sagten sie dann, sie haben sie aus einem irgendeinem Hardwareforum übernommen... -.-
Das ist nicht schaffe. Es gibt 2 von der Sorte. Der Schaffe aka Polypolymer und sein letzter Account müsste "HardwareHighlander" gewesen sein, ist zwar auch so ein richtiger Fanboy, aber wenigstens kann er sich grammatikalisch korrekt ausdrücken, beherrscht die Rechtschreibung und man muss ihm auch lassen, dass er sich im Hardware Bereich doch ganz gut auskennt.

Dieser hier ist der selbe Troll der schon 15x gesperrt wurde quasi und immer im Navi Laberthread sich über RDNA1 aufgeregt hat, nachdem er eine Navi Karte von sich reklamieren musste.
Richtig, bei Schaffe merkt man zumiindest, das hinter der Verbohrtheit auch eine gewisse Intelligenz steckt. Bei dem Kerl hier ist leider nur der eklatante Mangel dieser festzustellen...
Leider spinnt die miese Forensoftware wieder einmal, dass man solch liebreißenden Gestalten nicht einmal ignorieren und damit für einen unsichtbar machen kann -.-
Ein Bann auf Hardwareebene wäre praktisch, um solche Menschen endlich dauerhaft los zu werden.
 
Wenn man die Leistung der Xbox Series X nach oben skaliert inkl. Verbrauch dann landet man bei den Werten in der News.
Das wäre super und passt auch zu deiner groben Rechnung. Wie es aber dann im Alltag aussehen wird muss sich noch zeigen.
Nvidia ihre RTX3000 Serie scheint zwar nicht der große Wurf geworden zu sein aber auch diese Architektur wird sicher über die Zeit noch besser in neueren Spielen. Dazu ist Ampere in Raytracing wirklich brauchbar und DLSS ist auch ein gutes Feature. Unterm Strich ist Ampere abgesehen vom Stromverbrauch sehr gut.

AMD traue ich das im Grunde auch zu aber realistisch betrachtet ist es schon eine mega Leistung wenn die Gerüchte Stimmen. Ob AMD solche herausragende Ingenieure und Mittel hatte um so einen Wurf zu bringen? Ich weiß nicht daher meine "Skepsis". Das ist auch nicht negativ gemeint :)
Wenn man die Leistung der XSX nimmt dann ist die GPU Leistung unter der von RDNA 1 auf dem PC!
Weil die Settings eben keine Ultra Settings waren, sondern die der Xbox X.

Ganz nebenbei heißt mehr Shader nicht linear mehr sondern es wird immer weniger umso mehr Leistung.
Deswegen kann man nicht einfach eine Architektur aufblasen und hat dann automatisch mehr Leistung.
Schau dir mal den Unterschied zwischen der 1080 und der 1080ti an Gigantisch mehr Shader und Bandbreite
aber nur 30% Mehrleistung.
Es gibt einen Sweatspot und von da an kostet jedes Prozent mehr unglaublich viel mehr Shader, Takt und Verbrauch.
Die Konsolen liegen genau in dem Sweatspot, aber bei High-End ist man längst darüber hinaus.

Dann schießt der Verbrauch auch in die höhe und alleine durch so eine Hochrechnung weis man schon was da raus kommen wird.
Das ist kein Hexenwerk aber ich will jetzt nicht ewig die alte Leier spielen. Aber laut solchen News wird es Enttäuschte Gesichter geben.
Weil nicht mal die Normen vergleichbar sind und es jedes mal das gleiche ist.

Kannst ruhig skeptisch sein, weil es hinten und vorne wie hier dargestellt nicht sein wird. Verbrauch wird höher sein zwecks Norm,
Leistung wird im Bereich der 3070 rum sein. Mit RT wird das aber eben nicht mehr erreicht und wenn sie kein DLSS Konter haben
dann ist es sowieso Problematisch für AMD. Den dann kannst mit eine 3060 die schnellste AMD GPU mit RT einfach ausstechen
und ich befürchte das AMD da nichts haben wird.
DLSS ist ja kein High-End Feature mehr sondern hat jede 3000er GPU und ist für mich sogar der Grund aufzurüsten.
Weil Native Auflösungen ab dem Punkt einfach deutlich unwichtiger werden. Am Anfang war ich echt gegen DLSS weil es
keine Option war gegen Nativ. Aber inzwischen ist es das sehr wohl und RT wirst gar nicht drumherum kommen.
Weil RT das erst der Anfang ist, es werden immer mehr Effekte dazu kommen bis man irgend wann Vollständig RT hat.
 
was ich auch sagen muss ist, das die grüchte um big navi von doppelten navi10 ausgeht und mehr oder weniger schon sicher ist, und vor allem dann, wenn rdna2 als reiner gamer gpu entwickelt worden ist, da es keine alt lasten von gcn mehr gibt usw, so ist es schon tot sicher, das rdna2 ihre shader auch zu 99% auf die strasse bringen wird, und da leider die meisten irgendwie nicht verstehen bzw wahr haben wollen, wie mächtig rdna2 bei über 5000 shader und ca 2ghz+ es sein wird, ja sogar der mr. igor bzw format-c, scheint das komplett zu verschätzen, schon traurig das ganze.

man habe echt das gefühl, das alle irgendwie, ja ich weiss ich wiederhole mich immer wieder, aber es ist so, das man glaubt, man hätte hier noch mit einen gcn architektur zu tun, wo die shader kaum auf die strasse ankammen.

leute,

rdna1 hat es doch vorgezeigt bzw vorgelegt, wie es dann weiter geht mit rdna2 oder ?!
 
Zuletzt bearbeitet von einem Moderator:
Zurück