Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Ja genau, im Grunde haben sich User von gsync oder freesync schon vor der Ankündigung der neuen Karten entschieden. Sofern sie nicht im selben Zug den Monitor tauschen oder auf die sync verzichten wollen oder es egal ist. Es könnte so einfach sein... :D

Nur bedingt.
nVidia Karten unterstützen so weit ich weiß seit 2xxx auch Freesync. AMD nur Freesync. Daher sollten Leute mit Freesync Monitoren recht entspannt sein und sich auf das Gesamtpaket konzentrieren können ohne sich auf einen der Beiden festlegen zu müssen. ?
 
Die Vermutung, er könnte geleakte Endwerte nur grob mit irgendwelchen von ihm hingehauchten Zahlenspielen hinterlegt haben, könnte hinkommen. Bei einem Artikel, der letztlich die Effizient zweier Arcs thematisiert, trotzdem verfehlt. Da interessiert das Drumherum nur noch am Rande. Sieht man ja auch hier, dass dann Schlüsse gezogen werden, die die Kenntnislage gar nicht hergibt.
Wir reden hier von evt. 10 Watt, zudem den VirtualLink nicht vergessen.
 
Wenn du 50 Spiele hast und nur eines davon solche Features Unterstützt, dann spielst du nichts halbwegs modernes.
Achso, und weil die Industrie, die Werbung oder andere Forenuser das so wollen soll ich gefälligst meine Spielgewohnheiten anpassen um etwas "modernes" zu spielen? :lol:

Ihr seid ja witzig. Ja, ich spiele SeroiusSam4. Und auch 1, 2 und 3 die man stelle sich vor noch älter sind. Nebenbei spiele ich sogar noch Diablo 2, Dungeon Keeper und Siedler2 (RTTR) oder C&C Remastered. Denn es macht Spaß - mehr, als die meisten "modernen" Spiele die ich kenne.

Das Konzept mag befremdlich sein, aber ich wähle die Spiele die ich spiele danach aus, wie viel Spaß sie mir machen und nicht danach wer was wo wie modern programmiert hat, welche Grafikfeatures vorhanden sind oder sonst irgendnem technischen Gedöns. DLSS und Raytracing in Perfektion würden mich nicht dazu bewegen können, CoD zu spielen.

Zu den anderen Dingen nur kurz abgehandelt:
- Nein, es liegt nicht an DX12 und Vulkan, die Probleme sind unter DX11 die gleichen - auf einer RTX3090 dagegen sind sie weg weil die 24GB mehr als reichen (die 10GB einer 3080 übrigens nicht - Ergebnis von Raffs SS4-Test)
- Wo man ein CPU-Limit hat und wo nicht ist extrem von SPiel und Einstellungen abhängig. Ein pauschales "eine High-End CPU ist nicht in der Lage die 60 Fps zu liefern" ist völliger Bullshit.
- Ob eine schlechte Programmierung daran Schuld ist dass der vRAM nicht reicht oder nicht ist mir völlig egal, denn ich kann nichts daran ändern außer mehr vRAM zu haben als benötigt wird oder das Spiel nicht bzw. nur in reduzierter Grafik zu spielen. Meckern über "schlecht programmiert" und "unmodern" kannste den ganzen Tag - helfen tuts aber halt nicht.^^
 
Zuletzt bearbeitet:
Controll release gab es kein DLSS 2.0 und das Spiel stürzte oft ab mit RT. Release konntest RT vergessen den da hattest ständig Frame spikes.
Das ist also überhaupt nicht vergleichbar wann du das gespielt hast, der Technische Zustand kannst dir mal in Steam anschauen wie toll das lief,
eben gar nicht gut Spielbar.


Wer redet denn von Control bei Release? Es ging um Wolfenstein Youngblood. Ich habe geschrieben dass ich die "DLCs" bei Control mit DLSS 2.0 durchgespielt habe. Als man von Version 1.9 schon auf 2.0 ein Update hatte.


Dann vergleichst du High-End GPUs wie eine 3080 die wahrscheinlich 100% schneller ist wie die XSX. Das macht doch gar keinen Sinn
es kommt ja noch die ganze Bandbreite und ob die XSX sich überhaupt gegen einen Budget PC mit 3060 gut schlagen wird darf bezweifelt werden.


Es geht um den Kosten/Nutzenfaktor für mich. Ich habe schon 2 Jahre 2080ti und die Konsolen. Riesen Grafiksprünge sehe ich mittlerweile nicht mehr. Da wird volumetrische Wolken oder Nebel eingebracht wo man für 10% bessere Optik 30% Framerate opfert. Raytracing zieht auch nicht in jedem Game. Bei Control und Youngblood finde ich es schon gut weil es mehr als paar Pfützen zur Spiegelung gibt oder man lediglich die Schatten etwas verbessert.
Ich brauch auch nativ 4k trotz 48" Monitor da mit DLSS 2.0 Qualität reicht. Dann geht auch vereinzelt Raytracing bei 60fps. Sofern es wie in (aktuellen)Control, Death Stranding, Youngblood oder Marvel Avengers funktioniert. F1 2020 haben sie es aber durch viel Ghosting versemmelt.

Neue GPU ist nur wegen HDMI 2.1 interessant weil dann auch in Windows 4k/120 gehen.

Mir ist halt der Energieverbrauch von 3080 oder Big Navi von über 300Watt halt das Leistungsplus nicht wert. Alles persönliche Ansicht. Mir würde schon reichen was Serie X/PS5 liefert wenn die Games 60fps Performance-Mode hätten.

In welchen Game sollen 8Gb bei 1440p nicht reichen? Moderene Engines ja machen aber auch noch was ganz anderes,
sie benutzen Vram einfach weil er da ist. Die Beispiele die du nennst wo Texturen nicht geladen werden gibt es auf der 970 in 1440p
Ultra wo sie gar keine guten Fps Werte mehr hat. Übrigens das verhalten kannst gerade bei den Konsolen bewundern bei COD Demo.


Jetzige Games die noch auf 2013er Konsolen laufen müssen. Heißt ja nicht dass der Bedarf durch neue Engine nicht zunimmt. Photogrammetrie soll nicht mehr Low Level sondern bald High haben.
Dann hast 700-800,- GPU die die Textureinstellung nur wie 500,- Konsole schafft. Da erwarte ich eigentlich bei dem Mehrpreis dass man schon Stufe höher stellen kann. Wird aber wohl nicht kommen weil auch Serie X/PS5 gut 10GB für Grafik nutzen können. Die können zudem Direct Storage gleich von Anfang an nutzen. Bis es der PC Markt flächendeckend kann vergeht noch einige Zeit.

Kannst ja gern darauf vertrauen dass es irgendwas ausgleicht wie GDDR6x Speicher oder sonst was. Manches lässt sich auch nicht immer zu 100% ersetzen.
 
es ist übel mit DLSS bei bestimmten auflösungen.
in METRO komme ich auf bei 3840x1600 auf ca. 70FPS mit HOHEM RT und ULTA setting, also 1 level unter max in beiden fällen.
jetzt ist ein video aufgetaucht vom nativen 4k + DLSS maxed out und etwa 80-100FPS. WOW!

nur ist DLSS nur für native 4k verfügbar, nicht aber für UWQHD+
F**
 
Leistung und ähnlicher Verbrauch? Klingt einleuchtend... ?
Ich würde mir ja den Arsch ablachen, wenn die 255 Watt doch stimmen und reichen um die 3090 minimal zu schlagen! Wenn die XSX GPU schon stark ist, was macht dann Big Navi? und falls das doch stimmt mit den 76% perf/ watt dann ist auch mit 350 Watt+ für die 3090 nicht zu gewinnen! AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!
 
AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!
Die Realität ist andersrum...
Die RTX3080/90 hat rund 28 Milliarden Transistoren.
AMD fertigt einen gerüchteweise etwa 530mm^2 großen Chip bei TSMC in 7nm mit theoretisch möglichen ~90 MTr/mm^2, bedeutet rechnerisch wird BigNavi je nach realer Packdichte irgendwo zwischen 35 und 45 Milliarden Transistoren landen.

Von der Zahl der Transistoren brauchste also nicht auf AMD zu wetten, da werden sie sehr viel mehr davon aufbieten um mit NVidia mithalten zu können. Aber: Der Wert spielt praktisch auch gar keine Rolle. :ka:
 
Aber: Der Wert spielt praktisch auch gar keine Rolle

Hmm naja, technisch spielt das sehr wohl eine Rolle.
So sieht das aus wenn die Transistoren der 3090 und der Speicher was zu tun haben durch hohe Bandbreitenauslastung, Kernschmelze Deluxe mit Lüfter über 2000 im Turbinenmodus und Kerntakt unterhalb der Boostclock und das in Age of Empires 3 :ugly:

Wenn da jetzt noch richtig Vram belegt wäre, na dann prost mahlzeit.

Screenshot (481).jpg
 
Die Realität ist andersrum...
Die RTX3080/90 hat rund 28 Milliarden Transistoren.
AMD fertigt einen gerüchteweise etwa 530mm^2 großen Chip bei TSMC in 7nm mit theoretisch möglichen ~90 MTr/mm^2, bedeutet rechnerisch wird BigNavi je nach realer Packdichte irgendwo zwischen 35 und 45 Milliarden Transistoren landen.

Von der Zahl der Transistoren brauchste also nicht auf AMD zu wetten, da werden sie sehr viel mehr davon aufbieten um mit NVidia mithalten zu können. Aber: Der Wert spielt praktisch auch gar keine Rolle. :ka:
Spätestens am 25.11.20 gibts Tests! Let' s see who is right!
 
"dass beim Topmodell je nach Design etwa 320 bis 355 Watt zu erwarten sind."

Na also, geht doch AMD !
Endlich zu nVidia aufgeschlossen ... ;-)

MfG Föhn.
 
Gleichstand beim Saufen.

Unterschied nur im Speicher, wo die geringere Menge für WQHD von Nvidia ausreicht(8, oder 6GB mehr Speicher macht die Karte nicht schneller).

Bleibt nur noch der Preis und die Verfügbarkeit abzuwarten.

Im Grunde hupe, ob man AMD, oder Nvidia nimmt. Tun sich nicht viel.

edit:


Vielleicht wird das am Ende noch der deutlichste Unterschied zwischen den Karten werden. ;)
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
 
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
Ist ja nicht so, dass BigNavi nichts davon bieten würde...
Auch alle Vorgängerkarten zu Navi haben einen Hardware Encoder.
Dazu kommt, dass alle drei genannten Features doch sehr vom Nutzer abhängig sind.
Der Großteil der Gamer nutzt keinen Video Encoder - ergo auf beiden Seiten uninteressant.
Es gibt aktuell nur knapp 10 Spiele mit DLSS... ergo eigentlich uninteressant, so lange es nur so wenig Spiele sind.
Die Zahl der Spiele mit RT ist noch ein wenig bescheidener.

Daher entlocken mir alle drei eher ein müdes Lächeln - egal, ob AMD jetzt auch noch mit RT und einer DLSS Alternative kommt.
Wie ChrisMK72 es schon sagte: Aktuell zählt die Rohleistung, der Rest ist noch mehr Marketing, als alles andere.
 
Zum Thema RTX: Ich habe schon seit geraumer Zeit eine 2080 non Super und habe unter anderem Battlefield 5 angezockt. Beim Spielen selbst ist mir RTX primär durch niedrige FPS aufgefallen. Die tollen Schatten und Spiegelungen sind ja ganz nett, aber während des Spielens ist es mir nicht aufgefallen. Habs für bessere FPS ziemlich schnell abgeschalten. Es wird wohl noch ein Weilchen dauern bis Raytracing wirklich interessant und mehr als schmückendes Beiwerk ist...
 
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
ohhh AMD muss , das ist ja ganz Neu ... nur weil die Nutzer gerne hätten muss AMD noch gar nix , nicht mal einen High End Konkurrenten bringen, nur damit der geneigte Nvidia Käufer seine Nvidia Karte vielleicht ein paar Eu billiger bekommen kann :)
mal ehrlich Speicher ist immer noch der erste Shice der gilt , wer einmal eine geile Karte hatte die nur ausgepowert wurde weil der Vram nicht mehr ausreichte, der kauft eher doppelt zu viel Vram als zu wenig :)
 
Also bei Auswahl von 3080 Leistung von Nvidia und AMD zum selben Preis sehe ich die Nachteile nur bei AMD. Der Verzicht auf die Features wird nachhaltig sein. Die VRAM Argumente haben der Radeon VII auch kein besseres Leben beschert. Kommen noch die Treiberprobleme hier und da dazu und diverse Engine Nachteile bei älteren Versionen wie erst kürzlich bei Aquanox Deep Descent. Ach... alles in allem gibt es bei Nvidia das rundere Paket und einfach mehr fürs gleiche Geld (falls es so käme). Deshalb sage ich auch muss AMD in den Fall spürbar günstiger ausfallen.?
 
Zurück