AMD Radeon RX 6000: Navi 21 angeblich mit 16 GiB; Navi 22 mit 12 GiB

Also ich vertraue ja eigentlich Igor, aber dass eine 2070 Super in vielen dieser Spiele nur 180 Watt ziehen soll und die 5700XT dafür 250 Watt passt irgendwie A) nicht zu seinen früheren Messungen wo er sowohl 5700XT als auch 2070 Super zwischen 220 und 230 Watt typischer Weise gemessen hat und B) sind 180 Watt für die 2070 extrem wenig wenn man mal das mit anderen Reviews vergleicht:
Toms Hardware: Durchschnitt 218 Watt 5700XT, 213 Watt 2070 Super
Es reicht nicht, den Worst Case anhand EINES ausgesuchten Spieles zu messen. Ich habe in JEDEM Spiel und JEDER Auflösung alles protokolliert. Der Rest ist dann logischerweise gemittelt. Alles mit einem sehr ähnlichen Equipment gemessen, mit dem auch Raff jetzt arbeitet, nur dass ich mehr Rails direkt lesen kann. Aber die werte der GPU decken sich. Transparenter geht es nicht, denn ich habe ALLE Einzelergebnisse ebenfalls ausgewissen. Alle. Zum Nachlesen. Maximalverbrauch ist nicht Durchschnittswert über Stunden.
 
Es reicht nicht, den Worst Case anhand EINES ausgesuchten Spieles zu messen. Ich habe in JEDEM Spiel und JEDER Auflösung alles protokolliert. Der Rest ist dann logischerweise gemittelt. Alles mit einem sehr ähnlichen Equipment gemessen, mit dem auch Raff jetzt arbeitet, nur dass ich mehr Rails direkt lesen kann. Aber die werte der GPU decken sich. Transparenter geht es nicht, denn ich habe ALLE Einzelergebnisse ebenfalls ausgewissen. Alle. Zum Nachlesen. Maximalverbrauch ist nicht Durchschnittswert über Stunden.
Tja dann verstehe ich es wohl einfach nicht. D.h. die Typical Power Consumption aus deinen Reviews zu 5700XT und 2070 Super bei Gaming, Torture etc sind dann Maximalwerte ??? Oder auf was bezieht sich dein Hinweis mit dem Maximalverbrauch? Und falls ja wenn 224 Watt einen Maximalwert darstellen soll wie passt das mit den gemessenen 250 Watt bei der 5700XT in deinem 3080 Review zusammen? Ich bin eigentlich davon ausgegangen, dass beides " Typical Power Consumption" und "Average Power Consumption" einen Durchschnittswert des Stromverbrauchs darstellen.

Aber gut. Wird dann wohl passen. Ist wohl nicht vergleichbar.
 
Zuletzt bearbeitet:
Viele werden sowieso dank ihres Unterbaus die 3080 nicht vernünftig ausfahren können, denn selbst ein starker 3950X mit 3200CL14 B Die RAM limitiert teilweise richtig extrem und dies auch in 1440p und sogar auch mal in 4k.
Wenn ich mir da teilweise die Abstände ansehe, zweifele ich sogar an Zen 3^^


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Der 3950X ist eh nicht die schnellste AMD CPU zum Zocken und absolut betrachtet eh nicht ;).
Aber wen interessiert es. Da diese CPUs für gewöhnlich bei weitem schnell genug waren. Die CPUs sind nicht langsamer geworden. Freut euch doch einfach, das die 3080 so viel leisten kann. Ich sehe da kein Problem drin, das die 3080 manchmal limitiert wird. Weil letztendlich kauft man die 3080, wenn man mehr Bildqualität will, also höhere Auflösung, oder mehr Details (auch RT). genau das wird geliefert.

Für Spieler die mit 60Fps zurecht kommen, gibt es bei den CPUs kaum einen Grund mehr als einen 3300X, oder 7700k zu nutzen, für die, die mit 100-120Fps zufrieden sind reichen dann, die anderen CPUs die es so gibt. ALso 3900X und die Intels, so 9900k, 10900k.

Zen 3 wird hoffentlich, diese Leistung noch weiter, in den Mainstream rücken und ggfs. nach oben noch etwas drauf legen.

Am besten spielt man sowieso mit einem FPS Limiter. Von daher ist die Lage keine wirkliches Problem.

Die Lage kann kein Problem sein, da die CPUs nicht langsamer geworden sind. Dazu nutzen die meisten eh mittlerweile Gsync, oder Freesync, oder wie du schon sagst einen Limiter.

wiegesagt, amd arbeitet mit sony und microsoft und spieleentwickler zusammen, und die werden schon wissen was die aus rdna2 architektur machen werden, für das reiner gamer gpu, und das zählt jetzt !!!

also brauchst du nicht skeptisch zu werden, du sollst nach zukunfts informationen schauen und nicht von der vergangenheit.

Das könnte manja auch über die 10GB von der 3080 auch sagen. Das was man in der Vergangenheit erlebt hat, wird zu Erfahrungen. Diese sind wichtig um die Zukunft richtig einzuschätzen.
Polaris war auch in den Konsolen.

10GB der RTX Karten reichen locker, seht hier zB wv VRAM man @ 4k Ultra haben sollte^^
Denke in Zukunft wird der VRAM Verbrauch natürlich stark sinken :fresse:

Ich habe da so einen Tipp für dich, Watch Dogs wird nach Release, spätestens nach einem zügigen Patch, garantiert problemlos, mit einer 3080 und maximalen Details laufen und das ohne das Details verschwunden sind.
Wir können ja mal schauen, ob es so kommt ;) Ich bin gespannt

DLSS die Allzweckwaffe, am besten Nvidia verbaut 4GB VRAM, denn dank DLSS senkt man den VRAM Verbrauch ja massiv^^
10GB sind ja in Wirklichkeit 30GB.

Läuft das schon unter sinnloser Aussage? ;)
Nvidia wird es zumindest besser wissen, als du, was wie lange wie gut funktioniert. Den Rest werden wir leider erst in den nächsten zwei Jahren sehen. Was danach ist, interessiert mich nicht mehr, weil dann gibt es schon wieder neue GPUs.


Jetzt muss AMD nur erstmal zeigen, das man es besser kann.

Ich wünsche mir dann mal eine Big Navi mit 16GB und 3080 Leistung bei bis 300W.
 
Ca. 5% schneller als die 3080 würde bedeuten das sie ca. 3% langsamer als die 3090
bei einem Bruchteil des Energiebedarfs / Preises ist.
Die restlichen 3% sind sicherlich auch noch machbar wenn nächste Woche die final Spez. festgelegt werden.
Die 2.1GHz würden auch sehr gut zu meinen vermuteten 2GHz passen.
Ich bin gespannt wäre doch lustig wenn die 3080 am Ende ca. 500W ziehen muss um mit einer 300W 6900XT gleichzuziehen.
 
Ca. 5% schneller als die 3080 würde bedeuten das sie ca. 3% langsamer als die 3090
bei einem Bruchteil des Energiebedarfs / Preises ist.
Die restlichen 3% sind sicherlich auch noch machbar wenn nächste Woche die final Spez. festgelegt werden.
Die 2.1GHz würden auch sehr gut zu meinen vermuteten 2GHz passen.
Ich bin gespannt wäre doch lustig wenn die 3080 am Ende ca. 500W ziehen muss um mit einer 300W 6900XT gleichzuziehen.
Was hast du geraucht? Du schreibst, als wären Tests im Netz, die deine wilde Spekulation belegen.

Ich würde mich riesig freuen, wenn AMD einen großen Wurf landen kann.
 
Was ist den das für ein dummer Spruch? Warum? Der Spruch zeugt von einer tiefen Ahnungslosigkeit, was da so gerade auf dem Markt los ist.

Für KI im ML/DL Umfeld wird die Karte garantiert ein Renner, ebenso für die ganzen Anwender wie Blender und Co. Videoschnitt wird sich noch genauer rausstellen- Vorher gabs nur eine RTX Titan mit dem VRAM für 2799 €. Und nun gibts das schneller und günstiger als eine Titan RTX. Die wird weggehen wie warme Semmeln, zwar nicht fürs Spielen, aber für anderes. Das ist von Nvidia sehr wohl gut durchdacht und überlegt. Wenn da AMD auf dem Feld ML/DL nicht gescheites bringt, sind die da weg vom Fenster für die nächsten Jahre!
Sorry, hab mich absolut unpräzise ausgedrückt, du (kannst) natürlich Recht haben. Meine Aussage bezog sich hier auf die Karte als Gaminggrafikkarte, wo ich sie nach der Namensgebung eben einsortieren würde. Aber nichts destotrotz kann die Karte abseits des Gamings ein großer Hit werden. Nochmal sorry, war eine zu kurze Aussage!
 
Was hast du geraucht? Du schreibst, als wären Tests im Netz, die deine wilde Spekulation belegen.

Ich würde mich riesig freuen, wenn AMD einen großen Wurf landen kann.
Erschreckenderweise gibt es solche Tests. Den Wahrheitsgehalt darf, nein muss man anzweifeln. Aber ich habe jetzt schon mehr als einmal gelesen, dass Navi23 (als der kleinste, vermutlich 40CU umfassende Chip) die Leistung einer 2080Ti erreicht. Wie gesagt, Zweifel sind hier ein Muss, aber es gibt diese angeblichen Leaks.

Ansonsten wird mir hier immer wieder zu sehr negiert, dass AMD etwas zum reagieren hat. Leute, macht doch manchmal nur ein wenig das Köpfchen an. Welchen Grund hat NV für einen Kampfpreis von 699 EUR für 130% der 2080Ti Leistung (>1.000EUR)? Das kann doch eigentlich nur auf Grund von internen Infos zu BigNavi der Fall sein. Warum dreht NV die Karte so dermaßen auf und riskiert einen "Shitstorm"? Weil sie vieleicht interne Infos haben über BigNavi?

Alles was man sieht und hört und mit logischem Menschenverstand zusammenreimen kann, ist, dass BigNavi ziemlich nah an eine 3080 herankommen wird! Wenn sie aber nah an die 3080 herankommen, dann werden sie auch sehr nah an die 3090 herankommen, da hier kaum Performancezuwächse zu erwarten sind. Ich gehe davon aus, dass sie im FE Design knapp unter den beiden NVs liegen werden und im Custombereich durchaus an der 3080 FE vorbeigehen werden, vieleicht sogar an den Customs. Die 3090 wird in der FE zu knacken sein, der Abstand ist zu gering, als das man zwischen 3080 und 3090 landen kann, hier wird es auf das Szenario ankommen.

P.S.
Weil ich in einem Vorgängerpost den Fehler gemacht habe, meine Aussagen beziehen sich heir rein auf Gamingleistung!
 
Sorry, hab mich absolut unpräzise ausgedrückt, du (kannst) natürlich Recht haben. Meine Aussage bezog sich hier auf die Karte als Gaminggrafikkarte, wo ich sie nach der Namensgebung eben einsortieren würde. Aber nichts destotrotz kann die Karte abseits des Gamings ein großer Hit werden. Nochmal sorry, war eine zu kurze Aussage!
Das wird sie auch. Gut, ist hier eine Gaming-Plattform, wo natürlich und leider nur einseitig auf Gamingleistung geschaut wird. Aber überlegt doch mal, warum es DLSS überhaupt gibt. Das wurde aus meiner Sicht nicht eingeführt, damit Gamer besser spielen können, sondern damit Nvidia unbemerkt ihre Tensor Cores als praktische Lösung einsetzen, forschen und verbessern können.

Für Gamer wird die 3090 eher enttäuschend, außer diejenigen, die mehr VRAM brauchen, aber für ML/DL wird diese Karte ein Renner. Es gibt hierfür bisher nur die Titan RTX und die wesentlich teureren Quadros, da ist die 1499 € für die FE ein Schnäppchen.
Das hier spricht eine deutliche Sprache:
https://www.datacenters.com/news/da...the-time-and-monetary-investment-in-training-
1600894778603.png


Die 3090 ist mit 24 GB und schneller als eine Titan RTX (ob sie schneller als eine RTX5000 oder RTX6000 sein wird, wird sich noch herausstellen) und günstiger. Wer das da oben versteht, und versteht, wohin gerade der IT Bereich sich bewegt, kann nun 1 und 1 zusammenzählen und verstehen, warum die 3090 sehr wohl ein gut positionierter Schachzug für Nvidia ist. Und nochmals, für Gamer ist die 3080 für den Preis genau richtig, bis eben auf das VRAM. Aber wie viele Spielen denn heute wirklich schon mit UHD? Wenn man sich die Steam-Umfrage anschaut, dümpelt 70% der Spieler bei FDH rum. Daher wirds die 3080TI mit 20GB wohl richten müssen, sobald Micron die 2GB DDR6X Rams in ausreichenden Stückzahlen ab 2021 liefern kann.

Nur mal so, die einzig ernste Alternative zur GPU als KI Lösung existiert aktuell nur von Google und ihre TPU-Reihe, die es aber nur bei denen und in GCP verfügbar ist. Hier kann man sehr wohl aktuell von einem Monopol von Nvidia sprechen. Und nun haben sie auch noch ARM im Sack.

Also, wie man sieht, man muß ein bißchen mitdenken, und schon versteht man Nvidias Strategie. Wenn sie so aufgeht, sorry, dann ist sie genial, auch wenn das einige Gamer hier nicht so sehen werden.

Daher meine Prognose: Wenn AMD hier nichts gegensteuert, dann verbleiben sie rein im Spiele- und Konsolenmarkt. Nvidia dagegen schnappt noch zusätzlich und den lukrativeren Data Center Markt, den ML/DL-Markt, und bedient noch "nebenbei" den Gamermarkt, wo sie heute ebenfalls bei den dedizierten GPUs aktuell bei 80% Marktanteil liegen.

Bei all dem Gejammere der Gamer verstehe ich nicht, warum das kaum einer sehen und erkennen kann. Was glaubt Ihr, wo heute viele 2080TIs werkeln? Die sind in den Unis und in den Firmen mit 1-4x2080TI als Cluster als kostengünstige ML/DL-Maschinen im Einsatz. weil hier der Bedarf durch die Data Scientisten enorm angestiegen ist. Die 2080TIs haben nur einen Nachteil, mit 11GB zuwenig VRAM, und die RTX Titan ist mehr als doppelt so teuer als ein 2080TI. Daher meine Prognose, die 3090 wird sich verkaufen wie geschnitten Brot, aber nicht für Gamer.

@ FormatC aka Igor. Ich weiß ja nicht, ob das Dein Bereich ist, aber das solltest Du mal irgendwo bei Dir als Thema unterbringen.
 
Zuletzt bearbeitet:
Erschreckenderweise gibt es solche Tests. Den Wahrheitsgehalt darf, nein muss man anzweifeln. Aber ich habe jetzt schon mehr als einmal gelesen, dass Navi23 (als der kleinste, vermutlich 40CU umfassende Chip) die Leistung einer 2080Ti erreicht. Wie gesagt, Zweifel sind hier ein Muss, aber es gibt diese angeblichen Leaks.

Ansonsten wird mir hier immer wieder zu sehr negiert, dass AMD etwas zum reagieren hat. Leute, macht doch manchmal nur ein wenig das Köpfchen an. Welchen Grund hat NV für einen Kampfpreis von 699 EUR für 130% der 2080Ti Leistung (>1.000EUR)? Das kann doch eigentlich nur auf Grund von internen Infos zu BigNavi der Fall sein. Warum dreht NV die Karte so dermaßen auf und riskiert einen "Shitstorm"? Weil sie vieleicht interne Infos haben über BigNavi?

Alles was man sieht und hört und mit logischem Menschenverstand zusammenreimen kann, ist, dass BigNavi ziemlich nah an eine 3080 herankommen wird! Wenn sie aber nah an die 3080 herankommen, dann werden sie auch sehr nah an die 3090 herankommen, da hier kaum Performancezuwächse zu erwarten sind. Ich gehe davon aus, dass sie im FE Design knapp unter den beiden NVs liegen werden und im Custombereich durchaus an der 3080 FE vorbeigehen werden, vieleicht sogar an den Customs. Die 3090 wird in der FE zu knacken sein, der Abstand ist zu gering, als das man zwischen 3080 und 3090 landen kann, hier wird es auf das Szenario ankommen.

P.S.
Weil ich in einem Vorgängerpost den Fehler gemacht habe, meine Aussagen beziehen sich heir rein auf Gamingleistung!


Ich sekber schätze, oder halte ja knapp 3080 Leistung für möglich, also 3080 FE. Aber was hier geschrieben wird, ist schon stellenweise zu optimistisch. Hier wird stellenweise geschrieben, als ob es wahrscheinlich (an Sicherheit grenzend) ist, das AMD hier die 3080 schlägt, bei 16GB VRam und das bei deutlich geringerem Verbrauch. AMD selsbt gibt gab seiner Zeit +50% Effizienz an, jetzt wird wild mit mehr spekuliert. Ein hersteller untertreibt an dieser Stelle aber nicht.

Am wahrscheinlichsten halte ich, knapp 10% hinter der 3080FE, bei rund 300W. Was ein sehr gutes Ergebnis wäre.
Hoffe aber auf mehr, glatte 3080FE Leistung, oder nochmehr, weiterhin 300W...
 
Da bin ich etwas weniger optimistisch.

Ich sehe das eher wie @derneuemann: Eine realistisch erwartbare Performance irgendwo zwischen der 3070 und 3080 wäre okay. Das wäre für mich auch das persönliche Minimum, bei dem ich Big Navi kaufen würde.
 
Die kleine 40CU Karte soll bereits auf 2080ti Level liegen. Die 80CU zerstört die 3090!

Ok, mal angenommn, die 40CU Karte soll bei 200W nah bei der 2080TI liegen. Damit würde die 80CU Karte bei fast 400W liegen. Dabei muss der Takt runter, um wieder in Richtung 300W zu kommen. Dann würde man wieder bei 3080 bis 3090 landen.

Das die 40CU Karte in der Nähe der 2080TI ist, widerspricht dem nicht, das die Big Navi auf einem Niveau mit der 3080 liegt.
 
Ok, mal angenommn, die 40CU Karte soll bei 200W nah bei der 2080TI liegen. Damit würde die 80CU Karte bei fast 400W liegen. Dabei muss der Takt runter, um wieder in Richtung 300W zu kommen. Dann würde man wieder bei 3080 bis 3090 landen.

Das die 40CU Karte in der Nähe der 2080TI ist, widerspricht dem nicht, das die Big Navi auf einem Niveau mit der 3080 liegt.

out of the box = 3080, OC=3090+ %-)
Mit TSMC state of the art-Prozess geht da sicher etwas.

Edit: Und HMB sollte gegenüber den GDDR6X-Glühwürmchen auch noch etwas TBP-Spielraum bringen.
 
Zuletzt bearbeitet:
Genauso viele CUs wie 5700XT aber AMd sagt mindestens 50% effizienter - ergo 250/2.

:hmm: Edit: TDP ungleich TGP. Rein auf die GPU bezogen scheint Ampere ja dann auch genügsamer, als es ein Blick auf die Gesamtkarte vermuten ließe.

Trotzdem: Meine Güte, das wär schon ein Ding. Wann konnte AMD/ATI eigentlich das letzte Mal die Krone holen? Ich erinnere mich schon gar nicht mehr...
 
Zuletzt bearbeitet:
Zurück