Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

@Mitchpuken Habe bereits meine 3080 bestellt(geraume Zeit ;) ). Ich warte/vertraue nicht mehr auf AMD.
(Allein schon, weil ich halt den Monitor inkl. G-sync weiter nutzen möchte)
Der Moni geht nicht an 'ner Radeon? Älteres Modell? Ist ja wohl auch nur halboffiziell, die Öffnung. :hmm:
Kommt natürlich auch schwer auf die verbauten Komponenten an.
Platine wie bei der VII = Igor hat übertrieben, denn die war wirklich Top.
Platine wie bei Navi oder Vega= Das was Igor sagt. Da AMD auch beim Preis angreifen möchte denke ich nicht das wir so hochwertige Komponenten wie bei der VII sehen werden.

Ich vermute leicht unter Igors schätzwerten wird die Referenz rauskommen.
Für zwei bis drei Lüfter + LED-Bling 15W anzusetzen ist halt einfach mal erkennbar in's Klo gegriffen. Wenn er dann noch für den gleichen Posten für Team Grün nur die Hälfte rechnet, wirft das einfach ein bestimmtes Licht auf die gesamte Rechnung. Das hat dann auch nichts mehr mit Preisangriff und Komponentenqualität zutun. nV baut ja auch keine Propeller aus Raumschifftitan auf die Amperes.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.
 
Zuletzt bearbeitet:
Da hat der Werkspraktikant aber wieder einen rausgelassen:

....Leistungsaufnahme der kommenden Radeon RX 6000-Grafikkarten ein vielfach kolportiertes Thema. Anhand eines...

Kolportage​


1603215220161.jpeg

Der Ausdruck Kolportage bezeichnete den Vertrieb von Büchern in Einzellieferungen durch Hausierer. Das Verb kolportieren bezeichnet in Anlehnung an seine ursprüngliche Bedeutung heute das Verbreiten ... Wikipedia
 
Zuletzt bearbeitet von einem Moderator:
Da hat der Werkspraktikant aber wieder einen rausgelassen:



Kolportage​


Anhang anzeigen 1338588

Der Ausdruck Kolportage bezeichnete den Vertrieb von Büchern in Einzellieferungen durch Hausierer. Das Verb kolportieren bezeichnet in Anlehnung an seine ursprüngliche Bedeutung heute das Verbreiten ... Wikipedia
Was soll daran jetzt falsch sein, ist Umgangssprachlich absolut korrekt.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.

Igor hat da meist schon sehr konkrete Infos, das sieht man auch am Artikel. Er kann nur nicht immer alles erzählen also muss man auch mal was umschreiben.
 
Der Moni geht nicht an 'ner Radeon? Älteres Modell? Ist ja wohl auch nur halboffiziell, die Öffnung. :hmm:

Für zwei bis drei Lüfter + LED-Bling 15W anzusetzen ist halt einfach mal erkennbar in's Klo gegriffen. Wenn er dann noch für den gleichen Posten für Team Grün nur die Hälfte rechnet, wirft das einfach ein bestimmtes Licht auf die gesamte Rechnung. Das hat dann auch nichts mehr mit Preisangriff und Komponentenqualität zutun. nV baut ja auch keine Propeller aus Raumschifftitan auf die Amperes.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.

Du hast keine Ahnung was so kleine Hochdrehzahl Quirle so verbrauchen, oder? Bei voller Drehzahl kommt da einiges zusammen ;)
 
DLSS ist zweifelsohne eine wirklich tolle Sache, aber damit kann man halt nicht die eigentliche Leistung der GPU feststellen. Außerdem hat AMD so etwas nicht. Man sollte schon unter gleichen Bedingungen Leistungsvergleiche machen.
Nur weil der es eine nicht kann ist es unfair?
Intel CPUs werden hier auch mit 2666er RAM getestet und Ryzen mit 3200.
 
Zuletzt bearbeitet:
Seltsam, mir ist Youngblood noch nie abgeschmiert. Habe vom RT Update weg noch einige Spielstunden darin verbracht auch Koop mit Freunden. Läuft ja auch auf einer stabilen 2000er Karte die mich noch nicht im Stich gelassen hat.
DLSS 2.0 auch die DLCs von Control durch und optisch tolles Erlebnis gehabt. Game macht auch Raytracing mehr Sinn als nur Schatten in Tomb Raider oder CoD.
Marvel Avengers hat jetzt auch sehr gute DLSS 2.0 Integrierung. Sogar mehr DLSS Stufen als andere Games. Okay, bis auf die Kampagne und bisschen Koop bietet das Game nicht viel. Dennoch hilft DLSS enorm da man kaum über 1600p selbst auf starken GPUs in Außenbereichen kommt.
Mal sehen wie sich CoD und Cyberpunk mit DLSS schlagen. Ob wir mal DirectML bei AMD dann irgendwann sehen.

Selber brauch ich auch keine Karte die über 300Watt nimmt. Steht für mich dann nicht mehr im Verhältnis wenn ich sehe wie die neuen Konsolen wie Serie X mit 150-211Watt als Gesamtsystem daherkommen. Heutzutage jede optische Verbesserung immer mehr Power frisst.

Mehr als 10GB sollten es auch dann schon sein. Weiß auch nicht warum Leute annehmen man hätte in selbst in WQHD nichts davon. Als ob bessere Texturen nur starr eine Entfernung kennen. Wirst auch in 1440p bessere Textur erkennen wenn man nur nah genug rangeht an Objekte. Vram würde ich da echt nicht zu knapp bemessen.
Moderne Engine blenden auch mal Objekte aus obwohl man denkt man hat die selben Einstellungen wie Jemand mit mehr Speicher gewählt. Wirklichkeit hat man aber paar Details weniger am Bildschirm.

Controll release gab es kein DLSS 2.0 und das Spiel stürzte oft ab mit RT. Release konntest RT vergessen den da hattest ständig Frame spikes.
Das ist also überhaupt nicht vergleichbar wann du das gespielt hast, der Technische Zustand kannst dir mal in Steam anschauen wie toll das lief,
eben gar nicht gut Spielbar.

Dann vergleichst du High-End GPUs wie eine 3080 die wahrscheinlich 100% schneller ist wie die XSX. Das macht doch gar keinen Sinn
es kommt ja noch die ganze Bandbreite und ob die XSX sich überhaupt gegen einen Budget PC mit 3060 gut schlagen wird darf bezweifelt werden.

In welchen Game sollen 8Gb bei 1440p nicht reichen? Moderene Engines ja machen aber auch noch was ganz anderes,
sie benutzen Vram einfach weil er da ist. Die Beispiele die du nennst wo Texturen nicht geladen werden gibt es auf der 970 in 1440p
Ultra wo sie gar keine guten Fps Werte mehr hat. Übrigens das verhalten kannst gerade bei den Konsolen bewundern bei COD Demo.

Warum sollen 10Gb zu wenig sein, es gibt kein einziges Beispiel das überhaupt das beweisen könnte. PCGH meinte zur Crysis Remaster
das liegt am Vram und Digital Foundry hat exakt meinen Post unter dem Video wieder geben. Das wenn Cores auf 100% kommen hat man Spikes, das hier seid Jahren schon Vram Grundsätzlich viel zu wichtig ist sollte doch eigentlich auffallen.

Vram ist viel mehr als nur eine Zahl die man vergleichen kann, zwei Architekturen und du kannst nicht mehr vergleichen wer eigentlich
mehr Vram hat. Weil Software und Hardware unterschiedlich sind, das sich die ganze Thematik verbessert mit der Zeit sollte man auch mal
im Kopf haben. Das dass eigentlich Problem die Übertragung ist von CPU zu GPU und das dieses bei Ampere direkt über den Bus geht wenn
es Ms und Games unterstützen sollte auch mal bedacht werden.
PCGH ihr macht eine News zu TGP und eigentlich sollte da FETT Richtigstellung stehen zur News von
Gestern!

Wenn ich nicht weis das Firmen verschiedene Normen benutzen für Markting und das sogar
vor ein paar Wochen hier schon mal Thema war was für einen Eindruck macht das dann?
 
never ever wird die xt version über 300 watt ziehen.

wenn dann muss es die xtx version sein, aber xt version wird schön bei unter 300 watt bleiben.

wie war das nochmal mit den zen3 angeblichen 150 watt ?

puste kuchen !

auch hier wird zu viel mit unwissen wieder mal gestreut, durch die anti amd usw, den rdna2 ist und bleibt bis zum 28.10 ein geheim.
 
Sag das nicht so einfach. Wenn man gsync oder freesync auch nach dem Grafikkartentausch weiterhin nutzen will, dann kann es schon sein, dass man für weniger Leistung tiefer in die Tasche greifen muss.


Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke... :(

Irgendwie war es aber auch klar, dass das Fanboy-Gelaber niemals eintreten würde.

Ich vermute, dass man die 6000er auch untertakten kann ;) Ist aber nur für wenige interessant, was oc vs oc und uv vs uv für ein Ergebniss liefert.
Oder auch nicht! Zen 3 für CPU's = RDNA2 für GPU's, ist zwar unwahrscheinlich aber auch nicht unmöglich! Und wenn wieder erwarten doch die > 50% Effizienzgewinn zutreffen, dann gehts doch in die andere Richtung von wegen Team Grün gewinnt so einfach!
 
Du hast keine Ahnung was so kleine Hochdrehzahl Quirle so verbrauchen, oder? Bei voller Drehzahl kommt da einiges zusammen ;)
Auch wenn's Bandbreiten hat - doch schon, habe ich. Deshalb ja die Anmerkung. :-P
Und wenn's am obersten Anschlag mit Sicherheitsaufschlag angesetzt wurde bleibt es trotzdem faul, einmal das Eine und in der nächsten Betrachtung knapp die Hälfte anzusetzen. Spätestens da sollten sich doch alle einig sein können.

@Gurdi:
Die Vermutung, er könnte geleakte Endwerte nur grob mit irgendwelchen von ihm hingehauchten Zahlenspielen hinterlegt haben, könnte hinkommen. Bei einem Artikel, der letztlich die Effizient zweier Arcs thematisiert, trotzdem verfehlt. Da interessiert das Drumherum nur noch am Rande. Sieht man ja auch hier, dass dann Schlüsse gezogen werden, die die Kenntnislage gar nicht hergibt.

Das Ganze gipfelt ja dann auch in der Aussage, Samsungs gepimpter 10nm-Prozess wäre ja kaum groß anders als TSMCs optimierter 7nm-Prozess. Jesus! Echt jetzt? Dann machen von Apple bis Omega ziemlich viele in der Branche echt was falsch. :lol:
 
Zuletzt bearbeitet:
Geil... am ende wird die Fragen in den Foren sein: wer von beiden hat den schlechteren Paper Launch hingelegt?
Als AMD Fan und Nvidia Hater (was mir nunmal hier von manchen nachgesagt wird) kann ich dir sagen: Nvidia!
Als Nvidia Fan und AMD Hater (was mir nunmal hier von manchen nachgesagt wird) kann ich dir sagen: AMD!
Als 3dfx Fan, der ich nun wenn überhaupt eigentlich bin kann ich nur sagen: beide haben enttäuscht.
 
Jaja, das wird sie seit 2018. Für mich ist aber relevant wie die Realität tatsächlich aussieht und nicht was die Werbung verspricht. Und von meinen geschätzten 50 Spielen in der Bibliothek unterstützt ein einziges solche Features (Shadow of TombRaider).
Und: Solche Features nicht zu nutzen selbst wenn Spiele sie unterstützen ändert bisher kaum was an der Bildqualität, Raytracing ist bisher abseits der "Pfützenbetrachter" derart nebensächlich dass viele User hier im Blindtest nicht mal RTX on oder off unterscheiden konnten anhand von Bildern in denen eben keine Pfütze war.
Dagegen ist ein zu kleiner vRAM sofort ärgerlich - wenn ich ab und an in SeroiusSam4 ne Textur aufploppen/nachladen sehe weil meine 8GB in 4K mal wieder vollgelaufen sind ist das wesentlich relevanter für mich als ein bisschen RT (das nebenbei für sich ja nochmal deutlich mehr vRAM braucht).

Insgesamt sehe ich RT und DLSS als sehr gute Techniken aber der Zeitpunkt auf deren Grundlage eine Kaufentscheidung zu treffen ist einfach viel zu früh. Das is nochn schöner Hypetrain und es gibtsn paar nette Showcases aber das wars auch. Echter Nutzen für mich persönlich ist gleich Null. Dann lieber noch ne Generation klassisch rasterizen aber dafür keine Texturnachlader mit 16 oder 20GB vRAM.

Du hast Serious Sam 4?
Du weist aber nicht das es Textur Probleme nur unter DX12 und Vulcan gibt?
Jedoch unter DX11 nicht und das dass Spiel mal ganz andere Baustellen hat.
Das da überhaupt 4Gb überhaupt überschritten werden siehst du nicht als Problem.
Das Spiel ist weder Optisch noch Technisch in der nähe von 2020.

Du spielst es also in 4K auf einer 8Gb Karte, also mein 3800X mit 3733Mhz Ram kann nicht mal meine GTX1080
in 1440p auslasten! Das heißt ganz einfach eine High-End CPU ist nicht in der Lage die 60 Fps zu liefern, aber klar der Vram ist
das Problem. Wenn ich da 65% GPU last sehe und eine GTX1080 mit einem 3800X sollte bei 60 Fps eigentlich keine Probleme haben.
Doch hier hat die CPU Problem das eine GTX1080 zu befeuern, da gibt es einige stellen da siehst das verhalten.
Sobald man auf DX12/Vulcan schaltet frisst diese Uralt Optik mehr wie 8 GB da hast du schon recht.

Wenn Uralt Optik soviel Vram frisst ist es das Problem das man zu wenig VRAM hat?
Ist das dein Ernst?
Wenn ich jetzt auf Untiy ein Spiel zusammen bastle das eine 3090 den vram weg frisst, hat sie dann zu wenig Vram
oder ist die Programmierung schlecht?
SS4 ist eine einzige Baustelle, DX12 und Vulcan sind Fehlerhaft, man merkt dem Spiel überall an das es unfertig ist.
Es hätte so nicht raus kommen dürfen, wahrscheinlich hatten sie kein Geld mehr.


Wenn du 50 Spiele hast und nur eines davon solche Features Unterstützt, dann spielst du nichts halbwegs modernes.
Weil DLSS nicht mal mehr selten ist in AAA Games und dann solltest dich eher fragen wozu brauchst du überhaupt eine neue GPU.
Den selbst meine 1080 reicht noch für 1440p aus und wenn man Leistung will aber DLSS nicht will das ist ein Widerspruch.

RT ist mir nicht mal so wichtig aber DLSS ist eben schon, die schnellste AMD GPU wird wegen DLSS weniger FPS liefern
als eine 3060. Wahrscheinlich sieht es sogar noch besser aus und das ist kein Argument für jemanden der Leistung will?

RT wird auch noch viel wichtiger werden wenn AMD da nicht mithalten kann hat sie ganz einfach nicht die gleiche Leistung.
Es werden mehr Effekte kommen und das gleichzeitig, da wirst ohne DLSS sowieso nichts mit Nativ reißen können.

Und ich war mal kritisch zu DLSS 1.0, aber inzwischen ist es das Feature für GPUs. Das ganze wird ausgebaut und wird immer
besser werden und AMD tut gut daran da mindestens so etwas zu haben wie 1.0.
 
Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke...

In Zukunft könnte die wichtigste Frage für den Gafikkartenneukauf ohnehin lauten: Wieviel Watt-Abwärme verträgt das Gamerdomizil?

Wenn in 15 Jahren die Mosterkarten vielleicht 600 Watt aus der Leitung saugen... Wer weiß wohin der Highend-Weg führen wird.

...oder sollte man einfach einplanen - beim übernächsten Aufrüsten - für die Warme Jahreszeit als alternative eine schwächere Zweitkarte zu kaufen, die man während der heißen Wochen im Sommer verwendet.
 
Mir egal was für ein Verbrauch die neue Karten haben, meine RTX 2080Ti kann ich auch 375 Watt nehmen,

High End bleibt hoher Verbrauch, und wenn ich jetzt für den gleichen Verbrauch mehr Leistung bekomme gerne doch.

ich benutze kein RT oder DLSS daher zählt die reine Leistung für mich, in Spielen ohne Schnickschnack,
 
Zurück