• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Illithide

Freizeitschrauber(in)
@Mitchpuken Habe bereits meine 3080 bestellt(geraume Zeit ;) ). Ich warte/vertraue nicht mehr auf AMD.
(Allein schon, weil ich halt den Monitor inkl. G-sync weiter nutzen möchte)
Der Moni geht nicht an 'ner Radeon? Älteres Modell? Ist ja wohl auch nur halboffiziell, die Öffnung. :hmm:
Kommt natürlich auch schwer auf die verbauten Komponenten an.
Platine wie bei der VII = Igor hat übertrieben, denn die war wirklich Top.
Platine wie bei Navi oder Vega= Das was Igor sagt. Da AMD auch beim Preis angreifen möchte denke ich nicht das wir so hochwertige Komponenten wie bei der VII sehen werden.

Ich vermute leicht unter Igors schätzwerten wird die Referenz rauskommen.
Für zwei bis drei Lüfter + LED-Bling 15W anzusetzen ist halt einfach mal erkennbar in's Klo gegriffen. Wenn er dann noch für den gleichen Posten für Team Grün nur die Hälfte rechnet, wirft das einfach ein bestimmtes Licht auf die gesamte Rechnung. Das hat dann auch nichts mehr mit Preisangriff und Komponentenqualität zutun. nV baut ja auch keine Propeller aus Raumschifftitan auf die Amperes.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.
 
Zuletzt bearbeitet:

Nebulus07

Freizeitschrauber(in)
Da hat der Werkspraktikant aber wieder einen rausgelassen:

....Leistungsaufnahme der kommenden Radeon RX 6000-Grafikkarten ein vielfach kolportiertes Thema. Anhand eines...

Kolportage​


1603215220161.jpeg

Der Ausdruck Kolportage bezeichnete den Vertrieb von Büchern in Einzellieferungen durch Hausierer. Das Verb kolportieren bezeichnet in Anlehnung an seine ursprüngliche Bedeutung heute das Verbreiten ... Wikipedia
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Da hat der Werkspraktikant aber wieder einen rausgelassen:



Kolportage​


Anhang anzeigen 1338588

Der Ausdruck Kolportage bezeichnete den Vertrieb von Büchern in Einzellieferungen durch Hausierer. Das Verb kolportieren bezeichnet in Anlehnung an seine ursprüngliche Bedeutung heute das Verbreiten ... Wikipedia
Was soll daran jetzt falsch sein, ist Umgangssprachlich absolut korrekt.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.

Igor hat da meist schon sehr konkrete Infos, das sieht man auch am Artikel. Er kann nur nicht immer alles erzählen also muss man auch mal was umschreiben.
 

blautemple

Lötkolbengott/-göttin
Der Moni geht nicht an 'ner Radeon? Älteres Modell? Ist ja wohl auch nur halboffiziell, die Öffnung. :hmm:

Für zwei bis drei Lüfter + LED-Bling 15W anzusetzen ist halt einfach mal erkennbar in's Klo gegriffen. Wenn er dann noch für den gleichen Posten für Team Grün nur die Hälfte rechnet, wirft das einfach ein bestimmtes Licht auf die gesamte Rechnung. Das hat dann auch nichts mehr mit Preisangriff und Komponentenqualität zutun. nV baut ja auch keine Propeller aus Raumschifftitan auf die Amperes.

Ich vermute inzwischen , er hat sich das Ganze überwiegend aus den Fingern gesogen, weil es ihm auf die Nerven fiel, dass die letzten Tage andere die Schlagzeilen in 'nem Thema gemacht haben, bei dem er für sich Kompetenz und besonders Kontakte in Anspruch nimmt. Nur leider hat er die bei AMD-AiBs eben nicht. Über das Offensichtlich hinausgehende Substanz lassen seine Tabellen jedenfalls imho nicht erkennen. Ne, ne mit dem Artikel hat er seinem Ruf keinen Gefallen getan.

Du hast keine Ahnung was so kleine Hochdrehzahl Quirle so verbrauchen, oder? Bei voller Drehzahl kommt da einiges zusammen ;)
 

owned139

Software-Overclocker(in)
DLSS ist zweifelsohne eine wirklich tolle Sache, aber damit kann man halt nicht die eigentliche Leistung der GPU feststellen. Außerdem hat AMD so etwas nicht. Man sollte schon unter gleichen Bedingungen Leistungsvergleiche machen.
Nur weil der es eine nicht kann ist es unfair?
Intel CPUs werden hier auch mit 2666er RAM getestet und Ryzen mit 3200.
 
Zuletzt bearbeitet:

jadiger

Software-Overclocker(in)
Seltsam, mir ist Youngblood noch nie abgeschmiert. Habe vom RT Update weg noch einige Spielstunden darin verbracht auch Koop mit Freunden. Läuft ja auch auf einer stabilen 2000er Karte die mich noch nicht im Stich gelassen hat.
DLSS 2.0 auch die DLCs von Control durch und optisch tolles Erlebnis gehabt. Game macht auch Raytracing mehr Sinn als nur Schatten in Tomb Raider oder CoD.
Marvel Avengers hat jetzt auch sehr gute DLSS 2.0 Integrierung. Sogar mehr DLSS Stufen als andere Games. Okay, bis auf die Kampagne und bisschen Koop bietet das Game nicht viel. Dennoch hilft DLSS enorm da man kaum über 1600p selbst auf starken GPUs in Außenbereichen kommt.
Mal sehen wie sich CoD und Cyberpunk mit DLSS schlagen. Ob wir mal DirectML bei AMD dann irgendwann sehen.

Selber brauch ich auch keine Karte die über 300Watt nimmt. Steht für mich dann nicht mehr im Verhältnis wenn ich sehe wie die neuen Konsolen wie Serie X mit 150-211Watt als Gesamtsystem daherkommen. Heutzutage jede optische Verbesserung immer mehr Power frisst.

Mehr als 10GB sollten es auch dann schon sein. Weiß auch nicht warum Leute annehmen man hätte in selbst in WQHD nichts davon. Als ob bessere Texturen nur starr eine Entfernung kennen. Wirst auch in 1440p bessere Textur erkennen wenn man nur nah genug rangeht an Objekte. Vram würde ich da echt nicht zu knapp bemessen.
Moderne Engine blenden auch mal Objekte aus obwohl man denkt man hat die selben Einstellungen wie Jemand mit mehr Speicher gewählt. Wirklichkeit hat man aber paar Details weniger am Bildschirm.

Controll release gab es kein DLSS 2.0 und das Spiel stürzte oft ab mit RT. Release konntest RT vergessen den da hattest ständig Frame spikes.
Das ist also überhaupt nicht vergleichbar wann du das gespielt hast, der Technische Zustand kannst dir mal in Steam anschauen wie toll das lief,
eben gar nicht gut Spielbar.

Dann vergleichst du High-End GPUs wie eine 3080 die wahrscheinlich 100% schneller ist wie die XSX. Das macht doch gar keinen Sinn
es kommt ja noch die ganze Bandbreite und ob die XSX sich überhaupt gegen einen Budget PC mit 3060 gut schlagen wird darf bezweifelt werden.

In welchen Game sollen 8Gb bei 1440p nicht reichen? Moderene Engines ja machen aber auch noch was ganz anderes,
sie benutzen Vram einfach weil er da ist. Die Beispiele die du nennst wo Texturen nicht geladen werden gibt es auf der 970 in 1440p
Ultra wo sie gar keine guten Fps Werte mehr hat. Übrigens das verhalten kannst gerade bei den Konsolen bewundern bei COD Demo.

Warum sollen 10Gb zu wenig sein, es gibt kein einziges Beispiel das überhaupt das beweisen könnte. PCGH meinte zur Crysis Remaster
das liegt am Vram und Digital Foundry hat exakt meinen Post unter dem Video wieder geben. Das wenn Cores auf 100% kommen hat man Spikes, das hier seid Jahren schon Vram Grundsätzlich viel zu wichtig ist sollte doch eigentlich auffallen.

Vram ist viel mehr als nur eine Zahl die man vergleichen kann, zwei Architekturen und du kannst nicht mehr vergleichen wer eigentlich
mehr Vram hat. Weil Software und Hardware unterschiedlich sind, das sich die ganze Thematik verbessert mit der Zeit sollte man auch mal
im Kopf haben. Das dass eigentlich Problem die Übertragung ist von CPU zu GPU und das dieses bei Ampere direkt über den Bus geht wenn
es Ms und Games unterstützen sollte auch mal bedacht werden.
PCGH ihr macht eine News zu TGP und eigentlich sollte da FETT Richtigstellung stehen zur News von
Gestern!

Wenn ich nicht weis das Firmen verschiedene Normen benutzen für Markting und das sogar
vor ein paar Wochen hier schon mal Thema war was für einen Eindruck macht das dann?
 

gecan

Software-Overclocker(in)
never ever wird die xt version über 300 watt ziehen.

wenn dann muss es die xtx version sein, aber xt version wird schön bei unter 300 watt bleiben.

wie war das nochmal mit den zen3 angeblichen 150 watt ?

puste kuchen !

auch hier wird zu viel mit unwissen wieder mal gestreut, durch die anti amd usw, den rdna2 ist und bleibt bis zum 28.10 ein geheim.
 

HardwareNoob41

PC-Selbstbauer(in)
Sag das nicht so einfach. Wenn man gsync oder freesync auch nach dem Grafikkartentausch weiterhin nutzen will, dann kann es schon sein, dass man für weniger Leistung tiefer in die Tasche greifen muss.


Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke... :(

Irgendwie war es aber auch klar, dass das Fanboy-Gelaber niemals eintreten würde.

Ich vermute, dass man die 6000er auch untertakten kann ;) Ist aber nur für wenige interessant, was oc vs oc und uv vs uv für ein Ergebniss liefert.
Oder auch nicht! Zen 3 für CPU's = RDNA2 für GPU's, ist zwar unwahrscheinlich aber auch nicht unmöglich! Und wenn wieder erwarten doch die > 50% Effizienzgewinn zutreffen, dann gehts doch in die andere Richtung von wegen Team Grün gewinnt so einfach!
 

Illithide

Freizeitschrauber(in)
Du hast keine Ahnung was so kleine Hochdrehzahl Quirle so verbrauchen, oder? Bei voller Drehzahl kommt da einiges zusammen ;)
Auch wenn's Bandbreiten hat - doch schon, habe ich. Deshalb ja die Anmerkung. :-P
Und wenn's am obersten Anschlag mit Sicherheitsaufschlag angesetzt wurde bleibt es trotzdem faul, einmal das Eine und in der nächsten Betrachtung knapp die Hälfte anzusetzen. Spätestens da sollten sich doch alle einig sein können.

@Gurdi:
Die Vermutung, er könnte geleakte Endwerte nur grob mit irgendwelchen von ihm hingehauchten Zahlenspielen hinterlegt haben, könnte hinkommen. Bei einem Artikel, der letztlich die Effizient zweier Arcs thematisiert, trotzdem verfehlt. Da interessiert das Drumherum nur noch am Rande. Sieht man ja auch hier, dass dann Schlüsse gezogen werden, die die Kenntnislage gar nicht hergibt.

Das Ganze gipfelt ja dann auch in der Aussage, Samsungs gepimpter 10nm-Prozess wäre ja kaum groß anders als TSMCs optimierter 7nm-Prozess. Jesus! Echt jetzt? Dann machen von Apple bis Omega ziemlich viele in der Branche echt was falsch. :lol:
 
Zuletzt bearbeitet:

Rollora

Kokü-Junkie (m/w)
Geil... am ende wird die Fragen in den Foren sein: wer von beiden hat den schlechteren Paper Launch hingelegt?
Als AMD Fan und Nvidia Hater (was mir nunmal hier von manchen nachgesagt wird) kann ich dir sagen: Nvidia!
Als Nvidia Fan und AMD Hater (was mir nunmal hier von manchen nachgesagt wird) kann ich dir sagen: AMD!
Als 3dfx Fan, der ich nun wenn überhaupt eigentlich bin kann ich nur sagen: beide haben enttäuscht.
 

jadiger

Software-Overclocker(in)
Jaja, das wird sie seit 2018. Für mich ist aber relevant wie die Realität tatsächlich aussieht und nicht was die Werbung verspricht. Und von meinen geschätzten 50 Spielen in der Bibliothek unterstützt ein einziges solche Features (Shadow of TombRaider).
Und: Solche Features nicht zu nutzen selbst wenn Spiele sie unterstützen ändert bisher kaum was an der Bildqualität, Raytracing ist bisher abseits der "Pfützenbetrachter" derart nebensächlich dass viele User hier im Blindtest nicht mal RTX on oder off unterscheiden konnten anhand von Bildern in denen eben keine Pfütze war.
Dagegen ist ein zu kleiner vRAM sofort ärgerlich - wenn ich ab und an in SeroiusSam4 ne Textur aufploppen/nachladen sehe weil meine 8GB in 4K mal wieder vollgelaufen sind ist das wesentlich relevanter für mich als ein bisschen RT (das nebenbei für sich ja nochmal deutlich mehr vRAM braucht).

Insgesamt sehe ich RT und DLSS als sehr gute Techniken aber der Zeitpunkt auf deren Grundlage eine Kaufentscheidung zu treffen ist einfach viel zu früh. Das is nochn schöner Hypetrain und es gibtsn paar nette Showcases aber das wars auch. Echter Nutzen für mich persönlich ist gleich Null. Dann lieber noch ne Generation klassisch rasterizen aber dafür keine Texturnachlader mit 16 oder 20GB vRAM.

Du hast Serious Sam 4?
Du weist aber nicht das es Textur Probleme nur unter DX12 und Vulcan gibt?
Jedoch unter DX11 nicht und das dass Spiel mal ganz andere Baustellen hat.
Das da überhaupt 4Gb überhaupt überschritten werden siehst du nicht als Problem.
Das Spiel ist weder Optisch noch Technisch in der nähe von 2020.

Du spielst es also in 4K auf einer 8Gb Karte, also mein 3800X mit 3733Mhz Ram kann nicht mal meine GTX1080
in 1440p auslasten! Das heißt ganz einfach eine High-End CPU ist nicht in der Lage die 60 Fps zu liefern, aber klar der Vram ist
das Problem. Wenn ich da 65% GPU last sehe und eine GTX1080 mit einem 3800X sollte bei 60 Fps eigentlich keine Probleme haben.
Doch hier hat die CPU Problem das eine GTX1080 zu befeuern, da gibt es einige stellen da siehst das verhalten.
Sobald man auf DX12/Vulcan schaltet frisst diese Uralt Optik mehr wie 8 GB da hast du schon recht.

Wenn Uralt Optik soviel Vram frisst ist es das Problem das man zu wenig VRAM hat?
Ist das dein Ernst?
Wenn ich jetzt auf Untiy ein Spiel zusammen bastle das eine 3090 den vram weg frisst, hat sie dann zu wenig Vram
oder ist die Programmierung schlecht?
SS4 ist eine einzige Baustelle, DX12 und Vulcan sind Fehlerhaft, man merkt dem Spiel überall an das es unfertig ist.
Es hätte so nicht raus kommen dürfen, wahrscheinlich hatten sie kein Geld mehr.


Wenn du 50 Spiele hast und nur eines davon solche Features Unterstützt, dann spielst du nichts halbwegs modernes.
Weil DLSS nicht mal mehr selten ist in AAA Games und dann solltest dich eher fragen wozu brauchst du überhaupt eine neue GPU.
Den selbst meine 1080 reicht noch für 1440p aus und wenn man Leistung will aber DLSS nicht will das ist ein Widerspruch.

RT ist mir nicht mal so wichtig aber DLSS ist eben schon, die schnellste AMD GPU wird wegen DLSS weniger FPS liefern
als eine 3060. Wahrscheinlich sieht es sogar noch besser aus und das ist kein Argument für jemanden der Leistung will?

RT wird auch noch viel wichtiger werden wenn AMD da nicht mithalten kann hat sie ganz einfach nicht die gleiche Leistung.
Es werden mehr Effekte kommen und das gleichzeitig, da wirst ohne DLSS sowieso nichts mit Nativ reißen können.

Und ich war mal kritisch zu DLSS 1.0, aber inzwischen ist es das Feature für GPUs. Das ganze wird ausgebaut und wird immer
besser werden und AMD tut gut daran da mindestens so etwas zu haben wie 1.0.
 

Acgira

Freizeitschrauber(in)
Hahaa am Arsch BigNavi wird Effizient mit 275W. Ampere gewinnt wohl doch wieder den Effizienzwettbewerb trotz 320W - mit UV sogar nur ~230W. AMD geht wieder auf 355W. Wow... Kacke...

In Zukunft könnte die wichtigste Frage für den Gafikkartenneukauf ohnehin lauten: Wieviel Watt-Abwärme verträgt das Gamerdomizil?

Wenn in 15 Jahren die Mosterkarten vielleicht 600 Watt aus der Leitung saugen... Wer weiß wohin der Highend-Weg führen wird.

...oder sollte man einfach einplanen - beim übernächsten Aufrüsten - für die Warme Jahreszeit als alternative eine schwächere Zweitkarte zu kaufen, die man während der heißen Wochen im Sommer verwendet.
 

Snowhack

BIOS-Overclocker(in)
Mir egal was für ein Verbrauch die neue Karten haben, meine RTX 2080Ti kann ich auch 375 Watt nehmen,

High End bleibt hoher Verbrauch, und wenn ich jetzt für den gleichen Verbrauch mehr Leistung bekomme gerne doch.

ich benutze kein RT oder DLSS daher zählt die reine Leistung für mich, in Spielen ohne Schnickschnack,
 

hkeilhauer

Schraubenverwechsler(in)
Ja genau, im Grunde haben sich User von gsync oder freesync schon vor der Ankündigung der neuen Karten entschieden. Sofern sie nicht im selben Zug den Monitor tauschen oder auf die sync verzichten wollen oder es egal ist. Es könnte so einfach sein... :D

Nur bedingt.
nVidia Karten unterstützen so weit ich weiß seit 2xxx auch Freesync. AMD nur Freesync. Daher sollten Leute mit Freesync Monitoren recht entspannt sein und sich auf das Gesamtpaket konzentrieren können ohne sich auf einen der Beiden festlegen zu müssen. 👍
 

Gurdi

Kokü-Junkie (m/w)
Die Vermutung, er könnte geleakte Endwerte nur grob mit irgendwelchen von ihm hingehauchten Zahlenspielen hinterlegt haben, könnte hinkommen. Bei einem Artikel, der letztlich die Effizient zweier Arcs thematisiert, trotzdem verfehlt. Da interessiert das Drumherum nur noch am Rande. Sieht man ja auch hier, dass dann Schlüsse gezogen werden, die die Kenntnislage gar nicht hergibt.
Wir reden hier von evt. 10 Watt, zudem den VirtualLink nicht vergessen.
 

Incredible Alk

Moderator
Teammitglied
Wenn du 50 Spiele hast und nur eines davon solche Features Unterstützt, dann spielst du nichts halbwegs modernes.
Achso, und weil die Industrie, die Werbung oder andere Forenuser das so wollen soll ich gefälligst meine Spielgewohnheiten anpassen um etwas "modernes" zu spielen? :lol:

Ihr seid ja witzig. Ja, ich spiele SeroiusSam4. Und auch 1, 2 und 3 die man stelle sich vor noch älter sind. Nebenbei spiele ich sogar noch Diablo 2, Dungeon Keeper und Siedler2 (RTTR) oder C&C Remastered. Denn es macht Spaß - mehr, als die meisten "modernen" Spiele die ich kenne.

Das Konzept mag befremdlich sein, aber ich wähle die Spiele die ich spiele danach aus, wie viel Spaß sie mir machen und nicht danach wer was wo wie modern programmiert hat, welche Grafikfeatures vorhanden sind oder sonst irgendnem technischen Gedöns. DLSS und Raytracing in Perfektion würden mich nicht dazu bewegen können, CoD zu spielen.

Zu den anderen Dingen nur kurz abgehandelt:
- Nein, es liegt nicht an DX12 und Vulkan, die Probleme sind unter DX11 die gleichen - auf einer RTX3090 dagegen sind sie weg weil die 24GB mehr als reichen (die 10GB einer 3080 übrigens nicht - Ergebnis von Raffs SS4-Test)
- Wo man ein CPU-Limit hat und wo nicht ist extrem von SPiel und Einstellungen abhängig. Ein pauschales "eine High-End CPU ist nicht in der Lage die 60 Fps zu liefern" ist völliger Bullshit.
- Ob eine schlechte Programmierung daran Schuld ist dass der vRAM nicht reicht oder nicht ist mir völlig egal, denn ich kann nichts daran ändern außer mehr vRAM zu haben als benötigt wird oder das Spiel nicht bzw. nur in reduzierter Grafik zu spielen. Meckern über "schlecht programmiert" und "unmodern" kannste den ganzen Tag - helfen tuts aber halt nicht.^^
 
Zuletzt bearbeitet:

KuroSamurai117

BIOS-Overclocker(in)
Controll release gab es kein DLSS 2.0 und das Spiel stürzte oft ab mit RT. Release konntest RT vergessen den da hattest ständig Frame spikes.
Das ist also überhaupt nicht vergleichbar wann du das gespielt hast, der Technische Zustand kannst dir mal in Steam anschauen wie toll das lief,
eben gar nicht gut Spielbar.


Wer redet denn von Control bei Release? Es ging um Wolfenstein Youngblood. Ich habe geschrieben dass ich die "DLCs" bei Control mit DLSS 2.0 durchgespielt habe. Als man von Version 1.9 schon auf 2.0 ein Update hatte.


Dann vergleichst du High-End GPUs wie eine 3080 die wahrscheinlich 100% schneller ist wie die XSX. Das macht doch gar keinen Sinn
es kommt ja noch die ganze Bandbreite und ob die XSX sich überhaupt gegen einen Budget PC mit 3060 gut schlagen wird darf bezweifelt werden.


Es geht um den Kosten/Nutzenfaktor für mich. Ich habe schon 2 Jahre 2080ti und die Konsolen. Riesen Grafiksprünge sehe ich mittlerweile nicht mehr. Da wird volumetrische Wolken oder Nebel eingebracht wo man für 10% bessere Optik 30% Framerate opfert. Raytracing zieht auch nicht in jedem Game. Bei Control und Youngblood finde ich es schon gut weil es mehr als paar Pfützen zur Spiegelung gibt oder man lediglich die Schatten etwas verbessert.
Ich brauch auch nativ 4k trotz 48" Monitor da mit DLSS 2.0 Qualität reicht. Dann geht auch vereinzelt Raytracing bei 60fps. Sofern es wie in (aktuellen)Control, Death Stranding, Youngblood oder Marvel Avengers funktioniert. F1 2020 haben sie es aber durch viel Ghosting versemmelt.

Neue GPU ist nur wegen HDMI 2.1 interessant weil dann auch in Windows 4k/120 gehen.

Mir ist halt der Energieverbrauch von 3080 oder Big Navi von über 300Watt halt das Leistungsplus nicht wert. Alles persönliche Ansicht. Mir würde schon reichen was Serie X/PS5 liefert wenn die Games 60fps Performance-Mode hätten.

In welchen Game sollen 8Gb bei 1440p nicht reichen? Moderene Engines ja machen aber auch noch was ganz anderes,
sie benutzen Vram einfach weil er da ist. Die Beispiele die du nennst wo Texturen nicht geladen werden gibt es auf der 970 in 1440p
Ultra wo sie gar keine guten Fps Werte mehr hat. Übrigens das verhalten kannst gerade bei den Konsolen bewundern bei COD Demo.


Jetzige Games die noch auf 2013er Konsolen laufen müssen. Heißt ja nicht dass der Bedarf durch neue Engine nicht zunimmt. Photogrammetrie soll nicht mehr Low Level sondern bald High haben.
Dann hast 700-800,- GPU die die Textureinstellung nur wie 500,- Konsole schafft. Da erwarte ich eigentlich bei dem Mehrpreis dass man schon Stufe höher stellen kann. Wird aber wohl nicht kommen weil auch Serie X/PS5 gut 10GB für Grafik nutzen können. Die können zudem Direct Storage gleich von Anfang an nutzen. Bis es der PC Markt flächendeckend kann vergeht noch einige Zeit.

Kannst ja gern darauf vertrauen dass es irgendwas ausgleicht wie GDDR6x Speicher oder sonst was. Manches lässt sich auch nicht immer zu 100% ersetzen.
 

Technologie_Texter

Software-Overclocker(in)

RNG_AGESA

Software-Overclocker(in)
es ist übel mit DLSS bei bestimmten auflösungen.
in METRO komme ich auf bei 3840x1600 auf ca. 70FPS mit HOHEM RT und ULTA setting, also 1 level unter max in beiden fällen.
jetzt ist ein video aufgetaucht vom nativen 4k + DLSS maxed out und etwa 80-100FPS. WOW!

nur ist DLSS nur für native 4k verfügbar, nicht aber für UWQHD+
F**
 

HardwareNoob41

PC-Selbstbauer(in)
Leistung und ähnlicher Verbrauch? Klingt einleuchtend... 👍
Ich würde mir ja den Arsch ablachen, wenn die 255 Watt doch stimmen und reichen um die 3090 minimal zu schlagen! Wenn die XSX GPU schon stark ist, was macht dann Big Navi? und falls das doch stimmt mit den 76% perf/ watt dann ist auch mit 350 Watt+ für die 3090 nicht zu gewinnen! AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!
 

Incredible Alk

Moderator
Teammitglied
AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!
Die Realität ist andersrum...
Die RTX3080/90 hat rund 28 Milliarden Transistoren.
AMD fertigt einen gerüchteweise etwa 530mm^2 großen Chip bei TSMC in 7nm mit theoretisch möglichen ~90 MTr/mm^2, bedeutet rechnerisch wird BigNavi je nach realer Packdichte irgendwo zwischen 35 und 45 Milliarden Transistoren landen.

Von der Zahl der Transistoren brauchste also nicht auf AMD zu wetten, da werden sie sehr viel mehr davon aufbieten um mit NVidia mithalten zu können. Aber: Der Wert spielt praktisch auch gar keine Rolle. :ka:
 

Gurdi

Kokü-Junkie (m/w)
Aber: Der Wert spielt praktisch auch gar keine Rolle

Hmm naja, technisch spielt das sehr wohl eine Rolle.
So sieht das aus wenn die Transistoren der 3090 und der Speicher was zu tun haben durch hohe Bandbreitenauslastung, Kernschmelze Deluxe mit Lüfter über 2000 im Turbinenmodus und Kerntakt unterhalb der Boostclock und das in Age of Empires 3 :ugly:

Wenn da jetzt noch richtig Vram belegt wäre, na dann prost mahlzeit.

Screenshot (481).jpg
 

HardwareNoob41

PC-Selbstbauer(in)
Die Realität ist andersrum...
Die RTX3080/90 hat rund 28 Milliarden Transistoren.
AMD fertigt einen gerüchteweise etwa 530mm^2 großen Chip bei TSMC in 7nm mit theoretisch möglichen ~90 MTr/mm^2, bedeutet rechnerisch wird BigNavi je nach realer Packdichte irgendwo zwischen 35 und 45 Milliarden Transistoren landen.

Von der Zahl der Transistoren brauchste also nicht auf AMD zu wetten, da werden sie sehr viel mehr davon aufbieten um mit NVidia mithalten zu können. Aber: Der Wert spielt praktisch auch gar keine Rolle. :ka:
Spätestens am 25.11.20 gibts Tests! Let' s see who is right!
 

onkel-foehn

Software-Overclocker(in)
"dass beim Topmodell je nach Design etwa 320 bis 355 Watt zu erwarten sind."

Na also, geht doch AMD !
Endlich zu nVidia aufgeschlossen ... ;-)

MfG Föhn.
 

Buggi85

Software-Overclocker(in)
Gleichstand beim Saufen.

Unterschied nur im Speicher, wo die geringere Menge für WQHD von Nvidia ausreicht(8, oder 6GB mehr Speicher macht die Karte nicht schneller).

Bleibt nur noch der Preis und die Verfügbarkeit abzuwarten.

Im Grunde hupe, ob man AMD, oder Nvidia nimmt. Tun sich nicht viel.

edit:


Vielleicht wird das am Ende noch der deutlichste Unterschied zwischen den Karten werden. ;)
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
 

Khabarak

BIOS-Overclocker(in)
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
Ist ja nicht so, dass BigNavi nichts davon bieten würde...
Auch alle Vorgängerkarten zu Navi haben einen Hardware Encoder.
Dazu kommt, dass alle drei genannten Features doch sehr vom Nutzer abhängig sind.
Der Großteil der Gamer nutzt keinen Video Encoder - ergo auf beiden Seiten uninteressant.
Es gibt aktuell nur knapp 10 Spiele mit DLSS... ergo eigentlich uninteressant, so lange es nur so wenig Spiele sind.
Die Zahl der Spiele mit RT ist noch ein wenig bescheidener.

Daher entlocken mir alle drei eher ein müdes Lächeln - egal, ob AMD jetzt auch noch mit RT und einer DLSS Alternative kommt.
Wie ChrisMK72 es schon sagte: Aktuell zählt die Rohleistung, der Rest ist noch mehr Marketing, als alles andere.
 

hrIntelNvidia

Freizeitschrauber(in)
Zum Thema RTX: Ich habe schon seit geraumer Zeit eine 2080 non Super und habe unter anderem Battlefield 5 angezockt. Beim Spielen selbst ist mir RTX primär durch niedrige FPS aufgefallen. Die tollen Schatten und Spiegelungen sind ja ganz nett, aber während des Spielens ist es mir nicht aufgefallen. Habs für bessere FPS ziemlich schnell abgeschalten. Es wird wohl noch ein Weilchen dauern bis Raytracing wirklich interessant und mehr als schmückendes Beiwerk ist...
 

Bluebird

Software-Overclocker(in)
Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
ohhh AMD muss , das ist ja ganz Neu ... nur weil die Nutzer gerne hätten muss AMD noch gar nix , nicht mal einen High End Konkurrenten bringen, nur damit der geneigte Nvidia Käufer seine Nvidia Karte vielleicht ein paar Eu billiger bekommen kann :)
mal ehrlich Speicher ist immer noch der erste Shice der gilt , wer einmal eine geile Karte hatte die nur ausgepowert wurde weil der Vram nicht mehr ausreichte, der kauft eher doppelt zu viel Vram als zu wenig :)
 

Buggi85

Software-Overclocker(in)
Also bei Auswahl von 3080 Leistung von Nvidia und AMD zum selben Preis sehe ich die Nachteile nur bei AMD. Der Verzicht auf die Features wird nachhaltig sein. Die VRAM Argumente haben der Radeon VII auch kein besseres Leben beschert. Kommen noch die Treiberprobleme hier und da dazu und diverse Engine Nachteile bei älteren Versionen wie erst kürzlich bei Aquanox Deep Descent. Ach... alles in allem gibt es bei Nvidia das rundere Paket und einfach mehr fürs gleiche Geld (falls es so käme). Deshalb sage ich auch muss AMD in den Fall spürbar günstiger ausfallen.😁
 
Oben Unten