• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

Ein Twitter-Nutzer hat Block-Diagramme für die kommenden Radeon-GPUs Navi 31, Navi 32 und Navi 33 veröffentlicht. Als Grundlage dienten ihm die schon länger durchs Netz schwirrenden (mutmaßlichen) Spezifikationen der Radeon-RX-7000-Serie, die sich teilweise aus Multi-Die-GPUs zusammensetzen soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht
 

User-22949

Freizeitschrauber(in)
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
 

Bl4d3runn3r

Freizeitschrauber(in)
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
Wenn man eine RTX 3080 komplett stock faehrt, verbraucht die tatsaechlich ne menge Strom, so 320W... Da muss man selber etwas Hand anlegen um das im Zaum zu halten. Habe meine Karte undervoltet, jetzt komme ich unter Volllast nicht mehr ueber 260W und die Performance ist gleich geblieben. Ich denke nicht das AMD und Nvidia auf einmal die Leistungsaufnahme so drastisch nach oben schrauben.

Ich rechne mit einer RTX 4080 bei 320W und 30% mehr performance als die 3080, alles andere macht bei Luftkuehlung nicht wirklich Sinn.
 

Homerclon

Volt-Modder(in)
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
Der Fertigungsprozess kann noch so gut sein, wenn dann das letzte bisschen Rechenleistung raus gequetscht wird, treibt das TDP und Leistungsaufnahme nach oben.

Sieht man ja auch bei den RTX3000, die im Vergleich mit den RTX2000 deutlich zugelegt haben. Als AMD im High-End keine Konkurrenz lieferte, konnte NVIDIA darauf verzichten das letzte Bisschen aus den GPUs zu kitzeln. Wobei das dann die Partner bei ihren Custom-Modelle trotzdem machten.
Jetzt wo AMD wieder eine Konkurrenz im High-End ist, wird auch wieder auf Sparsamkeit gepfiffen, man will ja schließlich die Leistungskrone inne haben.

Wenn man bereit ist auf ca. 5% Rechenleistung zu verzichten, kann man die Karten bereits deutlich sparsamer betreiben. Was dann auch die TDP reduziert.
 

BxBender

BIOS-Overclocker(in)
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.

Es gibt doch schon ein OC Bios direkt vom Hersteller mit 500 Watt.
Ich bin eigentlich der Meinung, dass man mit der 1000er RTX Serie mit 150, 180 und 250 Watt (FE Edtions?) für die guten GAmer Karten wirklich ordentlich gefahren ist.
Mehr muss und sollte nicht wirklich in einem normalen Spielerechner verbaut und verbraten werden müssen bzw. dürfen.
Wenn dann jemand meint, er müsse unbedingt eine superduoer OC Editon mit Extrabios bis 300 Watt haben, seis drum, aber Standardwerte sollte man als Hersteller auch wegen den Klimazielen im Auge behalten.
Kam heute wieder im Radio ein Bericht, dass die Länder viel zu wenig tun.
Dazu gehört als einfachstes Mittel zuerst einmal der Strombedarf reduzieren = weniger Aufhitzung der Erdkugel.
Kryptomining verbieten gehört übrigens auch dazu.
Danach hätte man mal irgendwann über Ohrpopler aus Papier statt Plastikstil reden können, oder Einmalbesteck aus Holz statt Plastik.
Das ist mikriger Kleinkram und dient nur der Beruhigung, weil es schadet den Wirtschaftsbonzen nicht.
 

gerX7a

BIOS-Overclocker(in)
Dieses Block Diagramm zeigt wie weit RDNA3 mit MCM fort geschritten ist!
Das wird eine mächtige Waffe werden, die ihr tape out bereits hinter sich hat.

So ist auch klar, dass RDNA3 diesmal vor Nvidia Lovelance auf den Markt kommen wird.
Die Bilder zeigen bestenfalls, das jemand einen grungledendem Umgang mit irgendeinem Vektorzeichenprogramm oder gar möglicherweise Excel/Calc beherrscht, mehr nicht. Das ist schlicht eine visuelle Darstellung der im Umlauf befindlichen Gerüchte, also nur eine andere Darreichungsform und insofern kann das hier dementsprechend auch in keinerster Weise einen Mehrwert schaffen, etwas "zeigen" oder wohlmöglich gar "belegen".
Und der vermeintliche TapeOut wird immer noch von vielen Quellen angezweifelt, die klar aussagen, dass sie noch nichts derartiges gehört habe, eben weil so mancher das schon behauptet angeblich zu wissen. Letzten Endes ist der TapeOut hier allerdings auch vollkommen egal, da Kunden ES-Chips nicht interessieren und das ungefähre Releasezeitfenster schon bekannt ist mit dem 2HJ22. Der TapeOut wäre nur ein hilfreiches Indiz, wenn man nichts zum Releasezeitraum wüsste.

Und ebensowenig ist irgendwas "klar", weil Gerüchte und Spekulationen keine Fakten schaffen. Klarer wird es erst, wenn Infos von einer tatsächlich belastbaren Quelle kommen oder diverse Quellen einvernehmlich das Gleiche berichten oder bestenfalls AMD Infos released, vorher nicht.
Und in Bezug auf deinen Punkt tatsächlich und undiskutabel "klar" wird es zudem auch dann erst, wenn man die gleiche Informationslage auch zu nVidia's NextGen hat, den ohne diese kann man schlicht keine Vergliche anstellen.
Die Gerüchte kann man durchaus so nehmen wie man will, aber was du hier dagegen versuchst, ist diese umzumünzen in Fakten und das ist gelinde gesagt fragwürdig.
Aktuell kann man genau so gut spekulieren, dass der Marktführer hier einmal mehr erfolgreich seine Stellung verteidigen wird und AMD lediglich auf ein in etwa vergleichbares Niveau herankommt oder gar deutlich langsamer enden wird oder gar deutlich schneller, oder ... Das ist nicht mehr als ein Münzwurf, also vollkommen irrelevant.
 

Chatstar

BIOS-Overclocker(in)
Aktuell kann man genau so gut spekulieren, dass der Marktführer hier einmal mehr erfolgreich seine Stellung verteidigen wird und AMD lediglich auf ein in etwa vergleichbares Niveau herankommt oder gar deutlich langsamer enden wird oder gar deutlich schneller,

Nur gibt es derzeit keinerlei leaks die auch nur annähernd in diese Richtung gehen.
Leonidas vom 3dCenter spricht hingegen belastbar von 400% Mehrleistung bei RNDA3 ggeü. RDNA2.
Aber lassen wir uns überraschen aber ich glaube, dass AMD diesmal mit mcm die deutlich stärkeren GPUs am Start haben wird.
 

HardwareNoob41

PC-Selbstbauer(in)
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
480 Watt klingt doch relativ logisch! Denn das Flagschiff hat 15360 Shader! Aber der 5 nm Node bringt wohl auch ganz gut was, denn Faktor 1,5 reicht nicht um das bei der Anzahl Shader hinzubekommen! Verbrauch 1,6-fach, aber Leistung Richtung 3-fach bis vielleicht tatsächlich 3-fach! Selbst der Sprung von der RX 5700XT zur RX 6900 XTX bzw. XTH reicht nicht mit 65 % bessere Energieeffizienz! Daraus folgt der Wechsel des Nodes trägt auch zur Effizienz bei, was bei 5700 XT und 6900 XT nicht der Fall war, da gleicher Node! Falls die Effizienz ohne Node so steigt wie bei der 6900 XT und die Zahlen belastbar sind, dann muss der Node so um die 13 % beisteuern!
 

gerX7a

BIOS-Overclocker(in)
@Chatstar: Es gibt auch keine Leaks die eine absolute Weltherrschaft deines Lieblingsbrands unterstreichen. Wie so oft ist das alles nur Spekulatius ... dass jemand wie du da natürlich gänzlich anders drauf reagiert, ist mittlerweile leicht verständlich. Dennoch schaffen derartige Aussagen von dir keine Fakten. Du könntest im 2HJ22 mit deinen heutigen Prognosen dennoch mäßig bis gar zu vollkommen falsch liegen. Und was noch viel bedeutender wäre: Selbst wenn AMD im 2HJ22 nVidia unangespitzt in den Boden rammen würde, würde das (nachträglich) dennoch nichts an der Qualität deiner heutigen Aussage ändern. Diese bleiben dennoch weiterhin reine Spekulation und Wunschdenken, denn dir fehlt schlicht die Basis für eine fundierte Bewertung, d. h. diese Aussagen werden Ende 2022 genau so fragwürdig und schlecht sein wie sie es heute schon sind (vollkommen unabhängig davon, wie der Markt Ende 2022 aussehen wird).
 

BigBoymann

Software-Overclocker(in)
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
 

gerX7a

BIOS-Overclocker(in)
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
Alder Lake hat nichts mit MCM zun tun. Das ist ein monolithisches Design, zudem mit zwei unterschiedlichen Kernen, die grundlegend jedoch die gleiche ISA unterstützen. Etwaige Probleme dürften da relativ schnell ausgemerzt sein (denn Microsoft und Intel sind da ja schon lange an dem Thema dran; bei Zen war es ja damals auch kein Problem dem eine gewisse "Anlauf/Reifezeit" zuzugestehen).
Bei GPUs wird man abwarten müssen, was das im 2HJ22 werden wird. Intel ist mit Xe ja grundlegend auch auf MCM aus, dass das vermutlich noch nicht zeitnah kommt scheint darauf hinzudeuten, dass man das fertigungstechnisch noch nicht (verbrauchs)effizient mit 7 nm anbieten kann oder man (software)technisch noch nicht so weit ist oder man einfach nur nicht mit extrem teuerer Hardware in den GPU-Markt einsteigen will, ohne sich schon zuvor zumindest ein wenig etabliert zu haben. Mögliche Gründe mag es da viele geben.
Interessant dürfte sein, ob nVidia tatsächlich noch mal meint mit einem rein monolithischen Design auskommen zu kommen. Letzten Endes muss aber auch nVidia nicht zwangsweise jeden Schritt mitgehen, denn am Ende gibt es kein Krönchen für eine absoluten Leistungsgewinner sondern für Umsatzerfolge. Deren Architektur könnte am Ende dennoch leistungsstärker sein und die ersparen sich vielleicht lediglich ein extrem teueres MCM-Produkt in dieser Gen? Man weiß es nicht. Einfach mal abwarten. Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise. Die sind der Marktführer und bei GPUs handelt es sich um ihr Kerngeschäft; da werden die zweifellos nicht däumchendrehend dasitzen und abwarten ...

@Chatstar: Looool, 400 % entweder hat der keine Ahnung von Prozentrechnung (völlig egal ob relativ oder absolut gemeint) oder der ist ins Traumland entschwebt und versucht sich Follower wie dich zu angeln, die dankbar für jeden zusätzlichen ganzzahlingen Multiplikator sind. ;-)
Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.
 
Zuletzt bearbeitet:

Chatstar

BIOS-Overclocker(in)
Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise.

Dir ist aber nicht entgangen, dass Nvidia die Tage bereits verkünden musste für die Next Gen. bei einem monolithischen Design bleiben zu müssen!?

Und was das bedeutet ist quasi selbsterklärend.

Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.

Unter normalen Umständen, wäre dem ja auch zu zu stimmen, aber eben nicht bei mcm.
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Mir scheint du versucht aufgrund deines Bias eher wieder verzweifelt Fakten zu schaffen, die jedoch keine sind. Zum einen ist das was da bei CB verfrühstückt wurde weiterhin schlicht ein Gerücht. Als Tipp: Leicht zu erkennen am "von Twitter-Nutzern" ;-)
Zum anderen warum sollte nVidia was "müssen". Die schätzen ab was AMD kann und was nicht, prüfen wie sie den Markt an besten bedienen können und das wichtigste ... wie sie umsatz/gewinntechnisch ab besten abschneiden können und sind vielleicht bewusst zu der Entscheidung gekommen, dass sich ein MCM-Design in dieser Generation noch nicht lohnt.
Ich nehme dir ja nicht gerne die Illusionen, aber du glaubst doch nicht etwa, dass eine derartige Bauweise ein Privileg von AMD ist. Beispielsweise Intel hat schon viel früher als AMD CPUs "zusammengeklebt". *) Dass sie bisher darauf verzichteten, lag einfach daran, dass das für sie in der monolithischen Bausweise und mit 14nm und 10nm bisher noch effizienter und ertragreicher war, mehr nicht.

*) Mal ganz abgesehen davon, dass Intel hier MCM-technisch wohl schon sehr viel weiter als AMD zu sein scheint mit seinem Packaging-Portfolio, wenn man sich ansieht, was sie offensichtlich können, wenn sie es für nötig und wirtschafltich erachten (so bspw. Xe-HPC).

Und nein, das ist in keinster Weise "selbsterklärend". Selbsterklärend ist lediglich wie du das für dich in deiner rosaroten Welt auszulegen willst. Was das dagegen für den GPU-Markt (also die reale Welt ;-)) bedeutet, ist jedoch noch keinesfalls klar, da man von konkreten technischen Details noch viel zu weit weg ist.

+100 %: Doch eben genau bei einem 2-Chip-MCM-Design in einem halbwegs noch akzeptablen Verbrauchsbereich. Für ein monolithisches Design bei denen müsste man eher mit was deutlich niedrigerem rechnen. Eine grob vollständige Verdopplung der resultierenden Leistung schließt hier das MCM-Design bei RDNA3 explizit ein.
 
Zuletzt bearbeitet:

Chatstar

BIOS-Overclocker(in)
Selbsterklärend ist lediglich wie du das für dich in deiner rosaroten Welt auszulegen willst. Was das dagegen für den GPU-Markt (also die reale Welt ;-)) bedeutet, ist jedoch noch keinesfalls klar, da man von konkreten technischen Details noch viel zu weit weg ist.

Wir werden schon sehen wer hier am Ende recht hat, Tatsache ist aber eben auch, dass viele das so einschätzten, wie ich und Leonidas.
 

gerX7a

BIOS-Overclocker(in)
Sorry, aber mit den 400% hat der Vogel sich schon als vollkommen unbedarf dargestellt oder aber du bist nicht in der Lage korrekt zu zitieren.? (+)400% zu was? Zu einer RX 5500 XT? ;-)

Und ja, werden wir sehen, aber ich kann dir jetzt schon sagen wie das voraussichtlich ausgehen wird, weil du es mir hier nun mal leider sehr einfach machst ... und das liegt keinesfalls daran, dass ich ein so begnadeter, unglaublich guter und präziser Vorhersager bin, sondern das liegt einzig daran, dass du ein dermaßen schlechter Vorhersager bist, der zwischen objektiven Fakten und seinem Wunschdenken nicht zu unterscheiden vermag.
Lege dir den Thread mal als Lesezeichen ab, da können wird gerne noch mal in 12 - 15 Monaten drauf zurückkommen. :-D
 

hanfi104

Volt-Modder(in)
Ich bin auch auf die TDPs gespannt, hab zwar eine Wasserkühlung die auch 500W wegkühlen könnte, aber selbst die OC 350W sind mir zu viel Wärme im Raum. Gesamtsystem muss bei max 400W dauer Heizleistung bleiben.
 

gerX7a

BIOS-Overclocker(in)
@Chatstar: Ich muss mich korrigieren, nicht Leonidas ist hier der "unbedarfte Vogel". Leonidas schreibt hier konkret:
"AMDs RDNA3-Generation soll hingegen in Form des Navi-31-Chips das 2,5fache bis sogar 2,7fache gegenüber Navi 21 erbringen"
Wie du daraus 400% zauberst, ist mit schleierhaft. Das scheint schon eher pathologisch bei dir zu sein, dass sämtliche Zahlenwerte bei dir in Verbindung mit AMD immer größer werden oder wie versucht du so etwas zu erklären/rechtfertigen? (Das mit dem falschen Zitieren hatten wir doch erst letztens bei dir ...)
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
OK 2,7 fache halt, da hab ich falsch im Kopf gehabt.

Was euch ständig passiert, kann mir ja auch mal passieren. ;)
Natürlich, du ranzt deinen Chef am Monatsende wahrscheinlich wg. der Abrechnung an und sagst "Hey, da fehlt aber was, wir hatten doch 4500 € monatlich vereinbart." - "Öh, nein, vereinbart waren 2315 €." - "Oh, dann hatte ich das wohl falsch in Erinnerung, ist ja fast das gleiche."

Witzigerweise hast du den gleichen Satz von wegen, "passiert euch doch ständig" beim letzten mal auch zum Besten gegeben. Wer ist "euch"? Eigentlich fällst hier nur du mir mit derartigem Unsinn auf und beim letzten Mal (ist gar nur zwei, drei Wochen her) war es gar ein bewusst von dir verfälschtes Zitat um deine perönliche Agenda zu verfolgen.

Da bei NV ja nur von maximal 70-80% mehr Leistung gesprochen wird, dürfte die Sache trotzdem klar ausgehen.
Das weiß man noch nicht. Hier wird man einfach abwarten müssen. Beispielsweise Chatstar's Leonidas schreibt, dass AMD insgesamt mit 15.360 FP32-ALUs aufwarten wird (insgesamt, über beide Chips), nVidia dagegen wird mit 18.432 FP32-ALUs aufwarten. Unterm Strich sieht das erst mal längst nicht so eindeutig aus, wie es speziellere Gemüter hier darzulegen versuchen und je weiter man sich im Portfolio runter bewegt, desto weniger kann MCM seinen Vorteil ausspielen, insbesondere, da es ab einer gewissen Produktklasse aus kostengründen auch gar nicht mehr eingesetzt werden wird. Einfach mal abwarten ...

Zudem sollte man aber auch Leonidas' Fussnote berücksichtigen, die zweifellos so mancher auch gerne bewusst überliest und bei Zitierungen unter den Tisch fallen lässt:
"Anmerkung: reine Wiedergabe von Gerüchten – keine offiziellen Daten"
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
AMD ALUs sind keine NV ALUs - sieht man ja aktuell wo die 6900XT trotz 5120 SPs mit der 3090 10752 SPs Schlitten fährt. Auch da wieder für die Nachfolger: AMD Faktor 3 mehr. NV nur 1,8.
Der Einwand ist leider wertlos, da man bereits weiß, dass AMD RDNA3 anscheinend umfangreich umgebaut hat, dementsprechend kann der nichts ausschließen oder erklären.
RDNA2 verwendete in Navi21 40 WGPs zu 5.120 FP32-ALUs. Jetzt in RDNA3 sollen es auf einmal nur noch pro Chip 30 WGPs zu jedoch 7.680 FP32-ALUs sein. Das ist exakt eine Verdoppelung der ALUs pro WGP, ein Schelm, wer da an nVidia's Amepre denkt. ;-)

Darüber hinaus: Man erinnere sich noch, wie Cerny rund um die PS5 und RDNA2 der Community erklären wollte, wie ungünstig doch viele Shader sind bzgl. der Auslastung und dass eine kleine und hochtaktende GPU doch viel besser sei. - Ja was soll es denn nun sein? ;-)

Einfach mal abwarten was kommt. Aktuell gibt es keine eindeutige Indikation und letzten Endes gibt es auf die Frage des "ultimativen Herrschaftsanspruchs" insgesamt nicht einmal eine eindeutige Gesamtantwort, denn einen Teil des Marktes interessiert nichts, was unterhalb von 800 € abläuft und einen anderen Teil des Marktes interessiert bspw. nichts, was jenseits der 500 € passiert. Einfach entsprannt zurücklehnen und die Show genießen. Im best case bekommen als nächstes erst mal nVidia und AMD gleichermaßen einen auf den Deckel von Intel, weil die einen HighVolumen-Launch in Verbindung mit einem aggressiven Preis tatsächlich bei Xe-HPG umsetzen ... was dann ein halbes oder gar erst dreiviertel Jahr später passsiert (oder auch nicht) ist noch ein ganzes Weilchen hin.
 

Chatstar

BIOS-Overclocker(in)
ja klar aber man sollte hier auch langsam mal einsehen, dass AMD zurück im Highend ist und das Zeug hat Nvidia zu schlagen also die Möglichkeit sollte zumindest in Betracht gezogen werden.
Denn erst wenn man sich darüber einig ist, kann man über den Rest vernünftig reden.
 

BigBoymann

Software-Overclocker(in)
Alder Lake hat nichts mit MCM zun tun. Das ist ein monolithisches Design, zudem mit zwei unterschiedlichen Kernen, die grundlegend jedoch die gleiche ISA unterstützen. Etwaige Probleme dürften da relativ schnell ausgemerzt sein (denn Microsoft und Intel sind da ja schon lange an dem Thema dran; bei Zen war es ja damals auch kein Problem dem eine gewisse "Anlauf/Reifezeit" zuzugestehen).
Bei GPUs wird man abwarten müssen, was das im 2HJ22 werden wird. Intel ist mit Xe ja grundlegend auch auf MCM aus, dass das vermutlich noch nicht zeitnah kommt scheint darauf hinzudeuten, dass man das fertigungstechnisch noch nicht (verbrauchs)effizient mit 7 nm anbieten kann oder man (software)technisch noch nicht so weit ist oder man einfach nur nicht mit extrem teuerer Hardware in den GPU-Markt einsteigen will, ohne sich schon zuvor zumindest ein wenig etabliert zu haben. Mögliche Gründe mag es da viele geben.
Interessant dürfte sein, ob nVidia tatsächlich noch mal meint mit einem rein monolithischen Design auskommen zu kommen. Letzten Endes muss aber auch nVidia nicht zwangsweise jeden Schritt mitgehen, denn am Ende gibt es kein Krönchen für eine absoluten Leistungsgewinner sondern für Umsatzerfolge. Deren Architektur könnte am Ende dennoch leistungsstärker sein und die ersparen sich vielleicht lediglich ein extrem teueres MCM-Produkt in dieser Gen? Man weiß es nicht. Einfach mal abwarten. Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise. Die sind der Marktführer und bei GPUs handelt es sich um ihr Kerngeschäft; da werden die zweifellos nicht däumchendrehend dasitzen und abwarten ...

@Chatstar: Looool, 400 % entweder hat der keine Ahnung von Prozentrechnung (völlig egal ob relativ oder absolut gemeint) oder der ist ins Traumland entschwebt und versucht sich Follower wie dich zu angeln, die dankbar für jeden zusätzlichen ganzzahlingen Multiplikator sind. ;-)
Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.
Du scheinst mich falsch verstanden zu haben, mir ging es hierbei beileibe nicht um Probleme hinsichtlich eines MCM Designs, mir ging es eher um die Probleme die ein "neues Design" mit sich bringen kann und in der Regel wird.

Auch habe ich nicht versucht zu behaupten, dass Probleme nicht behoben werden können, weder bei Intels Alder Lake, noch bei AMDs MCM.

Kurz zu Intel, hier gehe ich davon aus, dass es der Windows Scheduler zwar schaffen wird, Tasks sinnvoll zu verteilen, könnte mir aber gerade zu Beginn vorstellen, dass es Probleme gibt. Denn in meinen Augen ist ja nicht bei jedem Task zu Beginn klar, wieviel Leistung er brauchen wird. Wenn jetzt beispielsweise (mir ist bewusst, dass das viel zu einfach gedacht ist; aber ich habe gerade keine Ahnung wie ich es sonst beschreiben soll), ein Level geladen wird, dann wird ein gewisser Task die meiste Leistung benötigen, dieser wird in einen schnellen Kern geladen, wenn dann ein Task im Spiel schon mitläuft, benötigt der nicht viel und wird in einen kleinen Kern geladen. Ich denke, wenn hier geswitcht wird, kann das Leistung kosten und sich im schlimmsten Fall sogar bemerkbar machen.

Bzgl. des MCM Designs von AMD, die 400% halte ich in Summe auch für übertrieben. Allerdings würde ich das Ganze nicht so abledern wie du es tust. Wenn AMD mit der dreifachen Shadermenge kommt, würde das für die dreifache Leistung sprechen, jetzt muss natürlich der Takt reduziert werden, da wir sonst, selbst im 5nm Prozess bei der 2,5 fachen Leistungsaufnahme liegen würden. Das die Leistungsaufnahme steigt, ist ja irgendwie schon geteasert, wenn wir einfach blöd mit 500W rechnen, wobei ich von Boardpower ausgehe, dann haben wir runde 70% mehr Energie die zur Verfügung steht. Dazu hat AMD angekündigt, dass ein großer IPC Boost und Effizienzgewinn kommen wird. Daher spricht hier schon sehr viel dafür, dass ein erheblicher Boost in der Leistung kommen wird, ich denke, bzw. ich hoffe, dass eine Verdoppelung oder mehr stattfinden wird. Was dafür spricht? Die bisher geleakten Infos, 420W Leistungsaufnahme waren da im Gespräch und 50% mehr Effizienz sind auch schon gefallen, rechnen wir 1+1 zusammen, haben wir ausgehend von 300W bei der 6900XT, bereits das 1,4 fache an Leistungsaufnahme, bei 1,5 facher Effizienz, würde ich dann grob von 2,1 als Faktor bei der Leistung ausgehen.

Wobei hier Leistung, wie schon im ersten Post angedeutet, für mich nicht die FPS in Spiel X sind, sondern die theoretische Leistung. Gerade das haben wir in der Vergangenheit bei AMD leider sehr häufig zu Gesicht bekommen, dass sie brachiale theoretische Leistungen rausgehauen haben, in der realen Leistung in der Praxis dann aber zu oft doch deutlich hinter NV lagen. Das MCM Design ist in meinen Augen zwar der richtige Schritt und man wird von den Erfahrungen mitunter längerfristig profitieren. Aber es kann auch blöd ausgehen, man leistet die Pionierarbeit, wenn MCM dann funktioniert kommt NV mit seinem Chip hinterher und vorher kommen sie noch einmal mit dem großen monolithischen Design daher, gegen das AMD trotz haushoch überlegener theoretischer Leistung in der Praxis nicht mithalten kann.
Alles kann, nichts muss ist aber hier sicherlich Hauptteil des Posts (auch bzgl. des Intel Teils). Man wird es wie immer erst gesichert wissen wenn die Chips kommen. Aktuell ist die Lage am Markt, abseits der Preise, wieder mal richtig gut. Sowohl bei den GPUs als auch bei den CPUs sind beide Konkurenten nah beieinander und da Konkurenz das Geschäft belebt sollten wir alle hoffen, dass dies lange so bleibt.
 

gerX7a

BIOS-Overclocker(in)
@Chatstar: Das mit dem "vernünftig reden" unterminierst du ja immer selbst, insbesondere da du dir hier auch noch klar widersprichst. Hier schreibst du auf einmal davon, dass man jetzt nur noch die Möglichkeit in Betracht ziehen sollte, dass AMD nVidia auch mal schlagen könnte (natürlich könnte das mal passieren, das hat auch keiner bestritten), du dagegen hast davor aber unentwegt schon von vollendeten Tatsachen gesprochen (wie übrigens auch schon im Vorfeld zu RDNA2 ;-)), d. h. da ging es dir um keine Möglich- oder Wahrscheinlichkeiten bzw. eigentlich hast du einen anderen Ausgang als einen Erdrutschsieg von AMD gar schon grundsätzlich ausgeschlossen ... in Ermangelung jedweder Fakten ... nicht schlecht. ;-)

Ergänzend, welcher "man" sollte den hier mal "langsam was einsehen"? Da gibt es nichts einzusehen, denn einsehen, einlenken, anders oder neu bewerten kann man nur bei irgendwelchen Meinungen und gefühlsbetonten Dingen. Hier geht es um leicht und präzise vermessbare Technik, konkret gar um Bestandstechnik, d. h. da gibt es keinen Spekulatius. Ein Blick in einen soliden Benchmark reicht und man weiß woran man ist. Grob ist RDNA2's Topmodell in etwa auf Augenhöhe mit nVidias beiden Topmodellen und wenn man einen Fokus auf Raytracing hat oder dieses in einer langfristigen Perspektive höher bewertet, kippt das Pendel zugunsten von Ampere.

Ein bisschen hin- und herschieben bzgl. einer persönlichen Gesamtbewertung kann man bestenfalls bzgl. der diversen Features und Punkten wie Produkt- und Treiberqualität, -haltbarkeit, usw., aber diese Punkte gewichtet jeder nach seinem persönlichen Gusto individuell und bei einigen fließt vielleicht gar noch so etwas ein wie ob er/sie grün lieber als rot mag, was auch immer das an den Fps ändern mag(?), aber die reinen Benchmarkergebnisse sind am Ende einfach weitestgehend abzulesender Fakt und nichts auslegbares, interpretierbares a la geworfenen Hühnerknochen und Krähenfüße. ;-)


@BigBoymann: Ja, dann habe ich deine Verknüpfung mit RDNA3, MCM und Alder Lake tatsächlich falsch verstanden. Das betrifft dann aber nur meinen einleitenden Absatz, der Rest dort hat nach wie vor Bestand. Ergänzend zu deinem zweiten Post:

"Intel": Die Probleme werden aber dennoch zwangsläufig nur geringerer Art sein, da es eine unified ISA ist und die Gracemont-Kerne angeblich schon auf Skylake-Niveau liegen werden und daher kostet eine unglückliche Zuweisung bestenfalls ein wenig Performance, übrigens wie es auf Zen ebenso der Fall war.
Darüber hinaus, bei den Tasks/Threads/Prozessen muss im allgemeinesten Fall nichts im Vorfeld bekannt sein. Der Scheduler kann einen Prozess jederzeit umlegen, d. h. im einfachsten Fall bspw. könnte man am Energiesparplan festmachen:
a) sparsam
- Neue Prozesse auf GM-Kerne, wenn eine sehr hohe Kernauslastung beobachtet wird, umlegen auf einen GC-Kern.
b) highPerf
- neue Prozesse direkt auf einen GC-Kern, wenn eine vergleichsweise geringe Auslastung beobachtet wird, umlegen auf einen sparsamen, langsameren GM-Kern, den der Prozess dann möglicherweise gar für sich komplett alleine hat.

Darüber hinaus könnte sich der Scheduler zur Laufzeit eine Whitelist anlegen, d. h. tauchen die Prozesse im Laufe des Tages erneut auf, kann das Zuweisen auf Verdacht bspw. grundsätzlich entfallen, da man sich die letzten Zuweisung gemerkt hat?
Weitere Überlegung. Die Auslastungsschwellenwerte zur Umlegung könnte man ebenso vom Energiesparplan abhängig machen, ebenso auch die zeitliche Dauer, nach der man überhaupt das erste Mal bewertend auf eine Auslastung draufschaut.

Weitere Überlegung: Hintergrundprozesse sehe ich in meinem Windows reihenweise, die können pauschal alle auf die GM-Kerne ... und halten mir damit die GC-Kerne frei.

Weitere "Übergangsstrategie" ohne SW-Indikator: Einen HighPerf-Prozess (erzeugt sehr hohe Auslastung), also offensichtlich eine oder gar die Hauptapplikation, könnte man so behandeln, dass man diese und ihre anhängenden Threads erst mal reihum auf die GC-Kerne verteilt und GM-Kerne hierfür nur verwendet, wenn alle GC-Kerne gut ausgelastet sind.

Der best Case wäre natürlich, dass zukünftige Software ein Flag setzt, anhand derer der Scheduler erkennen kann, dass ein HighPerf-Thread oder ein Minor-Thread mit geringeren Anforderungen betrieben wird.

Letzten Endes aber alles plausible Strategien und da man an derartigen Themen schon mit Windows on ARM dransitzt und zudem auch noch Lakefield als Piloten hatte, der es gar in fertige Produkte schaffte, werden die sich da sicherlich schon ein paar Lösungen haben einfallen lassen.

"AMD, 400 %, abledern": Tue ich auch nicht, 400 % sind nur vollkommener Unsinn und wie schon oben erklärt gar noch explizit falsch zitiert worden, denn konkret erklärte hier Leonidas bestenfalls etwas von 270 % oder aber +170 %. Das ist schon ein gewaltiger Unterschied. ;-)
Darüber hinaus schränkst du die Erwarungshaltung ja auch selbst sinnvollerweise ein, denn energetische/thermische Aspekte werden der Skalierung hier einen Riegel vorschieben.
Aber du scheinst mich ebenso falsch zu verstehen, denn bei mir war nirgends zu lesen, dass ich AMD grundsätzlch in Abrede stelle hier einen signifkanten Leistungszugewinn zu erzielen. Dafür gibt es gar keinen Grund. Chatstar's Aussagen beschränkten sich aber nicht darauf, sondern beschworen gleich noch den Untergang von nVidia herauf, ohne jedweden belastbaren Fakt (denn bisher ist ausnahmslos alles ein vages Gerücht) und auch komplett den Umstand ignorierend, dass das selbstredend nicht in nVidia's Interesse sein kann, d. h. es ist nicht anzunehmen, dass die das teilnahmslos geschehen lassen werden.

Ergänzend: Zu GPUs glaube ich nicht, dass AMD hier irgend eine Pionierarbeit leistet. Die sind fabless wie auch nVidia und beide setzen auf die Technologien von TSMC und hier fällt es schwer anzunehmen, dass AMD hier technologisch irgendwas kann, was nVidia nicht kann, zumal man sich bei den Rerssourcen von nVidia leicht ausrechenen kann, dass da prototyping-mäßig weitaus mehr entwickelt und evaluiert wird als bei AMD. AMD hat nicht umsonst so lange gebraucht, bis man mit RDNA2 im HighEnd zurück war und bis man endlich dedizierte Datacenter-Produkte angehen konnte.
Ebenso dürfte auch Intel, wenn man sich deren Portfolio ansieht, Packaging-technisch deutlich stärker aufgestellt sein.
Hier sollte man nicht den Umstand, dass man ein konkretes Produkt in der Bauweise sieht oder auch nicht, damit verwechseln, dass man es nicht so bauen könnte, weil man die Technologie oder Expertise nicht hat. Am Ende werden wirtschaftliche Erwägungen das Vorgehen diktieren und das Design mittels MCM zu verkomplizieren ist nicht in jedem Fall das Allheilmittel. Entsprechenden Überlegungen dürfte auch nVidias folgen, wenn die tatsächlich der Meinung sind, dass sie für Lovelace noch kein MCM benötigen. Vielleicht wären die sogar bereit dazu die absolute Performancekrone im HighEnd aufzugeben, wenn ihnen das einen wirtschaftlichen Vorteil beschert, indem sie weiter monolithische Designs für die kommende Gen fertigen? Abwegig wäre das nicht mal unbedingt, denn nochmals teuere MCM-Designs werden vorrangig im HighEnd verwendet werden, wo man das einpreisen kann und ersten Gerüchten zufolge (MLiD) soll das RDNA3-Topmodell gar extrem teuer werden.
Darüber hinaus um das ganze abzurunden: Bei Intel ging man aufgrund von Xe-HP ja schon früh davon aus, dass HPG auch als MCM kommen könnte und sieht man sich die grundlegende Architekturan, dann hat diese Annahme auch weiterhin Bestand und es ist nur eine Frage der Zeit bis Intel auch hier mit einem MCM kommt. Der HPG-Nachfolger "Elasti" ist bereits für 2023 angekündigt und der Name könnte schon entsprechendes implizieren. (David Blythe erklärte zu Xe bereits, das die Architektur bis zu Tausenden von EUs skalierbar ist, bspw. wenn die in 2023 das Design von TSMCs 7 nm auf ihre 7nm bzw. jetzt Intel 4 umlegen, könnte die ebenso ein massives MCM-Consumer-Design anbieten und mit 2023 wäre sie im Idealfall wieder genau in die Mitte der Releasezyklen der großen zwei etablierten Hersteller.)

Es bleibt spannend und man wird abwarten müssen, was die einzelnen Player hier machen werden. Die allgemeine Mär vom umtriebigen AMD als genialer Hand-Dampf-in-allen-Gassen und der schwerfälligen oder gar minderbemittelten Konkurrenz, die deren Treiben nur tatenlos zusehen kann ist jedoch offensichtlich komplett falsch. nVidia hat sicherlich kein Interesse daran sich in seinem Kerngeschäft vom Underdog die Butter vom Brot nehmen zu lassen und Intel hat, selbst wenn man nicht alles vom Intel Accelerated Event 1:1 für bare Münze nimmt, gezeigt, dass die auch nicht untätig sind, sondern eher im Gegenteil extrem umtriebig in der Technologieentwicklung (und selbstredend absehbar auch in der Produktentwicklung).
 
Zuletzt bearbeitet:

Thepunisher2403

PC-Selbstbauer(in)
Nur gibt es derzeit keinerlei leaks die auch nur annähernd in diese Richtung gehen.
Leonidas vom 3dCenter spricht hingegen belastbar von 400% Mehrleistung bei RNDA3 ggeü. RDNA2.
Aber lassen wir uns überraschen aber ich glaube, dass AMD diesmal mit mcm die deutlich stärkeren GPUs am Start haben wird.
400 % ja genau in welchen Träumen hast das wieder gesehen oder gelesen

Sagmal reichtves nicht endlich das du immer wieder Gerüchte als Fakten deklarieren willst und jedes mal liegst du sowas von falsch...

Kannst du nicht einfach mal es sein lassen....oder hast du keine anderen Hobbys...
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
Also ich bekomme meine 3090 ganz easy mit eine wakü gekühlt (meine kann bis zu 550w ziehen)

Man muss nur die richtige wakü zusammen stellen...
 

Chatstar

BIOS-Overclocker(in)
Verstehe das nicht, das ist doch hier eine AMD News und man wurde eingeladen mit zu spekulieren, nichts anderes hab ich getan, dazu noch ziemlich reflektiert.

Warum fahren mir immer dieselben grünen Leute voll in die Karre? :sabber:
 

Thepunisher2403

PC-Selbstbauer(in)
AMD ALUs sind keine NV ALUs - sieht man ja aktuell wo die 6900XT trotz 5120 SPs mit der 3090 10752 SPs Schlitten fährt. Auch da wieder für die Nachfolger: AMD Faktor 3 mehr. NV nur 1,8.
Schlitten fährt

Fängst du schon wieder an falsche Fakten zu streuen...
Hat das letzte mal nicht gereicht wo ich un ein anderer User dir mit aktuellen Tests jeweils das Gegenteil bewiesen haben....
Und komm mir jetzt nicht wieder mit full hd 😉
ja klar aber man sollte hier auch langsam mal einsehen, dass AMD zurück im Highend ist und das Zeug hat Nvidia zu schlagen also die Möglichkeit sollte zumindest in Betracht gezogen werden.
Denn erst wenn man sich darüber einig ist, kann man über den Rest vernünftig reden.
Dann fang erstmal bei dir an

Du bist nämlich eine der wo AMD immer do hoch in den Himmel lobt aber dann nie die Wahrheit hören will denn mit Kritik kannst du mal gar nicht umgehen

Keiner bestreitet das amd wieder oben mit dabei is aber um NVIDIA zu schlagen fehlt da schon noch ordentlich was
 

BigBoymann

Software-Overclocker(in)
Also ich bekomme meine 3090 ganz easy mit eine wakü gekühlt (meine kann bis zu 550w ziehen)

Man muss nur die richtige wakü zusammen stellen...
Naja, was für eine Wakü hasste denn?

Ein 420er Radiator kühlt meines Wissens bis 300W gut weg, darüber hinaus, kann es unter Dauerbelastung schon schwierig werden, wobei schwierig wahrscheinlich noch falsch ist, sondern deutlich wärmer werden. Bei 500W Dauerlast von der Grafikkarte brauchst du in meinen Augen mind. zwei Radiatoren von der größeren Sorte. Da kann ich dann nur sagen, kann man machen, kommt aber eben meist auf das Case an, ich kann einen 420er und einen 360er montieren, 700W würde ich damit wahrscheinlich gekühlt bekommen, aber alles andere als komfortabel.
Schlitten fährt

aber um NVIDIA zu schlagen fehlt da schon noch ordentlich was
Beschwerst dich über einen "dummen" Kommentar und haust im Anschluss selber einen davon raus? Was ist denn für dich ordentlich? Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
 

Thepunisher2403

PC-Selbstbauer(in)
Naja, was für eine Wakü hasste denn?

Ein 420er Radiator kühlt meines Wissens bis 300W gut weg, darüber hinaus, kann es unter Dauerbelastung schon schwierig werden, wobei schwierig wahrscheinlich noch falsch ist, sondern deutlich wärmer werden. Bei 500W Dauerlast von der Grafikkarte brauchst du in meinen Augen mind. zwei Radiatoren von der größeren Sorte. Da kann ich dann nur sagen, kann man machen, kommt aber eben meist auf das Case an, ich kann einen 420er und einen 360er montieren, 700W würde ich damit wahrscheinlich gekühlt bekommen, aber alles andere als komfortabel.

Beschwerst dich über einen "dummen" Kommentar und haust im Anschluss selber einen davon raus? Was ist denn für dich ordentlich? Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
also erstmal kommt es auf die komponeten an die du verbaut hast.
eine wakü braucht gute lüfter, eine gute pumpe und gute radiatoren (schlechte, billige gegen sehr hohe verbeitete können schon einige °C ausmachen)

für radiatoren gibt es ne fausformel für die anzahl (pro 100mm fläche 100watt)
dann braucht man ein geeignetes case (oder baut es etwas um, wie in meinem fall) aber fast alle neuere case kannst eassy auf wakü umbauen, da muss man halt planen...

ich hab 3 radiatoren verbaut
hardwarelabs gtx black nemesis (360 oben, 280er unten, vorne 200er alphacool xt45

dann kommt es auf die lüfter an mit noctua kriegst du alles sehr schön geküht und hast es trz schön leise
3x 200er noctua a20 (oben 2, seitlich 1er und vorne 1er
2x 140er p14 arctic

pumpe/Ausgleichsbehälter: Ultitube D5 next mit Ausgleichsbehälter
Kühler : intel cryo cooler

Viel kann man bei der gpu noch mit besseren wärmeleitpads und flüssigmetall rausholen

Ich würde lieber vollständig ziteren und nicht nur die Hälfte.....
Fakt ist in UHD fehlt in vielen spielen schon gute 10 % (teilweise auch mehr) und in raytracing is es auch schon noch eine gute ecke wo se zulegen müssen sieht man ja in raytracin spielen recht gut...Tests belegen das ja gut...

was man von amdler immer hört meint man ja gerade man ist entweder gleichauf mit der 3090 oder sogar schneller (und jedes mal wenn eine neue gen kommt wird wieder behauptet das amd nvidia haushoch schlägt...
fakt ist das man aufgeholt hat aber immer noch ein stück weg ist... in allen bereichen...
 

raPid-81

Software-Overclocker(in)
Verstehe das nicht, das ist doch hier eine AMD News und man wurde eingeladen mit zu spekulieren, nichts anderes hab ich getan, dazu noch ziemlich reflektiert.

Warum fahren mir immer dieselben grünen Leute voll in die Karre? :sabber:
Das werden wir so lange machen bis Du aufhörst zu versuchen aus Gerüchten Fakten zu schaffen. Übrigens wilderst Du in "NV Threads" auch ordentlich, also schön den Ball flach halten...

Es gibt hier keine "grünen" / "roten" Threads, hier darf jeder überall seine Kommentare abgeben. Und wo Unfug steht schreibe ich halt drunter was ich davon halte.


Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
Absolut, Rasterization auf Augenhöhe (FHD minimal vorne, WQHD quasi Gleichstand, 4K minimal hinten). RT Leistung etwas schwächer. FSR ist DLSS technisch unterlegen und braucht noch etwas Zeit was Verbreitung angeht.

Ich würde mich freuen wenn RDNA3 die doppelte Leistung bei minimal höherer TDP für einen erschwinglichen Preis bietet. RT auf Augenhöhe wäre für mich allerdings genauso wichtig wie ein aufgebohrtes FSR mit DirectML (oder sonstigem deep-learning Ansatz).

Wir werden sehen wie es Ende 2022 aussieht. Bis dahin vielleicht nicht gaaanz so weit aus dem Fenster lehnen. Komme mir hier vor wie in einer Zeitschleife, zu jeder neuen Gen höre ich dasselbe und am Ende hat NV die Nase vorn was technische Innovationen angeht. :schief:
 
Oben Unten