Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

Ich bin auch auf die TDPs gespannt, hab zwar eine Wasserkühlung die auch 500W wegkühlen könnte, aber selbst die OC 350W sind mir zu viel Wärme im Raum. Gesamtsystem muss bei max 400W dauer Heizleistung bleiben.
 
@Chatstar: Ich muss mich korrigieren, nicht Leonidas ist hier der "unbedarfte Vogel". Leonidas schreibt hier konkret:
"AMDs RDNA3-Generation soll hingegen in Form des Navi-31-Chips das 2,5fache bis sogar 2,7fache gegenüber Navi 21 erbringen"
Wie du daraus 400% zauberst, ist mit schleierhaft. Das scheint schon eher pathologisch bei dir zu sein, dass sämtliche Zahlenwerte bei dir in Verbindung mit AMD immer größer werden oder wie versucht du so etwas zu erklären/rechtfertigen? (Das mit dem falschen Zitieren hatten wir doch erst letztens bei dir ...)
 
Zuletzt bearbeitet:
OK 2,7 fache halt, da hab ich falsch im Kopf gehabt.

Was euch ständig passiert, kann mir ja auch mal passieren. ;)
Natürlich, du ranzt deinen Chef am Monatsende wahrscheinlich wg. der Abrechnung an und sagst "Hey, da fehlt aber was, wir hatten doch 4500 € monatlich vereinbart." - "Öh, nein, vereinbart waren 2315 €." - "Oh, dann hatte ich das wohl falsch in Erinnerung, ist ja fast das gleiche."

Witzigerweise hast du den gleichen Satz von wegen, "passiert euch doch ständig" beim letzten mal auch zum Besten gegeben. Wer ist "euch"? Eigentlich fällst hier nur du mir mit derartigem Unsinn auf und beim letzten Mal (ist gar nur zwei, drei Wochen her) war es gar ein bewusst von dir verfälschtes Zitat um deine perönliche Agenda zu verfolgen.

Da bei NV ja nur von maximal 70-80% mehr Leistung gesprochen wird, dürfte die Sache trotzdem klar ausgehen.
Das weiß man noch nicht. Hier wird man einfach abwarten müssen. Beispielsweise Chatstar's Leonidas schreibt, dass AMD insgesamt mit 15.360 FP32-ALUs aufwarten wird (insgesamt, über beide Chips), nVidia dagegen wird mit 18.432 FP32-ALUs aufwarten. Unterm Strich sieht das erst mal längst nicht so eindeutig aus, wie es speziellere Gemüter hier darzulegen versuchen und je weiter man sich im Portfolio runter bewegt, desto weniger kann MCM seinen Vorteil ausspielen, insbesondere, da es ab einer gewissen Produktklasse aus kostengründen auch gar nicht mehr eingesetzt werden wird. Einfach mal abwarten ...

Zudem sollte man aber auch Leonidas' Fussnote berücksichtigen, die zweifellos so mancher auch gerne bewusst überliest und bei Zitierungen unter den Tisch fallen lässt:
"Anmerkung: reine Wiedergabe von Gerüchten – keine offiziellen Daten"
 
Zuletzt bearbeitet:
AMD ALUs sind keine NV ALUs - sieht man ja aktuell wo die 6900XT trotz 5120 SPs mit der 3090 10752 SPs Schlitten fährt. Auch da wieder für die Nachfolger: AMD Faktor 3 mehr. NV nur 1,8.
Der Einwand ist leider wertlos, da man bereits weiß, dass AMD RDNA3 anscheinend umfangreich umgebaut hat, dementsprechend kann der nichts ausschließen oder erklären.
RDNA2 verwendete in Navi21 40 WGPs zu 5.120 FP32-ALUs. Jetzt in RDNA3 sollen es auf einmal nur noch pro Chip 30 WGPs zu jedoch 7.680 FP32-ALUs sein. Das ist exakt eine Verdoppelung der ALUs pro WGP, ein Schelm, wer da an nVidia's Amepre denkt. ;-)

Darüber hinaus: Man erinnere sich noch, wie Cerny rund um die PS5 und RDNA2 der Community erklären wollte, wie ungünstig doch viele Shader sind bzgl. der Auslastung und dass eine kleine und hochtaktende GPU doch viel besser sei. - Ja was soll es denn nun sein? ;-)

Einfach mal abwarten was kommt. Aktuell gibt es keine eindeutige Indikation und letzten Endes gibt es auf die Frage des "ultimativen Herrschaftsanspruchs" insgesamt nicht einmal eine eindeutige Gesamtantwort, denn einen Teil des Marktes interessiert nichts, was unterhalb von 800 € abläuft und einen anderen Teil des Marktes interessiert bspw. nichts, was jenseits der 500 € passiert. Einfach entsprannt zurücklehnen und die Show genießen. Im best case bekommen als nächstes erst mal nVidia und AMD gleichermaßen einen auf den Deckel von Intel, weil die einen HighVolumen-Launch in Verbindung mit einem aggressiven Preis tatsächlich bei Xe-HPG umsetzen ... was dann ein halbes oder gar erst dreiviertel Jahr später passsiert (oder auch nicht) ist noch ein ganzes Weilchen hin.
 
ja klar aber man sollte hier auch langsam mal einsehen, dass AMD zurück im Highend ist und das Zeug hat Nvidia zu schlagen also die Möglichkeit sollte zumindest in Betracht gezogen werden.
Denn erst wenn man sich darüber einig ist, kann man über den Rest vernünftig reden.
 
Alder Lake hat nichts mit MCM zun tun. Das ist ein monolithisches Design, zudem mit zwei unterschiedlichen Kernen, die grundlegend jedoch die gleiche ISA unterstützen. Etwaige Probleme dürften da relativ schnell ausgemerzt sein (denn Microsoft und Intel sind da ja schon lange an dem Thema dran; bei Zen war es ja damals auch kein Problem dem eine gewisse "Anlauf/Reifezeit" zuzugestehen).
Bei GPUs wird man abwarten müssen, was das im 2HJ22 werden wird. Intel ist mit Xe ja grundlegend auch auf MCM aus, dass das vermutlich noch nicht zeitnah kommt scheint darauf hinzudeuten, dass man das fertigungstechnisch noch nicht (verbrauchs)effizient mit 7 nm anbieten kann oder man (software)technisch noch nicht so weit ist oder man einfach nur nicht mit extrem teuerer Hardware in den GPU-Markt einsteigen will, ohne sich schon zuvor zumindest ein wenig etabliert zu haben. Mögliche Gründe mag es da viele geben.
Interessant dürfte sein, ob nVidia tatsächlich noch mal meint mit einem rein monolithischen Design auskommen zu kommen. Letzten Endes muss aber auch nVidia nicht zwangsweise jeden Schritt mitgehen, denn am Ende gibt es kein Krönchen für eine absoluten Leistungsgewinner sondern für Umsatzerfolge. Deren Architektur könnte am Ende dennoch leistungsstärker sein und die ersparen sich vielleicht lediglich ein extrem teueres MCM-Produkt in dieser Gen? Man weiß es nicht. Einfach mal abwarten. Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise. Die sind der Marktführer und bei GPUs handelt es sich um ihr Kerngeschäft; da werden die zweifellos nicht däumchendrehend dasitzen und abwarten ...

@Chatstar: Looool, 400 % entweder hat der keine Ahnung von Prozentrechnung (völlig egal ob relativ oder absolut gemeint) oder der ist ins Traumland entschwebt und versucht sich Follower wie dich zu angeln, die dankbar für jeden zusätzlichen ganzzahlingen Multiplikator sind. ;-)
Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.
Du scheinst mich falsch verstanden zu haben, mir ging es hierbei beileibe nicht um Probleme hinsichtlich eines MCM Designs, mir ging es eher um die Probleme die ein "neues Design" mit sich bringen kann und in der Regel wird.

Auch habe ich nicht versucht zu behaupten, dass Probleme nicht behoben werden können, weder bei Intels Alder Lake, noch bei AMDs MCM.

Kurz zu Intel, hier gehe ich davon aus, dass es der Windows Scheduler zwar schaffen wird, Tasks sinnvoll zu verteilen, könnte mir aber gerade zu Beginn vorstellen, dass es Probleme gibt. Denn in meinen Augen ist ja nicht bei jedem Task zu Beginn klar, wieviel Leistung er brauchen wird. Wenn jetzt beispielsweise (mir ist bewusst, dass das viel zu einfach gedacht ist; aber ich habe gerade keine Ahnung wie ich es sonst beschreiben soll), ein Level geladen wird, dann wird ein gewisser Task die meiste Leistung benötigen, dieser wird in einen schnellen Kern geladen, wenn dann ein Task im Spiel schon mitläuft, benötigt der nicht viel und wird in einen kleinen Kern geladen. Ich denke, wenn hier geswitcht wird, kann das Leistung kosten und sich im schlimmsten Fall sogar bemerkbar machen.

Bzgl. des MCM Designs von AMD, die 400% halte ich in Summe auch für übertrieben. Allerdings würde ich das Ganze nicht so abledern wie du es tust. Wenn AMD mit der dreifachen Shadermenge kommt, würde das für die dreifache Leistung sprechen, jetzt muss natürlich der Takt reduziert werden, da wir sonst, selbst im 5nm Prozess bei der 2,5 fachen Leistungsaufnahme liegen würden. Das die Leistungsaufnahme steigt, ist ja irgendwie schon geteasert, wenn wir einfach blöd mit 500W rechnen, wobei ich von Boardpower ausgehe, dann haben wir runde 70% mehr Energie die zur Verfügung steht. Dazu hat AMD angekündigt, dass ein großer IPC Boost und Effizienzgewinn kommen wird. Daher spricht hier schon sehr viel dafür, dass ein erheblicher Boost in der Leistung kommen wird, ich denke, bzw. ich hoffe, dass eine Verdoppelung oder mehr stattfinden wird. Was dafür spricht? Die bisher geleakten Infos, 420W Leistungsaufnahme waren da im Gespräch und 50% mehr Effizienz sind auch schon gefallen, rechnen wir 1+1 zusammen, haben wir ausgehend von 300W bei der 6900XT, bereits das 1,4 fache an Leistungsaufnahme, bei 1,5 facher Effizienz, würde ich dann grob von 2,1 als Faktor bei der Leistung ausgehen.

Wobei hier Leistung, wie schon im ersten Post angedeutet, für mich nicht die FPS in Spiel X sind, sondern die theoretische Leistung. Gerade das haben wir in der Vergangenheit bei AMD leider sehr häufig zu Gesicht bekommen, dass sie brachiale theoretische Leistungen rausgehauen haben, in der realen Leistung in der Praxis dann aber zu oft doch deutlich hinter NV lagen. Das MCM Design ist in meinen Augen zwar der richtige Schritt und man wird von den Erfahrungen mitunter längerfristig profitieren. Aber es kann auch blöd ausgehen, man leistet die Pionierarbeit, wenn MCM dann funktioniert kommt NV mit seinem Chip hinterher und vorher kommen sie noch einmal mit dem großen monolithischen Design daher, gegen das AMD trotz haushoch überlegener theoretischer Leistung in der Praxis nicht mithalten kann.
Alles kann, nichts muss ist aber hier sicherlich Hauptteil des Posts (auch bzgl. des Intel Teils). Man wird es wie immer erst gesichert wissen wenn die Chips kommen. Aktuell ist die Lage am Markt, abseits der Preise, wieder mal richtig gut. Sowohl bei den GPUs als auch bei den CPUs sind beide Konkurenten nah beieinander und da Konkurenz das Geschäft belebt sollten wir alle hoffen, dass dies lange so bleibt.
 
@Chatstar: Das mit dem "vernünftig reden" unterminierst du ja immer selbst, insbesondere da du dir hier auch noch klar widersprichst. Hier schreibst du auf einmal davon, dass man jetzt nur noch die Möglichkeit in Betracht ziehen sollte, dass AMD nVidia auch mal schlagen könnte (natürlich könnte das mal passieren, das hat auch keiner bestritten), du dagegen hast davor aber unentwegt schon von vollendeten Tatsachen gesprochen (wie übrigens auch schon im Vorfeld zu RDNA2 ;-)), d. h. da ging es dir um keine Möglich- oder Wahrscheinlichkeiten bzw. eigentlich hast du einen anderen Ausgang als einen Erdrutschsieg von AMD gar schon grundsätzlich ausgeschlossen ... in Ermangelung jedweder Fakten ... nicht schlecht. ;-)

Ergänzend, welcher "man" sollte den hier mal "langsam was einsehen"? Da gibt es nichts einzusehen, denn einsehen, einlenken, anders oder neu bewerten kann man nur bei irgendwelchen Meinungen und gefühlsbetonten Dingen. Hier geht es um leicht und präzise vermessbare Technik, konkret gar um Bestandstechnik, d. h. da gibt es keinen Spekulatius. Ein Blick in einen soliden Benchmark reicht und man weiß woran man ist. Grob ist RDNA2's Topmodell in etwa auf Augenhöhe mit nVidias beiden Topmodellen und wenn man einen Fokus auf Raytracing hat oder dieses in einer langfristigen Perspektive höher bewertet, kippt das Pendel zugunsten von Ampere.

Ein bisschen hin- und herschieben bzgl. einer persönlichen Gesamtbewertung kann man bestenfalls bzgl. der diversen Features und Punkten wie Produkt- und Treiberqualität, -haltbarkeit, usw., aber diese Punkte gewichtet jeder nach seinem persönlichen Gusto individuell und bei einigen fließt vielleicht gar noch so etwas ein wie ob er/sie grün lieber als rot mag, was auch immer das an den Fps ändern mag(?), aber die reinen Benchmarkergebnisse sind am Ende einfach weitestgehend abzulesender Fakt und nichts auslegbares, interpretierbares a la geworfenen Hühnerknochen und Krähenfüße. ;-)


@BigBoymann: Ja, dann habe ich deine Verknüpfung mit RDNA3, MCM und Alder Lake tatsächlich falsch verstanden. Das betrifft dann aber nur meinen einleitenden Absatz, der Rest dort hat nach wie vor Bestand. Ergänzend zu deinem zweiten Post:

"Intel": Die Probleme werden aber dennoch zwangsläufig nur geringerer Art sein, da es eine unified ISA ist und die Gracemont-Kerne angeblich schon auf Skylake-Niveau liegen werden und daher kostet eine unglückliche Zuweisung bestenfalls ein wenig Performance, übrigens wie es auf Zen ebenso der Fall war.
Darüber hinaus, bei den Tasks/Threads/Prozessen muss im allgemeinesten Fall nichts im Vorfeld bekannt sein. Der Scheduler kann einen Prozess jederzeit umlegen, d. h. im einfachsten Fall bspw. könnte man am Energiesparplan festmachen:
a) sparsam
- Neue Prozesse auf GM-Kerne, wenn eine sehr hohe Kernauslastung beobachtet wird, umlegen auf einen GC-Kern.
b) highPerf
- neue Prozesse direkt auf einen GC-Kern, wenn eine vergleichsweise geringe Auslastung beobachtet wird, umlegen auf einen sparsamen, langsameren GM-Kern, den der Prozess dann möglicherweise gar für sich komplett alleine hat.

Darüber hinaus könnte sich der Scheduler zur Laufzeit eine Whitelist anlegen, d. h. tauchen die Prozesse im Laufe des Tages erneut auf, kann das Zuweisen auf Verdacht bspw. grundsätzlich entfallen, da man sich die letzten Zuweisung gemerkt hat?
Weitere Überlegung. Die Auslastungsschwellenwerte zur Umlegung könnte man ebenso vom Energiesparplan abhängig machen, ebenso auch die zeitliche Dauer, nach der man überhaupt das erste Mal bewertend auf eine Auslastung draufschaut.

Weitere Überlegung: Hintergrundprozesse sehe ich in meinem Windows reihenweise, die können pauschal alle auf die GM-Kerne ... und halten mir damit die GC-Kerne frei.

Weitere "Übergangsstrategie" ohne SW-Indikator: Einen HighPerf-Prozess (erzeugt sehr hohe Auslastung), also offensichtlich eine oder gar die Hauptapplikation, könnte man so behandeln, dass man diese und ihre anhängenden Threads erst mal reihum auf die GC-Kerne verteilt und GM-Kerne hierfür nur verwendet, wenn alle GC-Kerne gut ausgelastet sind.

Der best Case wäre natürlich, dass zukünftige Software ein Flag setzt, anhand derer der Scheduler erkennen kann, dass ein HighPerf-Thread oder ein Minor-Thread mit geringeren Anforderungen betrieben wird.

Letzten Endes aber alles plausible Strategien und da man an derartigen Themen schon mit Windows on ARM dransitzt und zudem auch noch Lakefield als Piloten hatte, der es gar in fertige Produkte schaffte, werden die sich da sicherlich schon ein paar Lösungen haben einfallen lassen.

"AMD, 400 %, abledern": Tue ich auch nicht, 400 % sind nur vollkommener Unsinn und wie schon oben erklärt gar noch explizit falsch zitiert worden, denn konkret erklärte hier Leonidas bestenfalls etwas von 270 % oder aber +170 %. Das ist schon ein gewaltiger Unterschied. ;-)
Darüber hinaus schränkst du die Erwarungshaltung ja auch selbst sinnvollerweise ein, denn energetische/thermische Aspekte werden der Skalierung hier einen Riegel vorschieben.
Aber du scheinst mich ebenso falsch zu verstehen, denn bei mir war nirgends zu lesen, dass ich AMD grundsätzlch in Abrede stelle hier einen signifkanten Leistungszugewinn zu erzielen. Dafür gibt es gar keinen Grund. Chatstar's Aussagen beschränkten sich aber nicht darauf, sondern beschworen gleich noch den Untergang von nVidia herauf, ohne jedweden belastbaren Fakt (denn bisher ist ausnahmslos alles ein vages Gerücht) und auch komplett den Umstand ignorierend, dass das selbstredend nicht in nVidia's Interesse sein kann, d. h. es ist nicht anzunehmen, dass die das teilnahmslos geschehen lassen werden.

Ergänzend: Zu GPUs glaube ich nicht, dass AMD hier irgend eine Pionierarbeit leistet. Die sind fabless wie auch nVidia und beide setzen auf die Technologien von TSMC und hier fällt es schwer anzunehmen, dass AMD hier technologisch irgendwas kann, was nVidia nicht kann, zumal man sich bei den Rerssourcen von nVidia leicht ausrechenen kann, dass da prototyping-mäßig weitaus mehr entwickelt und evaluiert wird als bei AMD. AMD hat nicht umsonst so lange gebraucht, bis man mit RDNA2 im HighEnd zurück war und bis man endlich dedizierte Datacenter-Produkte angehen konnte.
Ebenso dürfte auch Intel, wenn man sich deren Portfolio ansieht, Packaging-technisch deutlich stärker aufgestellt sein.
Hier sollte man nicht den Umstand, dass man ein konkretes Produkt in der Bauweise sieht oder auch nicht, damit verwechseln, dass man es nicht so bauen könnte, weil man die Technologie oder Expertise nicht hat. Am Ende werden wirtschaftliche Erwägungen das Vorgehen diktieren und das Design mittels MCM zu verkomplizieren ist nicht in jedem Fall das Allheilmittel. Entsprechenden Überlegungen dürfte auch nVidias folgen, wenn die tatsächlich der Meinung sind, dass sie für Lovelace noch kein MCM benötigen. Vielleicht wären die sogar bereit dazu die absolute Performancekrone im HighEnd aufzugeben, wenn ihnen das einen wirtschaftlichen Vorteil beschert, indem sie weiter monolithische Designs für die kommende Gen fertigen? Abwegig wäre das nicht mal unbedingt, denn nochmals teuere MCM-Designs werden vorrangig im HighEnd verwendet werden, wo man das einpreisen kann und ersten Gerüchten zufolge (MLiD) soll das RDNA3-Topmodell gar extrem teuer werden.
Darüber hinaus um das ganze abzurunden: Bei Intel ging man aufgrund von Xe-HP ja schon früh davon aus, dass HPG auch als MCM kommen könnte und sieht man sich die grundlegende Architekturan, dann hat diese Annahme auch weiterhin Bestand und es ist nur eine Frage der Zeit bis Intel auch hier mit einem MCM kommt. Der HPG-Nachfolger "Elasti" ist bereits für 2023 angekündigt und der Name könnte schon entsprechendes implizieren. (David Blythe erklärte zu Xe bereits, das die Architektur bis zu Tausenden von EUs skalierbar ist, bspw. wenn die in 2023 das Design von TSMCs 7 nm auf ihre 7nm bzw. jetzt Intel 4 umlegen, könnte die ebenso ein massives MCM-Consumer-Design anbieten und mit 2023 wäre sie im Idealfall wieder genau in die Mitte der Releasezyklen der großen zwei etablierten Hersteller.)

Es bleibt spannend und man wird abwarten müssen, was die einzelnen Player hier machen werden. Die allgemeine Mär vom umtriebigen AMD als genialer Hand-Dampf-in-allen-Gassen und der schwerfälligen oder gar minderbemittelten Konkurrenz, die deren Treiben nur tatenlos zusehen kann ist jedoch offensichtlich komplett falsch. nVidia hat sicherlich kein Interesse daran sich in seinem Kerngeschäft vom Underdog die Butter vom Brot nehmen zu lassen und Intel hat, selbst wenn man nicht alles vom Intel Accelerated Event 1:1 für bare Münze nimmt, gezeigt, dass die auch nicht untätig sind, sondern eher im Gegenteil extrem umtriebig in der Technologieentwicklung (und selbstredend absehbar auch in der Produktentwicklung).
 
Zuletzt bearbeitet:
Nur gibt es derzeit keinerlei leaks die auch nur annähernd in diese Richtung gehen.
Leonidas vom 3dCenter spricht hingegen belastbar von 400% Mehrleistung bei RNDA3 ggeü. RDNA2.
Aber lassen wir uns überraschen aber ich glaube, dass AMD diesmal mit mcm die deutlich stärkeren GPUs am Start haben wird.
400 % ja genau in welchen Träumen hast das wieder gesehen oder gelesen

Sagmal reichtves nicht endlich das du immer wieder Gerüchte als Fakten deklarieren willst und jedes mal liegst du sowas von falsch...

Kannst du nicht einfach mal es sein lassen....oder hast du keine anderen Hobbys...
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
Also ich bekomme meine 3090 ganz easy mit eine wakü gekühlt (meine kann bis zu 550w ziehen)

Man muss nur die richtige wakü zusammen stellen...
 
Verstehe das nicht, das ist doch hier eine AMD News und man wurde eingeladen mit zu spekulieren, nichts anderes hab ich getan, dazu noch ziemlich reflektiert.

Warum fahren mir immer dieselben grünen Leute voll in die Karre? :sabber:
 
AMD ALUs sind keine NV ALUs - sieht man ja aktuell wo die 6900XT trotz 5120 SPs mit der 3090 10752 SPs Schlitten fährt. Auch da wieder für die Nachfolger: AMD Faktor 3 mehr. NV nur 1,8.
Schlitten fährt

Fängst du schon wieder an falsche Fakten zu streuen...
Hat das letzte mal nicht gereicht wo ich un ein anderer User dir mit aktuellen Tests jeweils das Gegenteil bewiesen haben....
Und komm mir jetzt nicht wieder mit full hd ?
ja klar aber man sollte hier auch langsam mal einsehen, dass AMD zurück im Highend ist und das Zeug hat Nvidia zu schlagen also die Möglichkeit sollte zumindest in Betracht gezogen werden.
Denn erst wenn man sich darüber einig ist, kann man über den Rest vernünftig reden.
Dann fang erstmal bei dir an

Du bist nämlich eine der wo AMD immer do hoch in den Himmel lobt aber dann nie die Wahrheit hören will denn mit Kritik kannst du mal gar nicht umgehen

Keiner bestreitet das amd wieder oben mit dabei is aber um NVIDIA zu schlagen fehlt da schon noch ordentlich was
 
Also ich bekomme meine 3090 ganz easy mit eine wakü gekühlt (meine kann bis zu 550w ziehen)

Man muss nur die richtige wakü zusammen stellen...
Naja, was für eine Wakü hasste denn?

Ein 420er Radiator kühlt meines Wissens bis 300W gut weg, darüber hinaus, kann es unter Dauerbelastung schon schwierig werden, wobei schwierig wahrscheinlich noch falsch ist, sondern deutlich wärmer werden. Bei 500W Dauerlast von der Grafikkarte brauchst du in meinen Augen mind. zwei Radiatoren von der größeren Sorte. Da kann ich dann nur sagen, kann man machen, kommt aber eben meist auf das Case an, ich kann einen 420er und einen 360er montieren, 700W würde ich damit wahrscheinlich gekühlt bekommen, aber alles andere als komfortabel.
Schlitten fährt

aber um NVIDIA zu schlagen fehlt da schon noch ordentlich was
Beschwerst dich über einen "dummen" Kommentar und haust im Anschluss selber einen davon raus? Was ist denn für dich ordentlich? Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
 
Naja, was für eine Wakü hasste denn?

Ein 420er Radiator kühlt meines Wissens bis 300W gut weg, darüber hinaus, kann es unter Dauerbelastung schon schwierig werden, wobei schwierig wahrscheinlich noch falsch ist, sondern deutlich wärmer werden. Bei 500W Dauerlast von der Grafikkarte brauchst du in meinen Augen mind. zwei Radiatoren von der größeren Sorte. Da kann ich dann nur sagen, kann man machen, kommt aber eben meist auf das Case an, ich kann einen 420er und einen 360er montieren, 700W würde ich damit wahrscheinlich gekühlt bekommen, aber alles andere als komfortabel.

Beschwerst dich über einen "dummen" Kommentar und haust im Anschluss selber einen davon raus? Was ist denn für dich ordentlich? Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
also erstmal kommt es auf die komponeten an die du verbaut hast.
eine wakü braucht gute lüfter, eine gute pumpe und gute radiatoren (schlechte, billige gegen sehr hohe verbeitete können schon einige °C ausmachen)

für radiatoren gibt es ne fausformel für die anzahl (pro 100mm fläche 100watt)
dann braucht man ein geeignetes case (oder baut es etwas um, wie in meinem fall) aber fast alle neuere case kannst eassy auf wakü umbauen, da muss man halt planen...

ich hab 3 radiatoren verbaut
hardwarelabs gtx black nemesis (360 oben, 280er unten, vorne 200er alphacool xt45

dann kommt es auf die lüfter an mit noctua kriegst du alles sehr schön geküht und hast es trz schön leise
3x 200er noctua a20 (oben 2, seitlich 1er und vorne 1er
2x 140er p14 arctic

pumpe/Ausgleichsbehälter: Ultitube D5 next mit Ausgleichsbehälter
Kühler : intel cryo cooler

Viel kann man bei der gpu noch mit besseren wärmeleitpads und flüssigmetall rausholen

Ich würde lieber vollständig ziteren und nicht nur die Hälfte.....
Fakt ist in UHD fehlt in vielen spielen schon gute 10 % (teilweise auch mehr) und in raytracing is es auch schon noch eine gute ecke wo se zulegen müssen sieht man ja in raytracin spielen recht gut...Tests belegen das ja gut...

was man von amdler immer hört meint man ja gerade man ist entweder gleichauf mit der 3090 oder sogar schneller (und jedes mal wenn eine neue gen kommt wird wieder behauptet das amd nvidia haushoch schlägt...
fakt ist das man aufgeholt hat aber immer noch ein stück weg ist... in allen bereichen...
 
Verstehe das nicht, das ist doch hier eine AMD News und man wurde eingeladen mit zu spekulieren, nichts anderes hab ich getan, dazu noch ziemlich reflektiert.

Warum fahren mir immer dieselben grünen Leute voll in die Karre? :sabber:
Das werden wir so lange machen bis Du aufhörst zu versuchen aus Gerüchten Fakten zu schaffen. Übrigens wilderst Du in "NV Threads" auch ordentlich, also schön den Ball flach halten...

Es gibt hier keine "grünen" / "roten" Threads, hier darf jeder überall seine Kommentare abgeben. Und wo Unfug steht schreibe ich halt drunter was ich davon halte.


Die 6900XT ist voll auf Augenhöhe, nur in RTX fehlt was. Wenn das für dich schon ordentlich ist? Na gut, dann haben wir da unterschiedliche Definitionen.
Absolut, Rasterization auf Augenhöhe (FHD minimal vorne, WQHD quasi Gleichstand, 4K minimal hinten). RT Leistung etwas schwächer. FSR ist DLSS technisch unterlegen und braucht noch etwas Zeit was Verbreitung angeht.

Ich würde mich freuen wenn RDNA3 die doppelte Leistung bei minimal höherer TDP für einen erschwinglichen Preis bietet. RT auf Augenhöhe wäre für mich allerdings genauso wichtig wie ein aufgebohrtes FSR mit DirectML (oder sonstigem deep-learning Ansatz).

Wir werden sehen wie es Ende 2022 aussieht. Bis dahin vielleicht nicht gaaanz so weit aus dem Fenster lehnen. Komme mir hier vor wie in einer Zeitschleife, zu jeder neuen Gen höre ich dasselbe und am Ende hat NV die Nase vorn was technische Innovationen angeht. :schief:
 
Zurück