Nvidia Hopper: Die rund 20 Prozent größer als bei Ampere?

Das ist schlicht falsch. Ein Wafer wird am Stück belichtet und das ist eine deutlich größere Fläche

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Widerlegt
 
as Segment an Chips mit weniger als 1€/mm² hat bis die 3050 letzte Woche kam gar nicht stattgefunden im DIY Segment.
Kann man halt nur gar nicht so rechnen, die 3050 nutzt schließlich den gleichen Chip wie der große Bruder 3060, hier werden aller Voraussicht nach besonders teildefekte Chips genutzt werden, die als 3060 nicht verkauft werden könnten. Insofern kann man hier nicht einfach Chipfläche auf UVP runterbrechen, das sind Chips die gar nicht in den Verkauf kämen, wenn es die 3050 nicht geben würde.
 
Was wir wissen:
Samsung produziert 8nm auf 12 inch Wafern
Quelle: https://securities.miraeasset.com/bbs/download/2074906.pdf?attachmentId=2074906

TSMC produziert 7nm ebenfalls auf 12 inch (300mm) Wafern
Quelle: https://en.wikichip.org/wiki/7_nm_lithography_process

Waver und Yield kann man berechnen, Defektrate steht per Default auf durchschnittlichem Wert und der Yield soll ja auch nicht so der Brüller sein.
Hier: https://caly-technologies.com/die-yield-calculator/

Bei einem GA102 Wafer kämen wir auf 52 gute, und 36 teildefekte Dies.
Sagen wir wollen das Ergebnis an Gamer vermarkten und nicht an Datacenter, so haben wir
52x 3090 für UVP 1500€, Marktwert 78.000€
32x 3080 für UVP 700€ als Salvage, oder Totalausfälle; denken wir positiv: 22.000€

Mir ist klar, dass Nvidia nicht den UVP bekommt, aber mit irgendwas müssen wir rechnen. Zieht von den Beträgen 20% Steuer ab und dann was ihr glaubt dass bei Händlern und Herstellern kleben bleibt, wenn UVP verkauft werden würde.

Das gleiche mit dem GA104 Wafer, 102 gute, 43 mindestens Teildefekte.
102x 3070Ti für 600€ = 61.200€
43x 3060Ti für 400€ = 17.200

Egal wie man es dreht und wendet, egal ob bei Nvidia 50% vom UVP ankommen oder 40%, der größere Chip ist aktuell der rentablere weil er im Verhältnis mehr Geld einspielt. Bezieht man ein, dass der Wafer zusätzlich für Datacenter Produkte gebinnt wird, sieht es nicht gut aus für günstige Nvidia Karten. Warum Wafer auf sowas verschwenden, wenn sie die viel teuren Chips noch gut verkaufen?
 
Moment, das sehe ich immer noch etwas anders, Ampere ist letzlich als Chip nicht wirklich gut. Er ist in meinen Augen hinter RDNA2 zurückgefallen (natürlich nicht dramatisch weit) und kompensiert das durch Mehrverbrauch. Die 3090 und 6900XT liegen ziemlich gleich auf. [...]
Mit dem von mir zuletzt zitierten Satz hast du deine Begründung quasi selbst ad absurdum geführt. ;-) Noch mal zur Klarstellung. Ampere wird in einem Prozess der 10nm-Klasse gefertigt. RDNA2 verwendet einen deutlich moderneren Node der 7nm-Klasse. Samsung's Äquivalent hierzu ist deren 7LPP, wohingegen nVidia sich jedoch mit dem 8LPP (von nVidia selbst als 8N bezeichnet) begnügt. Dass das weitere Beschränkungen auferlegt, sollte klar sein, Wenn du jetzt erklärst, dass die "6900 XT und die 3090 so ziemlich gleich auf liegen", kannst du dir leicht selbst ausrechnen, wie das aussehen würde, wenn man das Ampere-Design unverändert auf TSMCs N7(P) transferieren würde. Entsprechend sind sie hier architektonisch mindestens gleich auf, wenn nicht gar leicht führend (beim Raytracing und der ML-Performance stellt sich die Frage nicht einmal) und es bleibt schlicht zu vermuten, dass sie Margen-technisch den für sie optimalen Weg gewählt haben. Sie umgehen die Konkurrenzsituation bei TSMC und fertigen hier den Großteil ihrer Chips mit einem günstigeren Prozess und können aufgrund der großvolumigen Fertigungsübertragung hin zu Samsung voraussichtlich zusätzlich noch mit guten Konditionen rechnen.

Aber nicht auf Hopper Basis [...]
Nein, natürlich nicht, denn das erwuchs ja dem Kontext, den 4thVariety aufspannte.
Nimmt man es genau, ist aktuell bei nVidia mit Bezug auf Lovelace alles noch Spekulatius, da die hier viele Möglicheiten haben und sich gerüchtetechnisch noch nichts Belastbares verdichtet hat. Schlussendlich könnten die selbst mit einer geteilten Fertigung die Consumer-HighEnd-Chips bei TSMC fertigen und den Rest bei Samsung in einem moderneren aber günstigeren Node.
Was jedoch dafür spricht, dass nVidia einen modernen und aktuellen Node für die Consumer-Top-Produkte der NextGen verwenden wird ist, dass sie das schlicht nötig haben aufgrund ihrer angeblichen Designentscheidung, die Konkurrenz in dieser Iteration weiterhin mit einem rein monolithischen Design kontern zu wollen. Sowohl von AMD als auch Intel ist bekannt, dass die mit MCMs aufwarten werden, d. h. hier kann sich nVidia nicht zusätzlich noch fertigungstechnischen Beschränkungen unterwerfen. Wie schon zuvor erklärt, wäre die einzige Einschränkung hierzu, wenn sie sich bewusst entscheiden würden, dass das kleine oberste Marktsegment dieses Mal die zusätzlichen Aufwendungen nicht wert ist und man dafür lieber eine bessere Marge mitnimmt, aber so richtig glauben kann ich daran nicht, dass nVidia hier der Konkurrenz freiwillig die Spitze, Halo-Produkte und auch die absoluten HighEnd-Profi-Produkte überlassen will. Entsprechend würde ich davon ausgehen, dass sie dennoch versuchen werden über das gesamte Spektrum hin zu konkurrieren und dafür wird am oberen Ende einiges nötig sein, so auch eine moderne Fertigung.
Bei TSMC könnten sie sich eine gute Ausgangsbasis mit etwas wie dem N5P verschaffen, bei Samsung, was auch denkbar wäre, müsste es schon als äquivalentes Gegenstück der 4LPE sein. Wenn sie sogar sehr überraschen, würden sie gar TSMCs N4 verwenden, der zu der Zeit ebenso zur Verfügung steht, aber das denke ich eher nicht, denn bisher hat nVidia hier sehr mit Bedacht auf die Marge geplant, sodass ich vermuten würde, dass man wenn es TSMC werden sollte, es beim N5P als beste Möglichkeit belassen würde.
Letzten Endes, da nVidia aber aufgrund der Konkurrenzsituation derart den Deckel draufhält, werden vermutlich noch einige Monate vergehen, bis man weitere Info-Brotkrumen zur Hand hat.

Abschließend noch der Hinweis auf vorausgegangenen Absatz, denn weniger Effizienz haben sie architektonisch anscheinend nicht, da man hier beim Vergleich Ampere gegen RDNA2 auch zu einem wesentlichen Teil 8LPP gegen N7P vergleicht.

Das ist eher Wunschdenken als Realität. Erstens hat Nvidia oft grössere Chips gebraucht, weil sie bezüglich Flächeneffizienz unterlegen waren, und nicht weil sie die leichter fertigen lassen können als AMD. Und zweitens ist Samsung bisher auch nicht unbedingt durch extrem gute Yields aufgefallen, TSMC schon eher.
Du müsstest schon richtig lesen, denn bei mir steht bspw. nirgends, dass sich größere Chips leichter fertigen lassen. nVidia hat die Ressourcen um solche großen Chips zu fertigen und kann diese sowie den Ausschuss weitaus besser absetzen, weil die den Großteil des Marktes bedienen. Um es mal in leicht verständliche, exemplarische Zahlen zu stecken: Es macht einen signifikanten Unterschied aus, ob die Entwicklungskosten (sowie anteiligen Fertigungskosten) am Ende 15 % des Umsatzes oder aber 30 % des erzielten Umsatzes ausmachen.

Das vermeitliche "Yield-Argument" sollte man eher nicht mehr aufgreifen, da es hierzu keinerlei belastbare Zahlen gibt, denn das sind Werte, die alle Hersteller möglichst unter Verschluss halten wollen und nur herauskramen, wenn es um Werbung und Marketing geht. Beispielsweise bei TSMCs 7nm-Prozessen gab es zwischenzeitlich auch diverse Meldung zu schlechten und später auch eingebrochenen Yields. Interessanterweise ist die Community hier weniger bedacht sich daran zu erinnern, voraussichtlich eher ein psychologisches Thema. Darüber hinaus warb TSMC mit einem sehr gutem Yield beim N5 (übrigens, ebsno etwas wobei man bspw. einem Intel bei einer vergleichbaren Aussage erst mal ein "Talk is Cheap" vorwerfen würde, bei TSMC dagegen scheint jede Aussage für bare Münze genommen zu werden, erneut ein p...) Um das aber auch ins richtige Licht zu stellen, die (Werbe)Aussage von TSMC hierzu bezogen sich auf Test-Chips, typischerweise kleine Chips, die zu einem Teil aus Logik-Schaltung und zu einem anderen aus simplen SRAM-Zellen bestehen. Das hat erst mal nicht unmittelbar was mit mehreren 100 mm2 großen GPU-Chips zu tun.
Unterm Strich würde ich jedoch auch davon ausgehen, dass TSMC hier diesbezüglich etwas solidier aufgestellt ist, aber die hier und dort lesbaren Kommentare der Art "TSMC quasi 97 % Yield, Samsung bestenfalls 43 % Yield" (absichtlich etwas überspitzt ;-)) sind nicht belegbar und zudem auch abwegig, weil das für Samsung selbst auch unrentabel wäre, denn für den Yield steht der Hersteller ein. Wenn hier vereinbarte Vorgaben nicht eingehalten werden, würden Kunden wie nVidia schlicht Kompensationen verlangen und wenn man sich ansieht, wie viele GPUs nVidia ausstößt, müssten die ja regelrechte Unmengen an Wafern bei Samsung verbrauchen um die zu fertigen, wenn der Yield so schlecht wäre und Samsung würde dennoch kaum was verdienen, weil das zu deren Lasten ginge.

Der war gut. Der tatsächliche Grund ist, dass AMD Chiplets kann und es der nächste technologische Schritt ist. Warum hängt denn AMD Intel seit geraumer Zeit bei Servern ab? Weil sie dank Chiplets einfach mehr Performance pro Sockel liefern können. Nvidia kann eben noch keine Chiplets. Deshalb müssen sie für die kommenden Generationen primitivere MCM Designs verwenden. Und Wirtschaftlichkeit ist für beide wichtig und notwendig. Deshalb sind grosse monolithische Design auch alles andere als gut oder einfacher zu fertigen. Und deshalb wird AMD bei den grösseren Navi 3x auf Chiplets setzen. Bei den kleineren Navi 3x reicht ein monolithisches Design aus. Dank dieser Flexibilität wird man da mit 2 oder 3 Designs ein komplettes Portfolio stellen können und sogar noch abgestufter Modelle spezifizieren können. Wo aktuell 4 Designs verwendet werden. Was auch wiederum Kosten spart.
Nein "gut" war daran überhaupt nichts, nur schlicht wirtschaftlich gedacht. Was dir jedopch anscheinend nicht bewusst ist: AMD ist hier keinesfalls ein Pionier. Multi-Chip-Designs gab es schon lange vorher im Markt, selbst bei Intel. AMD hat nun zwar großflächige CPUs damit in den Markt gebracht, aber in erster Linie weil sie es mussten, weil sie ansonsten nicht die Consumer- und Server-Fertigung unter einen Hut gebracht hätten und voneinaner eigenständige Entwicklungsprojekte hätten schlicht ihre Möglichkeiten überstiegen (bzw. ihre Wachstumskurve verringert). Ihnen mehr zugeneigte oder gar extrem wohlwollende Gesellen werden nicht müde das als "genial" etc. zu bezeichnen, faktisch war es jedoch nur ein wirtschaftliche Notwendigkeit.
Dass das MCM-Design bei AMD im CPU-Segment ganz klar seine Grenzen hat, konnte man schon lange vor Alder Lake sehen, denn die kleineren 14nm-CPUs von Intel konnten von denen konkurrenzfähig und weitaus günstiger gefertigt werden, weil in dieser Größenordnung der Yield nur eine untergeordnete Rolle spielte (insbesondere bei einem derart ausgereiften Prozess; abgesehen davon, dass Intel auch hier ganz andere Möglichkeiten hat mit "Ausschuss" umzugehen).

Beispielsweise bis zu Zen2 konnte sich AMD architektonisch nicht nennenswert von Intel absetzen. Die Schere ging erst dann deutlich auf, wenn man den Skalierungeffekt durch TSMCs N7 hinzu nahm und CPUs mit sehr vielen Kernen betrachtete, etwas was insbesondere im Servergeschäft gefordert wird.

Was du aber auch zum Zweiten gleich missverstehst: Intel ist bzgl. Multi-Chip-Designs vermutlich AMD voraus, denn die entwickeln schon viel längern an dem Thema. Dass Intel das bisher noch nicht großflächig angewendet hat (wobei sie das mittlerweile schon längst machen), lag eher daran, dass ihre Fertigungsprobleme hier die Zugewinne zu sehr geschmählert hätten, sodass sich die zusätzlichen Aufwendungen nicht lohnten.
Weiterhin dürftes du dich ebenso bei nVidia gar noch viel eklatanter täuschen. Selbstredend können die MCM-Designs konstruieren und werden auch daran wahrscheinlich schon länger als AMD arbeiten (schlicht eine Frage der Ressourcen). Hopper ist ein solches Design (und wird absehbar CDNA2 deutlich übertreffen) und ebenso wie für AMD stellt auch hier TSMC einen wesentlichen Teil der Technologie bereit. *) Mit ihren um ein Vielfaches größeren Ressourcen bzgl. der GPU-Entwicklung kannst jedoch sicherlich davon ausgehen, dass im Zweifelsfall eher nVidia die Nase KnowHow-technisch vorne haben wird, was nichts mit Wunschdenken, sondern schlicht mit wirtschaftlichem und projekttechnischem Sachverstand zu tun hat. Man wird nicht zum (und bleibt) Marktführer, indem man laufend Manpower und andere Ressourcen in die falschen Entwicklungsprojekte investiert.

*) Entsprechen noch ein möglicher Punkt der auch bei Lovelace die Möglichkeit offen lässt, dass man auch bei Samsung im 5LPE (oder gar 4LPE) fertigen könnte, denn Packaging-technisch hört man von Samsung weitaus weniger als von TSMC, d. h. wenn die sich entschlossen haben sollten bei Samsung mit der Consumer-Fertigung zu bleiben, könnte das einmal mehr dafür sprechen, dass man noch einmal ein monolithisches Design entwickelt.

Zu deinem "Kostenpunkt/sparen" ebenso der Hinweis, dass das nicht mehr als Spekulation ist. Ich könnte mir eher vorstellen, dass RDNA3 mit seinem MCM-Design für AMD mit die teuerste und aufwendigste Entwicklung sein wird, die sie bisher aufgesetzt haben bei den GPUs, weil MCM bei GPUs ein völlig anderes Thema als bei CPUs ist.
Unterm Strich einfach mal abwarten. Am Ende bin ich genau so gespannt wie du, wie das NextGen-Rennen "ausgehen" wird. Mich interessiert jedoch weitaus mehr das wirtschaftliche Szenario, sprich war es effizient, wie sehen die Margen, Umsätze und Gewinne aus, hat man hier aufs richtige Pferd gesetzt, wenn es möglicherweise monolitisch und ebenso möglicherweise erneut Samsung werden sollte? Wie ich schon schrieb, haben sie bzgl. Ampere mit Samsung's 8LPP vermutlich weitaus mehr Richtig als falsch gemacht, denn am Ende geht es denen weniger darum Gamern ein Lächeln ins Gesicht zu zaubern als vielmehr darum den bestmöglichen Umsatz und Gewinn zu erzielen und das schaffen sie zurzeit offensichtlich mit Leichtigkeit.

Das entbehrt jeglicher Logik. Andersrum wird ein Schuh draus, zumindest wenn wir RDNA3 und Lovelace vergleichen. Das einzige Szenario, in dem Nvidia AMD klar schlagen könnte, wenn sie ein so grosses monolithisches Design basteln, dass so stromhungrig und so teuer in der Fertigung wird, dass sie dies nur mit Mondpreisen für Unbelehrbare amortisieren können. Wobei selbst dieses Szenario für mich unrealistisch erscheint dank des Chiplet Designs von RDNA3. Selbst Intel schafft es seit Jahren bei CPUs nicht, hier was vergleichbares zu bieten. Warum sollte es ausgerechnet Nvidia schaffen, die da noch weiter hinterherhinken als Intel?
Mir scheint eher, du hast meine Aussage nicht wirklich verstanden, aber mal anders herum aufgezogen: Ich bin mir ziemlich sicher, das es mit sehr, sehr hoher Wahrscheinlichkeit kein Szenario geben wird, in dem Lovelace RDNA3 deutlich schlagen wird (vielleicht mal Spezialfunktionalitäten außen vor gelassen). Das liegt schlicht daran, dass nVidia daran überhaupt kein Interesse hat, sondern einfach nur im Gesamten das etwas bessere Produkt abliefern muss um attraktiver für den Markt zu sein. Ein deutliches Übervorteilen würde deutlich mehr Aufwand in Forschung und Entwicklung sowie voraussichtlich auch die Fertigung erfordern und diese Aufwändungen wird man nur auf sich nehmen, wenn die einen deutlichen Mehrwert generieren. Consumer sind vielleicht bereit für die GPU mit dem längsten Balken etwas mehr zu bezahlen, aber weil der Balken vielleicht um 40 % länger ist, als beim Topprodukt der Konkurrenz, werden diese in der breiten Masse nicht bereit sein nochmal zusätzliche +40 % mehr auszugeben.
Darüber hinaus gehört es ebenso zum wirtschaftlichen Denken sein Pulver nicht unnötig zu verschießen und wenn man einige architektonische oder designtechnische Verbesserungsmöglichkeiten in der Hinterhand hat, die man aktuell noch nicht braucht, um die Konkurrenz in Schach zu halten oder die Marktposition zu zementieren, kann man sich einige davon auch noch gut für die nächste Iteration aufheben, denn auch in den kommenden Jahren sollen ja schließlich noch neue Produkte an den Mann und die Frau gebracht werden.

Als abschließende Randbemerkung: Intel ist mit (Co)EMIB, Foveros, etc. schon weiter als das was AMD zurzeit bietet (übrigens ebenso inkl. des V-Cache). Wie schon zuvor erklärt ist das Problem die Fertigung, die jetzt erst so langsam wieder auf dem Weg in normale Fahrwasser ist.
Sapphire Rapids SP wird einen ersten Vorgeschmack bieten, jedoch immer noch durch die 10nm-Fertigung deutlichen Beschränkungen unterliegen, aber schon aufzeigen, wohin die Reise geht. (Ergänzend vielleicht noch, dass Xe-HPC alias Ponte Vecchio deutlich über alles hinaus geht, was die Industrie inkl. TSMC bisher vorlegen konnte und das Design wird schon längst gefertig.) Vermutlich wird man im 2HJ23 einen besseren Blick auf das Thema werfen können, denn dann ziehen erneut umfangreiche fertigungs- und packaging-technische Neuerungen in Intel's Produkte ein, was sowohl AMD als auch nVidia zweifellos nicht auf die leichte Schulter nehmen werden. (Der Einzug erfolg übrigens selbst im Consumer-Segment mit Meteor Lake, der vermutlich Zen4 bereits wieder übertreffen wird, sodass AMD einen Refresh als Konter benötigen wird, da Zen5 vermitlich nicht vor Ende(?) 2024 erscheinen wird.)

Das ist falsch. Es hat wie bei CPUs sowohl einen technologischen als auch einen wirtschaftlichen Vorteil.
Was verstehst du an "primär" nicht? Das schließt einen technologischen Aspekt keinesfalls aus, für AMD wird aber der wirtschafliche Aspekt zweifellos der Wichtigere gewesen sein, denn ohne die Chiplet-Fertigung hätten sie den Markt überhaupt nicht in der beobachteten Art und Weise bedienen können, sodass ihr Wachstum deutlich langsamer vonstatten gegangen wäre. Und der zeitliche Faktor ist wachstumstechnisch durchaus relevant für sie, denn wären nennenswerte, derzeit von AMD belegte Marktkapazitäten vakant, könnten hier ARM-Konkurrenten tendenziell stärker wachsen.
Beispielsweise AMDs Bergamo ist explizit gegen die ARM-Konkurrenz aufgestellt worden, denn hier ist man jetzt schon deutlich unter Druck und das noch mit derzeitigen 7nm-ARM-Designs, die aber bspw. schon in diesem Jahr durch nochmals leistungsfähigere 5nm-Designs ersetzt werden, d. h. AMD wird in diesem Marktsegment schon in diesem Jahr ins Hintertreffen geraten, denn diese Konkurrenzprodukte sind zusätzlich noch deutlich günstiger als Epyc und Genoa wird zweifellos auch noch mal ein klein wenig teuerer werden, wie schon Milan zuvor. Entsprechend wird AMD versuchen es Anfang 2023 mit Bergamo zu richten. Ob ihnen das gelingen wird, bleibt abzuwarten, jedoch hat AMD hier derzeit das gleiche Glück ggü. ARM wie Intel ggü. AMD, nämlich das die Marktanteile und Fertigungskapazitäten der Konkurrenz noch gering sind und für AMD vielleicht noch zusätzlich, dass man dem Verbleib auf einer x86-kompatiblen Plattform auch noch ein wenig zusätzlich abgewinnen kann.

Da würde ich erstmal abwarten. Es gab vor Monaten Stimmen die meinten, N31 und N32 bekommen jeweils individuelle Compute Chiplets. Und das AMD in diesem Fall eben nicht den Ryzen-Weg geht (Chiplets für eine hohe Wirtschaftlichkeit) sondern um technologische Limits auszureizen.
Na das gilt sowieso, denn auch ich habe keine Glaskugel, sondern kann unter technisch/wirtschaftlichen Gesichtspunkten und mit stark eingeschränktem Informationsstand nur bestmöglich antizipieren und da es viele Möglichkeiten sowie auch unterschiedliche und teilweise gänzlich unbekannte Zielsetzungen seitens der Hersteller gibt, kann es oftmals dennoch anders kommen als ich denke. ;-)

Wenn man sich dein Gebaren über die letzten Monate ansieht und dein Auftreten mir gegenüber erscheinst du mir die Zeit schlicht nicht wert zu sein. Hier nur als Randbemerkung, dass bei einem Überfliegen deines Posts gleich schon etliche Punkte als leicht konter- wenn nicht gar widerlegbar erscheinen, aber da du zumindest mir gegenüber eher als der (un)heimliche Hater auftrittst ... ich kann meine Zeit zweifellos sinnvoller verwenden und überlasse es dem mündigen Leser sich hier selbst ein Bild zu machen.
 
RDNA 3wird sicherlich schnell aber das mcm design wird definitiv nur dem high end kommen aber ich zweifle daran das amn am desktop das bringen wird.
Aus 520mm² chip wird mit dem 5nm dann 546mm²
Warum nun tsmc hat verlautet von 7nm auf 5nm
70% kleinere chips oder 50% effizienter
Sprich amd wird vermutlich 30% kleinere chips bringen die dann mit etwa 3,0ghz-3,1ghz takten
da aber der wafer locker 17-20k kosten und primär nur ein chip hergestellt wird mit 364mm² kommen da nur 58 gute dies und 39 defekte
Folglich sind aus einen die mit 30 wgp für n31 und n32 priorität
Amd müste schon den n33 als eigenen monolithen mit 20wgp herstellen was sehr unwahrscheinlich ist
Außer die yield ist extrem schlecht
ich gehe eher davon aus das n33 zwischen 5120-7680 shader hat
Entweder ist ein wpc komplett deaktiviert was einen nutzung für n32 optimal ist oder nur teile der gpu somit dürfte n33 irgendwas zwischen 6000-7000 shader aktiv haben
Bleibt das problem der speicherbandbreited die ab 30tf zum problem wird. Selbst mit inf fab
Zuletzt gehört das samsung 27gbits ram bringen will das könnte das problem lösen
Nehme ich an das amd je wpc 2 wgp deaktiviert wären das 6 wgp weniger also dann 24 statt 30
folglich dann 6144 shader (ein wgp 256shader)
Dann ergibt das als n33 und high end für 2022 38 tf als rx7900xt (vs rx6900xt +80%)
Und die mcm chips landen komplett in Pro karten bzw hpc
ein rdna3 chip 3wpc mit 30wgp je 256shader=7680 shader
Nur wird ein chip recht teuer 230$
Das wird nix mit kleineren sku daher iost ein refresh der rdna2 portfolio auf 6nm zu rechnen
Und dem ganzen lineup nen taktplus von 15% was die 2,8-3,0ghz mrke entspricht und dazu entwder 24gbits ram oder 20gbits ram beides sind bei samsung in vorproduktion
Sprich n22 (rx7700xt) 2560shader mal 3,0ghz von theoretisch 760gb/s auf 1008gb/s = +40%
gleiches gilt für n23
allerdings wird rx7800xt ein einhorn werden da man mehr als 3wgp pro wpc ncht deaktivieren kann was sinnvoller wäre dann den wpc zu deaktivieren
da aber primär n32 und n31 die chips bekommen glaube ich eher daran das amd die besseren chips für n33 mit bis zu 27 wgp (6912shder) bereitstellen wird was dann etwa 42tf für den high end und dan mit 24 wgp 6144 shad die sku rdasrunter sein werden
Sprich
rx7900xt 6912 shader 3,1ghz 400w uvp ~1299€ +90€ vs 6900xt
rx7800xt 6144 shader 3,1ghz 350w uvp 1199€ +90% vs 6800xt
Der rest refresh auf 3,0ghz
rx7700xt 17tf + 40% ~uvp 679€
rx7700 15tf +28% vs rx6700xt 499€
rx7600xt +30% uvp 399€
rx7600 +27% uvp 349€
rx7500xt dann rebrand der rx6500xt mit 209€

Nvidia wird sicherlich auf tsmc 6nm gehen das steht sicher
Den auch lovelaced wird zu teuer
ad102 misst min 753mm² und wir mit sicherheit am desktop nicht kommen
ad104 misst min 628mm² möglich das dies der high end chip wird da nvidia hier maximal nur 2,5ghz erreichen wird.
ad106 wird definitiv kommen als high end mit 2,5ghz und etwa 440mm²
da nun 27gbits kommen werden ist offen ob nvidia doch mcorn gddr7 nutze wird.
HBM würde aber vieles einfacher machen mit 4096bit und 8gb bausteine=32gb
Daher sehe ich eher so das nvisdia den ad106 als high end bringen wird
38,4tf und 1296gb/s was dann ein plus von +75% entspricht

wird nvidia dann siegen bedingt wird nvidia hbm nutzen wird nvidia siegen ich gehe eher davon aus das man als Halo den ad104 nimmt und die 120sm hier den sieg bekommen werden aber zu welchen preis diese sku wird min 2199€ kosten
das wären
rtx4090 2199€ etwa 57tf HBM ist hier pflicht 32gb 4096bit =1840gb/s
rtx4080ti 1799€ etwa 50tf ebenfalls 32gb hbm2e mit 1,840gb/s
rtx4080 1299€ etwa 38tf 16gb gddr6 27gbits oder gddr7 384bit
rtx4070 949€ etwa 35tf dasselbe
Der rest refresh von ga104 6nm bei 2,5ghz ga106 und ga107 bei 2,5ghz
ga114 +50% rtx4060ti ~499€ gddr6x 19gbits
ga116 +50% rtx 4060 ~399€
ga117 +48% ~299€ rtx4050
ga107 rebrand rtx4040 mit nur 6gb 149€ 96bit si 19gbits

Das nvidia bei smasung bleibt ist unwahrscheinlich ich gehe davon aus das der ga107 weiter gefertigt wird Derzeit primär notebook später komplett als desktop Ersatz

Erst der nachfoilger vermutlich hopper wird auf 5nm und einen völlig neuen sm struktur in mcm geben
Da kann ich nur spekulieren mit mcm chips von 20sm bis 80sm bei etwa 3,0ghz Takt
Gzt möglich das die gpc von 10sm auf 20 oder 30sm gesteigertw erden
Was dann bei 3nm und geschätzen 27000$ wafer kosten und einen chipgröße von 109mm² gh107
Und dann als baukasten in 2-4 chips gehen wird
Mitr 3d packaging könnte man mehrere chips aufeinnander stapeln was die wafer flaäche gleich bleibt aber die sm count verdoppeln könnte prk chipü aus 30 wird 60sm und dann 2 chips nebeneinander = 120sm
das könnte auch das gerücht bestätigen von einen 900mm² chip mit 200 sm count
was dann gestapelt dann 400sm bedeuten würde ab 3nm
darum gehe ich davon aus das Hopper nicht vor 3nm kommen wird. dann wäre der chip nur 628mm² groß
Somit dürfte das gerücht um den 900mm² chip eher ein lovelaced tesla chip handeln der dann etwa 76tf erreicht
 
Nimmt man es genau, ist aktuell bei nVidia mit Bezug auf Lovelace alles noch Spekulatius ...
Gegen eine "geteilte Fertigung" spricht, und da braucht man sich nichts vormachen, Priorität für die beste Fertigung haben die professionellen Lösungen, nicht Geforce. Und was sich Nvidia nicht unterwerfen will, steht nicht zur Debatte. Sie werden das nehmen müssen was zur Verfügung steht und werden dabei ganz rational entscheiden. Dass sie sich mit der nächsten Geforce Generation nicht einfach mit dem 2. Platz zufrieden geben werden und notfalls alles mögliche ausreizen werden, wie schon bei Ampere mit einer deutlich erhöhten TDP, sollte klar sein. Sie werden aber ganz sicher nicht den lukrativeren professionellen Markt für Geforces opfern. TSMCs N4 als auch Samsungs 4LPE kann man für die kommende Generation ausschliessen. Die Fertigungen sind zu neu als dass man dafür schon Design Tools gehabt hätte, als die Entwicklung der neuen Generation begann. Das wird frühestens mit der Nachfolgegeneration eine Option. Ob Nvidia architektonisch keinen Nachteil hat, ist spekulativ. Da müsste man schon gleich grosse Chips in gleicher Fertigung vergleichen. Wobei das mit den kommenden Generationen von AMD und Nvidia eh hinfällig ist. Da wird sich architektonisch einiges ändern.

Du müsstest schon richtig lesen, denn bei mir steht bspw. nirgends, dass sich größere Chips leichter fertigen lassen ...
Nee, da musst du schon richtig lesen. Denn das habe ich gar nicht geschrieben. Ich schrieb, dass deine Behauptung, Nvidia könne "weitaus leichter grosse Chips fertigen als AMD" nicht richtig ist. Ob du das einfach nur unglücklich formuliert hast, sei mal dahingestellt. Die Aussage als solche bleibt trotzdem schlichtweg falsch und sollte auch nicht unkommentiert stehen gelassen werden. Uns dass deine Rechnung Unsinn ist, hatte dir ja schon Bärenmarke erklärt. Am Ende entscheidet wie gut die Technologie ist. Ressourcen für grosse Chips haben AMD und Intel genauso. Und wenn die Technologie passt, dann können die genauso mit grossen Chips wirtschaften. Nur warum sollten die solche grossen Chips verwenden, wenn man gerade wie im Fall von AMD mit Chiplets technologisch und wirtschaftlich noch mehr rausholen kann.

Und ich bezog mich auch nicht auf irgendwelche Yields von TSMC Testchips. Ich bezog mich auf konkrete Produkte, wie Zen 2, der zu Beginn der 7nm Produktion schon bei guten 70% gelegen haben soll. Ich Vergleich dazu lagen Intels 28-Kern Chips in der erprobten 14nm Fertigung bei gerade mal der Hälfte. Da kann man sich ja ausrechnen, welche Yields ein sehr grosser Chip in einer neuen Fertigung hat. Allzu hoch dürften die nicht ausfallen. Bei Samsung vermutlich noch kritischer als bei TSMC.

Nein "gut" war daran überhaupt nichts, nur schlicht wirtschaftlich gedacht. Was dir jedopch anscheinend nicht bewusst ist: AMD ist hier keinesfalls ein Pionier.
Es hat gar keiner von Pionier gesprochen. Aber gut, wenn du das schon aufgreifen musst, in deiner notorischen Art AMD herabzuwürdigen. Was Chiplets in grossen Märkten betrifft, kann man AMD sehr wohl als Pionier sehen. Klar, simple MCM Lösungen wie den C2Q seinerzeit gibt es schon länger. Nur scheinst du immer noch nicht verstanden zu haben, dass Chiplets != MCM ist. Und mit 3D Chiplets geht AMD jetzt den nächsten Schritt. Die das Design teurer und nicht unbedingt wirtschaftlicher machen, der technologische Vorteil also noch mehr in den Fokus rückt. Chiplets haben also mitnichten nur einen wirtschaftlichen Aspekt. Wie ich schon sagte, der technologische Vorteil ist dort genauso vorhanden. "Genial" und die Notwendigkeit aufgrund begrenzter Ressourcen muss sich übrigens nicht ausschliessen. Im Fall von AMD trifft beides zu. ;)

Was du aber auch zum Zweiten gleich missverstehst: Intel ist bzgl. Multi-Chip-Designs vermutlich AMD voraus, denn die entwickeln schon viel längern an dem Thema.
Nein. Sind sie nicht und haben sie nicht. Anscheinend missverstehst du einiges. Intel hat und entwickelt seit längerem EMIB. Trotzdem entwickelt AMD noch länger an solchen Technologien. EMIB ist zudem nicht vergleichbar mit AMDs Chiplet Ansatz, da dort die Verbindungen untereinander nicht über einen Interposer erfolgen, sondern über die einzelnen Dies selbst bzw "Brücken" zwischen den Dies. Was doch um einiges restriktiver zu sein scheint und vermutlich auch deshalb bisher kaum Anwendung fand. AMD hat mit EFB zudem bereits was vergleichbares auf dem Markt, was weniger Nachteile mitbringt. Andere Technologien von Intel sind neuer, wie Foveros, und wurden tatsächlich auch schon genutzt. Nur war das bisher ein ziemlicher Rohrkrepierer wie im Fall von Lakefield. Also von "voraus" kann da keine Rede sein, wenn man unausgereifte Technologien auf den Markt wirft. AMD forscht seit gefühlt einer Ewigkeit an 3D Technologien. Dass man erst jetzt mit Milan X / Zen3D entsprechende Produkte auf den Markt bringt, heissst nicht, dass andere weiter sind. Es heisst vielmehr, dass es mittlerweile ausgereift und wirtschaftlich machbar für AMD ist. Beides hat Intel mit ihrer 3D Technik jedenfalls noch nicht bewiesen. Genauso wenig arbeitet Nvidia an solchen Technologien schon länger als AMD. Das ist wieder nur Wunschdenken deinerseits. Und falls doch, dann arbeitet Nvdia aber verdammt schlecht, wenn sie da bisher so hinterherhinken. ^^ Gegenspieler von Hopper wird auch nicht CDNA2, sondern eher CDNA3. CDNA2 wurde in Form der MI200 Serie ja bereits letztes Jahr veröffentlicht und bereits Q3 ausgeliefert, z.B. für Frontier. Übrigens mit Chiplet Design. ;)

Und Kostensparen mit Chiplets hat nichts mit Spekulation zu tun. Das sind schlichtweg Tatsachen. Dass in RDNA3 eventuell mehr Entwicklungsressourcen geflossen sind, mag sein. Das ist aber vernachlässigbar. Erstens hat man mit CDNA2 schon Vorarbeit geleistet. Zweitens hat man diesen Entwicklungsaufwand nur einmal. Bei den Nachfolgegenerationen kann man dann auf die bestehenden Strukturen zurückgreifen und punktuell verbessern. Drittens, die Konkurrenz hat diesen Entwicklungsaufwand genauso, wenn sie in Zukunft konkurrenzfähig bleiben wollen. Und als letztes, das ganze ist unabhängig von den Fertigungskosten, um die es hier ja primär ging.

Als abschließende Randbemerkung: Intel ist mit (Co)EMIB, Foveros, etc. schon weiter als das was AMD zurzeit bietet (übrigens ebenso inkl. des V-Cache).
Wie bereits ausführlicher erläutert, nein. Sind sie nicht und tun sie nicht.

Ergänzend vielleicht noch, dass Xe-HPC alias Ponte Vecchio deutlich über alles hinaus geht, was die Industrie inkl. TSMC bisher vorlegen konnte
Und schon wieder, reines Wunschdenken. Weisst du, was der Industrie inkl. TSMC bisher alles vorliegt? Nein? Siehste. Intel ist bekannt dafür, den Mund sehr weit aufzumachen mit sonst was für supertollen Ankündigungen. Nicht selten hat sich das letztendlich aber nur als laues Lüftchen entpuppt. Wie war das nochmal mit der 10nm Fertigung? Vollmundig einen Vorsprung von 3,5 Jahren vor der Konkurrenz angekündigt. In der Realität haben sie eher gefühlt 3,5 Jahre Rückstand. Also mal schön realistisch bleiben. Intel soll erst mal liefern. Das haben sie in den letzten Jahren zu selten. Dann sehen wir weiter.

Der Einzug erfolg übrigens selbst im Consumer-Segment mit Meteor Lake, der vermutlich Zen4 bereits wieder übertreffen wird, sodass AMD einen Refresh als Konter benötigen wird, da Zen5 vermitlich nicht vor Ende(?) 2024 erscheinen wird.
Auch das ist falsch bzw passt nicht zu den bisherigen Infos. AMD sagte bereits, dass der 1,5-2 Jahre Abstand von Zen 3 zu Zen 4 die Ausnahme war. Zen 5 soll wieder zeitlich näher an seinem Vorgänger liegen. Also vermutlich maximal 14-16 Monate nach Zen 4. Was im Endeffekt einen Launch Ende 2023 / Anfang 2024 bedeuten würde. Der gleiche Zeitrahmen, in dem sich Meteor Lake bewegt. Beide werden also direkte Konkurrenten.

Was verstehst du an "primär" nicht?
Nichts. Deine Aussage bleibt trotzdem falsch. Chiplets haben für RDNA3 gleichermassen einen technologischen als auch wirtschaftlichen Vorteil. Wir leben nicht mehr in 2017, als Zen gelaunched wurde und das MC-Design in der Tat primär aufgrund von Kostenreduzierung entstand. Was verstehst du daran nicht?

Beispielsweise AMDs Bergamo ist explizit gegen die ARM-Konkurrenz aufgestellt worden, denn hier ist man jetzt schon deutlich unter Druck und das noch mit derzeitigen 7nm-ARM-Designs, die aber bspw. schon in diesem Jahr durch nochmals leistungsfähigere 5nm-Designs ersetzt werden, d. h. AMD wird in diesem Marktsegment schon in diesem Jahr ins Hintertreffen geraten, denn diese Konkurrenzprodukte sind zusätzlich noch deutlich günstiger als Epyc und Genoa wird zweifellos auch noch mal ein klein wenig teuerer werden, wie schon Milan zuvor.
Du wirfst hier auch wieder so viel durcheinander, schlimm. Erst mal ist Bergamo explizit für Cloud Computing vorgesehen und nicht gegen ARM. Entsprechende ARM Anbieter mögen Konkurrenten sein, aber sicherlich nicht die einzigen auf AMDs Zettel und vermutlich auch nicht die gewichtigsten. Hauptkonkurrent ist und bleibt erst mal Intel. Was Kosten betrifft, da steht AMD im Moment sehr gut da, auch gegenüber ARM. Sicherlich werden leistungsfähigere 5nm Produkte für AMD teuer, das trifft auf ARM aber genauso zu. ARM wird auch nicht das Problem für AMD sein, sondern eher für Intel. Intel hat noch jede Menge Marktanteil zu verlieren, AMD und ARM können im Grunde erst mal nur gewinnen.

RDNA 3wird sicherlich schnell aber das mcm design wird definitiv nur dem high end kommen aber ich zweifle daran das amn am desktop das bringen wird.
Das ist ein Widerspruch. RDNA ist Desktop / Mobile. Die Architektur für den professionellen Markt nennt sich CDNA.
 
Mit dem von mir zuletzt zitierten Satz hast du deine Begründung quasi selbst ad absurdum geführt. ;-) Noch mal zur Klarstellung. Ampere wird in einem Prozess der 10nm-Klasse gefertigt. RDNA2 verwendet einen deutlich moderneren Node der 7nm-Klasse. Samsung's Äquivalent hierzu ist deren 7LPP, wohingegen nVidia sich jedoch mit dem 8LPP (von nVidia selbst als 8N bezeichnet) begnügt. Dass das weitere Beschränkungen auferlegt, sollte klar sein, Wenn du jetzt erklärst, dass die "6900 XT und die 3090 so ziemlich gleich auf liegen", kannst du dir leicht selbst ausrechnen, wie das aussehen würde, wenn man das Ampere-Design unverändert auf TSMCs N7(P) transferieren würde. Entsprechend sind sie hier architektonisch mindestens gleich auf, wenn nicht gar leicht führend (beim Raytracing und der ML-Performance stellt sich die Frage nicht einmal) und es bleibt schlicht zu vermuten, dass sie Margen-technisch den für sie optimalen Weg gewählt haben. Sie umgehen die Konkurrenzsituation bei TSMC und fertigen hier den Großteil ihrer Chips mit einem günstigeren Prozess und können aufgrund der großvolumigen Fertigungsübertragung hin zu Samsung voraussichtlich zusätzlich noch mit guten Konditionen rechnen.
DA hast du mich missverstanden, bzw. ich hab mich falsch ausgedrückt.

1.) Die 6900XT ist als Chip in Summe betrachtet der deutlich bessere Chip
2.) Die 6900XT erbringt nahezu die gleiche Leistung, bei deutlich geringerem Verbrauch

Mein Ansatz war nun, diesen Effizienznachteil, der definitiv besteht in weiten Teilen dem Prozess zuzuschreiben. Generell hat man bei dir sehr oft den Eindruck, dass du gewisse Sympathien hegst und versuchst diese in möglichst viel technischem Verständnis zu verpacken. Aus der aktuellen Generation kann man zumindest nicht ableiten, dass NV gar leicht führend ist (rein hardwarebezogen), eher das Gegenteil ist der Fall. Auch wenn man in den professionellen Bereich geht, sind die AMD Chips deutlich schneller, deutlich effizienter. Da laufen bereits heute 23,1 FP32 TF bei der MI100 gegen die 19,1 Peakleistung der A100 Chips, dazu 300W AMD gegen 400W Nvidia. Also alles in allem gibt es nichts was darauf hindeutet, dass Nvidia architektonisch derzeit vorne liegt! Irgendwo meine ich mal gelesen zu haben, dass man davon ausgeht, dass die Differenz zwischen Samsungs 8nm und TSMCs 7nm irgendwo bei 15% maximal liegen dürfte. Auch das ist also maximal als "Ausgleich" zu sehen!

Das gilt alles für den "normalen" GPU Block.

Wo Nvidia zweifelsohne vorne liegt und das ist hier unter Umständen für das Forum tatsächlich interessanter, die Gamingleistung. Nvidia hat auf der Softwareseite große Vorteile, nicht nur DLSS, sondern auch in vielen Fällen Treiber und Spieleunterstützung. In den Jahren war AMD häufig in der theoretischen Leistung vorne, oft sogar dramatisch, nur konnte sich Nvidia sehr sehr oft auf ihre Software verlassen und haben die vorhandene Leistung meist besser auf die Straße gebracht. AMD/ATI hat dafür oft zu lange gebraucht, auch wenn man sehr häufig gesehen hat, dass deren Produkte besser altern, interessieren tut das letztlich niemanden. Dazu kommt in meinen Augen derzeit das recht agressive Marketing, gerade hinsichtlich RT hat man die Zeichen erkannt und den Markt darauf fokussieren können. Ob man einen wirklichen Nutzen davon hat? Meines Erachtens nach verschwindet RT bald wieder in der Senke, der optische Nutzen ist sehr gering, die gefressene Leistung viel zu enorm. Etwas ähnliches hatten wie mal bei PhysX, gehypt und gehypt, anschließend hat man sich neben seine (ich glaube 8800GTS) noch eine NV Karte gequetscht, nicht um SLI zu betreiben, sondern um PhysX zu beschleunigen. Hab lange nichts mehr davon gehört, aber PhysX ist glaube ich tot und ähnlich wird es RT ergehen, Nutzen und Kosten stehen hier in keinem Verhältnis zueinander.

Für mich hat Nvidia derzeit ganz klar einen großen Vorteil, dass ist DLSS, ansonsten ist Nvidia in nahezu allen Belangen hinter AMD zurückgefallen. Schaut man sich die Leistung in Spielen an, eine auf die TDP von der 3090 aufgebohrte 6900XT schlägt diese, kostet dazu knappe 600 EUR weniger (also runde 30%). Besonders erschreckend finde ich diese Entwicklung, das habe ich schon oft gesagt, wenn man sich NV anschaut, der Schritt von der 2080Ti zur 3080Ti ist nicht wirklich groß, der Effizienzgewinn ist gar nur "marginal" und der große Schritt in Sachen Leistung ist nahezu komplett der gestiegenen Leistungsaufnahme zuzuschreiben. Lovelace muss da in meinen Augen einen komplett anderen Satz machen, sonst rettet selbst DLSS Nvidia nicht mehr, denn 500W Gamingkarten wird es in meinen Augen nicht geben können, kein normales Gehäuse wird das irgendwie sinnvoll kühlen können.
 
CDNA ist eine reine HPC architektur also gpu ohne display Ausgang
Wenn ich nicht dsktop meine meine ich keine gaming karten sondern nur professionelle karten( firepro)
Auch wenn amd in dem bereich kaum bis keine tools bereitstellt sind die gpu für 3d modelling sowie proffesionelles cad brauchbar.
Da diese anwendungen nicht latenz kritisch sind ist da der amrkt eher zu suchen.Zumal man da min die dreifache preise durchsetzen kann wo nvidia die vierfache preise hat mit den quadro.
das die consumer gpu derzeit nah dran sind also min zu doppelten preise als vorher kalkuliet liegt allein an den minern.Die lansgamn aber sicher dad boot verlassen den diesmal wird definitiv ep5354 lommen (difficult bomb) wemnn die preise der kryptos bleiben ist ab juni schluss mit den higen preisen bei gpu den ab 500€ bleiben die meisten gpu liegen
das sieht man derzeit auch an der verfügbarkeit
Einzig gpu die in mm oder saturn für realistische preise vorkommen sind sofort vergriffen.
Selbst die rx6500xt ist derzeit für 279€ leicht überteuert (etwa 20%) verfügbar dagegen die rtx3050 weil es den falschen chip hat erst ab 379€
Letztere erzeugt noch gut 0,83cent pro tag =298$ pro jahr
Da die gpu direkt vom werk verkauft werden und man sicherlich wiederverkauf einplant kann man davon ausgehen das die verfügbarkeit bis zur difficult bomb schlecht bleibt.
Aber danach es eine flut von gebr gpu geben wird
Derzeit sind das aber alles Risiko bereite die von steigende krypto kursen ausgehen und eine erneute verschiedung des ep5354 hoffen.
Das problem bei dezentralen netzwerken ist das das netzwerk genug rechenleistung braucht um endgültig in eth 2 umstellen zu können.
Das der punkt kommt ist sicher nur wann ist offen. Alternative coins werden derzeit schon in den algoprhytmen intrigiert aber derzeit fallen die kurse.
Man bedenke das der kurs dez bei 4800$ lag und heute bei 2800$ vor drei tagen bei 2600$
der trend ist fallend die gründe dafür das es in usa sowie in russland bald zu nen verbot kommt.
daher istd as netzwerk derzeit dabei alles zu verschiffen in ländern wo diese gefahr nicht mehr gibt.
Folgend gibt es in diesen ländern schon ausverkauf der mining rigs
Wenn usa mining auf pow vebietet wird sichd er krypto kurs deutlich einbrechen ich gehe von etwa 1300$ aus irgendwann april den da erwatrtze ich das urteil
Schlimner abr wiegt die gleichzeitige verfahren in russland
Die gründe dafür sind die gefährlichen blackouts die drohen weil die farmen ds stromnetz z stark belasten.
Da wird sich was tun am ende sind nur noch große mining famen mit eigenen stromwerke aktiv.
und die kann man an der hand abzählen.
Ob diese dann genug rechenleistung haben um ether transaktionen zu berechnen ist offen
das wäre der zweite punkt wo pow ein ende findet.
Die nachfrage an gamern ist begrenzt wenn sind das nur noch high end oder direkt zu komplett pc
Den keiner mit verstand kauft ne gpu die einstiegssegment ist ab 650€ aufwärts ist.
Das zeigen auch die verfügbarkeit an diesen gpu.
heute 28 modelle rtx3060 27 modelle rtx3060ti und die lange kaum sichtbare rtx3080 mit 36 modelle
Das die preise nicht so tief liegt allein an den einkaufspreisen die die händler hatten..
Das wirs solange bleiben bis diese verkauft sind alsoerst dan wen die neue gen kommt und die lager zu voll sind irgendwann q3 2022 oder wenn die grb preise drücken.
das aber hängt von den urtei.en ab sowie dem ep5354

manche reviewer fürchten das die neuen gpu keine uvp mehr haben werden. daran zweifle ich stark weil intel ab q3 in consumer markt kommen wir mit arc.
Und als neuer wird man auf masse setzen und klare uvpo bereitstelölen wo intel nur kleine marge plant ich tippe auf 10 oder nur 20% bsp rtx3070 peformance high en chip arc 512 mit etwa 599€
arc 384 etwa 399€ auf level der rtx3060 und arc 128 auf level der rtx3050 laptop (ga107) für 199€
das wir noch spannend dieses jahr am ende knn ich sagen das die mcm chips derzeit nicht unter 1800€ herstellbar sindudn das sind dei mit 40 wgp n32
high end müsste min 2700€ kosten
Amd hat nix im einsteiger bereich von rdna3 und nvidia ebenso nicht weil die chips zu teuer sind.
also wird amd und nvidia die taktschraube ziehen müssen mit mehr bandbreite was dann etwa 40% bzw sogar 90% bringen wird
amd dagegen wird mit n32 nur als high end ab 1700€ gegenhalten können und eine stufe geringer mit 1299€
Nvidia wir mit ad104 im high end bei etwa 1699€ setzen und ad106 ab 899€ was dann die rtx4080 sein wird.
Nheme ich die gerücht wahr das es keine uvp geben wird. wird der markt das regeln aber zu dem zeitpunkt sind miner raus. Und wenn intel früh genug kommt gehe ich davon aus das es uvp geben wird.
achja wen nvidia ampere refreshed auf 6nm tsmc werden diese je sku um 40% steigen was den arc512 auf level der rtx4060 fallen lässt diese dann eine uvp von 549€ hat.
Nvidia könnte sogar die bom den vram addieren und aus den chipkosten reduzieren wasd die gpu effektiv auf 399€ bringen würde
Das würde sinn machen den schon rtx3050 hat die bom den vram inbegriffen
ansonsten hätte man nix für den einsteiegramrkt der normalerweise der lukrativste markt ist.
Wäre da nicht die chipkrise. Und diese wird enden irgendwann q2 2023 selbts in q2 2022 werden die vram preise leicht fallen sowie die verfügbarkeit stark ansteigen dazu kommt intel mit artc als konkurrenz.
preise bis dahin nun der einstieg wird ab 289€ sein die mittelklasse dann reduziert auf 599€
Wobei der einstig die rtx4050 8gb mit der leistung der rtx3060 sein wird
Und die rtx4060 mit 40% schneller für 329€ sein wird als custom modell
Allerdings erwarte ich die sku frühestens q1 2023
Bis dahin wren wir kaum preisverfall sehen die rtx3050 erwrate ich uvp von etwa 339€ sofern diese verfügbar sind
Die rtx3060 tiefstand bei 449€
das problem istd as rdna3 und lovelaced keine kleinen sku hbaen werden und somit nur high end bedienen wird.
der komplette einsteigssgment wird von intels arc preisen abhängen
adrum wird n idia und amd dies möglichst vermeiden dort den letzten node anzuwenden tsmc 6nm wird sehr gefragt sein 2022 wobei amd vorlegen wird mit den refrehes der rdna2 n22 und n23 chips
Keine sorge das Namenschema wird rx7000 sein
amnders können derhzeit amd nvidia nicht handeln
 
DA hast du mich missverstanden, bzw. ich hab mich falsch ausgedrückt.

1.) Die 6900XT ist als Chip in Summe betrachtet der deutlich bessere Chip
2.) Die 6900XT erbringt nahezu die gleiche Leistung, bei deutlich geringerem Verbrauch

Mein Ansatz war nun, diesen Effizienznachteil, der definitiv besteht in weiten Teilen dem Prozess zuzuschreiben. Generell hat man bei dir sehr oft den Eindruck, dass du gewisse Sympathien hegst und versuchst diese in möglichst viel technischem Verständnis zu verpacken. Aus der aktuellen Generation kann man zumindest nicht ableiten, dass NV gar leicht führend ist (rein hardwarebezogen), eher das Gegenteil ist der Fall. Auch wenn man in den professionellen Bereich geht, sind die AMD Chips deutlich schneller, deutlich effizienter. Da laufen bereits heute 23,1 FP32 TF bei der MI100 gegen die 19,1 Peakleistung der A100 Chips, dazu 300W AMD gegen 400W Nvidia. Also alles in allem gibt es nichts was darauf hindeutet, dass Nvidia architektonisch derzeit vorne liegt! Irgendwo meine ich mal gelesen zu haben, dass man davon ausgeht, dass die Differenz zwischen Samsungs 8nm und TSMCs 7nm irgendwo bei 15% maximal liegen dürfte. Auch das ist also maximal als "Ausgleich" zu sehen!

Das gilt alles für den "normalen" GPU Block.

Wo Nvidia zweifelsohne vorne liegt und das ist hier unter Umständen für das Forum tatsächlich interessanter, die Gamingleistung. Nvidia hat auf der Softwareseite große Vorteile, nicht nur DLSS, sondern auch in vielen Fällen Treiber und Spieleunterstützung. In den Jahren war AMD häufig in der theoretischen Leistung vorne, oft sogar dramatisch, nur konnte sich Nvidia sehr sehr oft auf ihre Software verlassen und haben die vorhandene Leistung meist besser auf die Straße gebracht. AMD/ATI hat dafür oft zu lange gebraucht, auch wenn man sehr häufig gesehen hat, dass deren Produkte besser altern, interessieren tut das letztlich niemanden. Dazu kommt in meinen Augen derzeit das recht agressive Marketing, gerade hinsichtlich RT hat man die Zeichen erkannt und den Markt darauf fokussieren können. Ob man einen wirklichen Nutzen davon hat? Meines Erachtens nach verschwindet RT bald wieder in der Senke, der optische Nutzen ist sehr gering, die gefressene Leistung viel zu enorm. Etwas ähnliches hatten wie mal bei PhysX, gehypt und gehypt, anschließend hat man sich neben seine (ich glaube 8800GTS) noch eine NV Karte gequetscht, nicht um SLI zu betreiben, sondern um PhysX zu beschleunigen. Hab lange nichts mehr davon gehört, aber PhysX ist glaube ich tot und ähnlich wird es RT ergehen, Nutzen und Kosten stehen hier in keinem Verhältnis zueinander.

Für mich hat Nvidia derzeit ganz klar einen großen Vorteil, dass ist DLSS, ansonsten ist Nvidia in nahezu allen Belangen hinter AMD zurückgefallen. Schaut man sich die Leistung in Spielen an, eine auf die TDP von der 3090 aufgebohrte 6900XT schlägt diese, kostet dazu knappe 600 EUR weniger (also runde 30%). Besonders erschreckend finde ich diese Entwicklung, das habe ich schon oft gesagt, wenn man sich NV anschaut, der Schritt von der 2080Ti zur 3080Ti ist nicht wirklich groß, der Effizienzgewinn ist gar nur "marginal" und der große Schritt in Sachen Leistung ist nahezu komplett der gestiegenen Leistungsaufnahme zuzuschreiben. Lovelace muss da in meinen Augen einen komplett anderen Satz machen, sonst rettet selbst DLSS Nvidia nicht mehr, denn 500W Gamingkarten wird es in meinen Augen nicht geben können, kein normales Gehäuse wird das irgendwie sinnvoll kühlen können.
Dann musst du aber schon oc 6900xt mit oc 3090 vergleichen und das is der alte stand wiederhergestellt.

Bezüglich rt solltest du das weng objektiver betrachten
Guardians of the galaxy, Metro, control, hellblade, cp 2077 sind recht gute Beispiele was mit raytracing möglich ist
Nämlich realistische Darstellungs möglichkeiten

Wenn es für nichts ist es deine Sache....aber Geschmäcker sind eben verschieden
Und die meisten finden rt eben besser

Also von der 2080 Ti zur 3090 sind es schon gute 50 bis 55% (und das mit einem nur leicht verbesserten Prozess... Samsung 8nm entspricht ca. 10nm) Wirtschaftlich war es ein guter Zug aber man hat auch AMD unterschätzt sonst wäre man nicht zu Samsung gegangen

Wenn das nicht in Ordnung is was war denn dann das von der 1080ti zur 2080 ti....

Und 500w Karten werden kommen...

Wer glaubt das man mit 300w tdp soviele shadereinheiten und hohem Takt befeuern kann der glaubt auch noch an den Weihnachtsmann
Mal abgesehen davon gibt es diese Karten schon....

Auch unter Luft kann man solche noch kühlen man braucht einen guten airflow und gute wlp
Meine 3090 war unter Max Last an die 75 bis 82 Grad warm
Unter Wasser die Hälfte
 
Zuletzt bearbeitet:
Dann musst du aber schon oc 6800xt mit oc 3090 vergleichen und das is der alte stand wiederhergestellt.

Bezüglich rt solltest du das weng objektiver betrachten
Guardians of the galaxy, Metro, control, hellblade, cp 2077 sind recht gute Beispiele was mit raytracing möglich ist
Nämlich realistische Darstellungs möglichkeiten

Wenn es für nichts ist es deine Sache....aber Geschmäcker sind eben verschieden
Und die meisten finden rt eben besser
Im Endeffekt muss jeder selbst entscheiden, ob einem 5 Spiele mit gutem RT ausreichen, um seine Kaufentscheidung so früh in der RT Mainstream Zeit davon beeinflussen zu lassen.

Für mich bleibt RT uninteressant, bis eine Karte der 60er Klasse (xx60 bzw. x600) alle RT Effekte gleichzeitig mindestens in FHD ohne Upsampling bei 60 fps beherrscht.

99,9% aller Spiele sind eh noch vollkommen ohne RT.
Wenigstens ist RT nicht an einen Hersteller gebunden... sonst würde es wie GPU PhysX in der Versenkung verschwinden
 
Im Endeffekt muss jeder selbst entscheiden, ob einem 5 Spiele mit gutem RT ausreichen, um seine Kaufentscheidung so früh in der RT Mainstream Zeit davon beeinflussen zu lassen.

Für mich bleibt RT uninteressant, bis eine Karte der 60er Klasse (xx60 bzw. x600) alle RT Effekte gleichzeitig mindestens in FHD ohne Upsampling bei 60 fps beherrscht.

99,9% aller Spiele sind eh noch vollkommen ohne RT.
Wenigstens ist RT nicht an einen Hersteller gebunden... sonst würde es wie GPU PhysX in der Versenkung verschwinden
ich hab jetzt meine Kaufentdcheidung nicht von rt abhängig gemacht...(aber man nimmt es gerne mit)
ich wollte maximale leistung in uhd haben und das bringt mir hier nur die 3090 mit sich

in vielen spielen kann hier die 6900xt die 60fps in 4k maxed out nicht stabil halten.
 
Dann musst du aber schon oc 6800xt mit oc 3090 vergleichen
Warum?
Ich meine generell sind 10% Differenz zwischen einer 3090, einer 3080 sind ja allesamt nicht groß. Hab hier im Bnech gerade nachgeschaut, die 6900XT liegt hier ja doch "beachtliche" 7% hinten, je nach Plattform hatte ich immer einen Gleichstand im Kopf, aber selbst die 7% Rückstand stören meine Aussagen nicht. Selbst bei 7% Leistungsvorsprung werden die 16% Mehrverbrauch (realistisch habe ich da sogar mehr im Kopf, gehe hier nur von TDP aus) nicht ausgegelichen.

Bezüglich rt solltest du das weng objektiver betrachten
Wie gesagt, meine Aussage ist natürlich subjektiver Art, halte ich den Nutzen nicht sonderlich hoch im Vergleich zum Aufwand. PhysX ist da meines Erachtens nach schon vergleichbar, die Effekte damals waren großartig (in meinen Augen sogar fortschrittlicher und besser als RT heute), die Kosten waren aber immens. Eine zweite Karte, bzw. eine dedizierte PhysX Karte war damals praktisch notwendig. RT sehe ich ähnlich, man kann sicherlich großartiges damit machen, allerdings auf welchen Kosten? Als fast schon amüsant finde ich bspw. das herausstellen der RT Fähigkeit einer 3050/3060! Klar bei einer 3090/3080 kann man damit werben und dank DLSS kann man es auch sinnvoll nutzen, bzw. FPS hinbekommen die brauchbar sind. Ich persönlich glaube, dass RT irgendwann einfach integriert werden wird und die RT Leistung der aktuellen Generationen eher unwichtig ist, Phsyik ist ja auch komplett integriert worden, spricht keiner mehr davon, genauso wird es RT ergehen.
Also von der 2080 Ti zur 3090 sind es schon gute 50 bis 55% (und das mit einem nur leicht verbesserten Prozess... Samsung 8nm entspricht ca. 10nm) Wirtschaftlich war es ein guter Zug aber man hat auch AMD unterschätzt sonst wäre man nicht zu Samsung gegangen
Ja, 50% sind eine Menge, wenn man aber bedenkt, dass man 35% TDP oben draufpackte, zeigt sich rein rechnerisch eine nicht wirklich gute Verbesserung der Karte. 11% hat man demnach gewonnen und das eben nicht mit einem nur "leicht" verbesserten Prozess. Da widerspreche ich massiv, denn der Prozess ist deutlich verbessert, hinkt zwar dem 7nm TSMC nach, liegt aber weit abseits des vorher verwendeten 14nm (es war ja ein leicht verbesserter 14nm Prozess bei TU102). Was eben auch dafür spricht, dass der in 7nm TSMC gefertigte A100 ebenfalls nahezu die gleichen Nachteile wie der Desktopchip hat. Daraus folgere ich, dass die Fertigung hier nicht den ganz großen Anteil hat. Ein Patt in 7nm TSMC (bei beiden) halte ich aber für absolut möglich!
Wenn das nicht in Ordnung is was war denn dann das von der 1080ti zur 2080 ti....
Die 2080Ti ist lt. PCGH 39% schneller als die 1080Ti, bei identischer TDP und 16nm zu 12nm Fertigung (also eher noch einem kleineren Schritt). 39% gegen 11% ist schon ein riesiger Unterschied!
Und 500w Karten werden kommen...
Sicherlich, allerdings wird das kaum noch mit Luftkühlung zu regeln sein und es wird sich auf ganz ganz wenige Anwender konzentrieren. Ähnlich wie Anwender heutiger HighEnd Luxus OC Karten mit werkseitiger Wakü (EVGA Kingpin oder ähnlich). Fraglich ob man dies dann noch als Gaminghardware sehen sollte, für mich irgendwie ähnlich den TITAN Karten von NV, die sich in dem Bereich tummelten, aber eben nie wirklich als Gaminghardware angesehen wurden.
Ich jedenfalls sehe bei den aktuellen Leistungsaufnahmen so ziemlich das Ende der Fahnenstange erreicht, nicht weil man nicht bereit wäre 1000W in so eine Karte zu pumpen, sondern schlicht weil die Kühlbarkeit nur noch mit Wakü (und dann bitte nicht mit 240er Radi ankommen, unter 420er brauchste es gar nicht erst versuchen, eher geht man in Richtung 560! (leise meine ich 120mm Radiatorfläche je 60W im Kopf zu haben, da wären für schon bei 8x120 oder 960er Radiator für eine Graka!!!) gewährleistet werden kann und dies dann doch ein zu kleiner Bereich ist um lukrativ Produkte anbieten zu können

Meine 3090 war unter Max Last an die 75 bis 82 Grad warm
Siehste, 350W laufen unter Last schon 82° heiß, die letzten 150W kommen aber immer on Top und müssen quasi 1:1 draufgerechnet werden. Mit kreischenden HighPerformance Lüftern bekommt man das sicher alles gekühlt, (https://www.mouser.de/ProductDetail/Sanyo-Denki/9HV1248P1H001?qs=FTQF2dEqrCBLTNf0/VuoAA==) allerdings braucht der Lüfter dann schon 67W!!!

Im übrigen, wenn du ehrlich bist, wie ertragbar war deine 3090 unter Last (Lautstärke?). Meine 6900XT (die gar UV ist) ist mir persönlich schon deutlich zu laut und nur dank Zero Mod (also massive UV und Lüfter auf 0%) kann ich damit auch ehrlich arbeiten.
Unter Wasser die Hälfte
Mit wieviel Radiatorfläche und welcher Lautstärke??? Beides muss ziemlich massiv sein, ansonsten niemals!!!
ich wollte maximale leistung in uhd haben und das bringt mir hier nur die 3090 mit sich
Das ist völlig in Ordnung und ich habe selbst an mehreren Stellen erwähnt, dass ich doch die 3080 hätte nehmen sollen (die 3090 ist mir dann doch over the top vom Preis gewesen). DLSS ist halt mittlerweile echt ausschlaggebend für mich!
 
Zuletzt bearbeitet:
Das stimmt so nicht der rdna2 n21 hat nur 5120 shader wogegen nvidia hier real 5248 shader hat die zudem noch 2624 fp32 berechnungen auf den fp16 einheiten berechnen können
Bringt am ende 28,3 vs 24,9tf
das bringt den ga102 auf 100% und den n21 auf 89%
das die beiden gpu aber immer recht nah beieinander sind liegt am cpu limit bzw bandbreiten limit der rtx3090
In 1080p kann derzeit keine cpu die gpu auslasten in 1440p geht es bis zu 90% und erst 4k zeigt die ampere ihre stärke und zieht dementsprechende 11% davon
Test gehen immer vom Gemisch 1080p 1440p 4k aus darum der kleine abstand von nur 6%
Das rdna2 effizienter ist steht außer frage von 350w auf 275w mit nur 10% weniger shader ist deutlich effizienter
amd architektur ist aber schwer an nvidia architektur zu vergleichen da amd hardware sheduler nutzt und nvidia einen software sheduler.
amd wpc groups nvidia gpc groups
amd ein wpc 20 wgp je 64shader auf 4 wpc
nvidia 12sm je 256shader auf 5 gpc=120sm
84 sind maximal aktiv verkauft werden derzeit 82sm
das sagt viel aus wie schlecht die yield sein muss bei 628mm² bei samsung das man quasi nen drittel des chips deaktiviert
ich vermute mal das das marketing die RT cores als maßstab nimmt und da je 256alu was 128fp32 und 128 int32 sind
Was die 128alu fp32 nur z 3/4 berechnen kann
Sieht man das ampere ein problem mit der auslastung hat nvidia wäre es lieber wenn der chip höher takte würde als so viele shader zu haben.
Den daran krankt der software sheduler wenn nvidia den chip mehr fp32 ausführungen machen lassen würde also dann 87% statt 75% würde allein dadurch 15% gewonnen werden können
zudem den chip auf tsmc 6nm würde dann 120sm und 100sm ermöglichen
Gänzlich raus das der ga102 auf 6nm kommt nicht auszuschließen bis dann 10% kleinerer chip
628*0,9=565mm² ga110 mit 100sm uvp von 889€ machbar bei 2,2ghz 40tf
Und darüber 999€ als vollausbau mit 120sm bei 2,0ghz 50tf
Also müsste lovelaced min eine architektur änderung haben damit es sich lohnt nen 80sm und 120sm chip zu fertigen
man bedenke das man mit den 80sm chip ebenfalls bei 899€ landen wird und bei gleicher takt nur 38tf erreicht
nehme ich die 87% an werden es 45tf aber immer noch weniger als den vollausbau eines ga110
Und die chipfläche ist 440 vs 565mm bei ne waferpreis von 14k vs 20k
Wirtschaftlich macht nur ein refresh auf 6nm sinn zumal ampere ne 7nm maske hat.
nvidia ist nicht freiwillig auf samsung gegangen. sie hatten kein wahl
Am ende müsste nvidia die archtiektur komplett umbauen damit sich der wechsel auf 5nm lohnt
ich sehe gerade das der ga102 nen drittel deaktiviert hat!!!
rechne ist die shader raus komme ich auf 293mm² fürn ad106 80sm
Das ändert die kalkulation beachtlich und eine uvp auf 799€ ist machbar mit 44,8tf als rtx4080
das alleine bring 60% mehr leistung als der ga102 dazu die bandbreite von derzeit 976gb/s auf 1152gb/s=86% schneller

Beide optionen sind denkbar ein 40sm chip für den einstieg wäre somit deutlich kleiner als gedacht mit etwa 147mm² als ad108 und 313mm² bei ad107 mit 60sm
Was dann eine rtx4070 ad107 mit 649€ und rtx4060 mit 40sm und 19,2tf 379€ machbar wird.
Als low end würde ich dann ga116 auf 6nm refreshen (220mm²) diese wäre dann bei 279€
und rtx4050 dann bei 229€ was so dieshot ausmachen.

leider hab ich bisher nix von nen ad107 gehört geschweige von nen ad108
daher gehe ich von der ersten option aus mit refreshes auf 6nm vom ga116 und ga114
das der ga102 auf ga110 mit 120 und 100sm kommen kann ist möglich und hängt primär von der wafer kapazität ab.
6nm müsste bereit sein 5nm fraglich ob genug frei ist
am ende ist das egal beiden optionen bringen gutes plus in den sku und man schafft vernünftige uvp
 
ich hab jetzt meine Kaufentdcheidung nicht von rt abhängig gemacht...(aber man nimmt es gerne mit)
ich wollte maximale leistung in uhd haben und das bringt mir hier nur die 3090 mit sich

in vielen spielen kann hier die 6900xt die 60fps in 4k maxed out nicht stabil halten.
Stimmt, da kann die 6900 XT nicht immer mithalten.
Mein Blick ist auch eher im Bereich der 6700 XT und 6600 XT - einfach, weil es für mich das mir gesetzte Budget Linit ist (PC Gaming ist nur eines unter vielen Hobbies und muss dann halt mit nem begrenzten Budget auskommen).

Immer wieder gelesene Kommentare bei 3060 und 3050: Aber die haben auch RT....
Mhm.. genau... in einer wunderbar craptastischen Performance.
Kann man dann halt auch einfach mal als Kaufargument ignorieren.

In der Preisklasse wären für mich halt eher Effizienz, Preis, Performance beim "normalen" Gaming und vielleicht noch nen Hauch "Welche Marke gefällt mir besser" entscheidend - wobei letztere auch maximal nen Ausschlag gibt, wenn die anderen 3 einen Gleichstand bringen.

Vor allem jetzt, wo sich für manche der Strompreis nach plötzlicher Kündigung durch den Anbieter mal eben verdoppelt hat.

RT mag das Zünglein an der Wage sein, aber es bleibt ein extrem schwaches Argument, wenn man sich die aktuelle Verbreitung des Features ansieht (Ich hör die Verteidiger des heiligen Rt schon tippen... "Aber es gibt doch schon über 80 Spiele!!!!11einself" (seit Launch der Turing Karten Anno 2018) - Toll... und allein letztes Jahr knapp 4000 PC Spiele ohne RT)
 
Bringt am ende 28,3 vs 24,9tf
Stimmt, hatte bei FP32 zumindest vergessen, dass NV grds. 2x könnte!Allerdings hätte ich dann 35,58TF!
AMD kommt bei der "normalen" 6900XT dann sogar auf etwas weniger als du geschrieben hast, nur 23,04 TF. Dafür in den weniger interessanten Anwendungen FP16 und FP64 ist AMD deutlich vorne. Insgesamt profitiert NV hier natürlich von ihrer 2x Konstruktion für FP32 Berechnungen.
Wirtschaftlich macht nur ein refresh auf 6nm sinn zumal ampere ne 7nm maske hat.
Da würde ich dir zustimmen, aber ob der doch sehr geringe Anteil an HighEnd Karten dann eine Neufassung auf 6nm rechtfertigt? Ich weiß nicht, vor allem müsste man ja den GA100 nehmen, der aber wieder weniger Shader hat. Der GA102 wäre ja nur in 8nm Basis und damit nicht wirklich geeignet für einen einfachen Switch auf 6/7nm. Das wäre dann wirklich zu aufwendig.

Daher gehe ich davon aus, dass man nur neue Chips in 6/7nm bringen wird und keinen Refresh sehen wird, da dieser schlicht zu teuer sein dürfte.
und muss dann halt mit nem begrenzten Budget auskommen
oder mehr arbeiten gehen :ugly:

davon profitiert man dann gleich doppelt, man muss die Hobbies reduzieren, da man weniger Zeit hat und hat gleichzeitig noch mehr Geld für die weniger Hobbies!!!
 
oder mehr arbeiten gehen :ugly:

davon profitiert man dann gleich doppelt, man muss die Hobbies reduzieren, da man weniger Zeit hat und hat gleichzeitig noch mehr Geld für die weniger Hobbies!!!
Danke, aber prinzipiell mangelt es nicht am Geld, eher an der Wichtigkeit des Hobbys PC
Das freie Geld wandert aktuell eher in andere Dinge.

Und das reine "mehr arbeiten" bringt es auch nicht.
Mein neuer Job hat 5h weniger die Woche bei höherer Bezahlung^^
 
Warum?
Ich meine generell sind 10% Differenz zwischen einer 3090, einer 3080 sind ja allesamt nicht groß. Hab hier im Bnech gerade nachgeschaut, die 6900XT liegt hier ja doch "beachtliche" 7% hinten, je nach Plattform hatte ich immer einen Gleichstand im Kopf, aber selbst die 7% Rückstand stören meine Aussagen nicht. Selbst bei 7% Leistungsvorsprung werden die 16% Mehrverbrauch (realistisch habe ich da sogar mehr im Kopf, gehe hier nur von TDP aus) nicht ausgegelichen.
naja du sagtest ja das wenn man das powerlimit erhöht das die 6900xt die 3090 dann schlägt....
das ist aber nur ein apfel und birnen vergleich wenn man oc vs stock macht.....

was den abstand angeht kommt es hier stark auf das spiel an...
allerdings hat man in vielen spielen allerdings gesehen das die 6900xt die 60fps in uhd maxed out eher selten halten kann
in solchen szenarios braucht man jedes Perfomance plus
noch dazu kann man man mt gewissen konfigurationen auch noch ein höheren perfomance gewinn erzielen
Wie gesagt, meine Aussage ist natürlich subjektiver Art, halte ich den Nutzen nicht sonderlich hoch im Vergleich zum Aufwand. PhysX ist da meines Erachtens nach schon vergleichbar, die Effekte damals waren großartig (in meinen Augen sogar fortschrittlicher und besser als RT heute), die Kosten waren aber immens. Eine zweite Karte, bzw. eine dedizierte PhysX Karte war damals praktisch notwendig. RT sehe ich ähnlich, man kann sicherlich großartiges damit machen, allerdings auf welchen Kosten? Als fast schon amüsant finde ich bspw. das herausstellen der RT Fähigkeit einer 3050/3060! Klar bei einer 3090/3080 kann man damit werben und dank DLSS kann man es auch sinnvoll nutzen, bzw. FPS hinbekommen die brauchbar sind. Ich persönlich glaube, dass RT irgendwann einfach integriert werden wird und die RT Leistung der aktuellen Generationen eher unwichtig ist, Phsyik ist ja auch komplett integriert worden, spricht keiner mehr davon, genauso wird es RT ergehen.
Nein das ist mal gar nicht miteinander vergleichbar...
physx war etwas von nvidia das nur auf deren karten lief.
Rt hingegen läuft auf amd karten und teilweise auf den konsolen (solange es die power zulässt)
Wenn das genauso wie physx wäre dann würde nicht auch amd ihren fokus darauf legen....

btw für rt auf der 3090 braucht man nicht zwingend dlss (außer bei cp2077/bei watch dogs legion siehts nur grottig aus)

ich finds eher witzig das du wohl schon genau weißt wie die zukunft von rt aus sieht.....
man sollte erstmal abwarten beovor man es in eine schublade schiebt
mit rt sind wir erst am anfang

Sicherlich, allerdings wird das kaum noch mit Luftkühlung zu regeln sein und es wird sich auf ganz ganz wenige Anwender konzentrieren. Ähnlich wie Anwender heutiger HighEnd Luxus OC Karten mit werkseitiger Wakü (EVGA Kingpin oder ähnlich). Fraglich ob man dies dann noch als Gaminghardware sehen sollte, für mich irgendwie ähnlich den TITAN Karten von NV, die sich in dem Bereich tummelten, aber eben nie wirklich als Gaminghardware angesehen wurden.
Ich jedenfalls sehe bei den aktuellen Leistungsaufnahmen so ziemlich das Ende der Fahnenstange erreicht, nicht weil man nicht bereit wäre 1000W in so eine Karte zu pumpen, sondern schlicht weil die Kühlbarkeit nur noch mit Wakü (und dann bitte nicht mit 240er Radi ankommen, unter 420er brauchste es gar nicht erst versuchen, eher geht man in Richtung 560! (leise meine ich 120mm Radiatorfläche je 60W im Kopf zu haben, da wären für schon bei 8x120 oder 960er Radiator für eine Graka!!!) gewährleistet werden kann und dies dann doch ein zu kleiner Bereich ist um lukrativ Produkte anbieten zu können
es wird aber kommen ganz egal ob du das für sinnvoll hälst oder nicht....
nvidia und auch die boardpartner haben ja auch die monster kühler für die 3090 gemacht etc....
ich staunte nicht schlecht als ich die 3090 mit kühler in den händen hielt was des für ein brocken ist natürlich wird es schwieriger dies zu kühlen
aber igor hat letztes jahr ein guten beitrag gemacht zu den wlps
da kann man schon 10 bis 15 grad mal rausholen nur durch gute und bessere wlps dann gibts ja noch andere tricks wie bessere wärmeleitpaste oder flüssigmetall
natürlich ist sowas für den 0815 anwender nicht einfach aber heutzutage gibt es zig schritt für schritt anleitungen

und das mit den radiatoren was du da erzählst is schon etwas an den haaren herbeigezogen.....
ja es is richtig es gibt diese fausregel allerdings ist das nur ein grober richtungswert und hat absolut keine aussagekraft da hier sehr viele faktoren eine rolle spielen
(man kann jetzt wie in deinem beispiel soviel radiator fläche nehmen, wenn aber die lüfter, der gpu block etc nicht gut sind dann nützt dir die fläche nur sehr wenig)

Siehste, 350W laufen unter Last schon 82° heiß, die letzten 150W kommen aber immer on Top und müssen quasi 1:1 draufgerechnet werden. Mit kreischenden HighPerformance Lüftern bekommt man das sicher alles gekühlt, (https://www.mouser.de/ProductDetail/Sanyo-Denki/9HV1248P1H001?qs=FTQF2dEqrCBLTNf0/VuoAA==) allerdings braucht der Lüfter dann schon 67W!!!

Im übrigen, wenn du ehrlich bist, wie ertragbar war deine 3090 unter Last (Lautstärke?). Meine 6900XT (die gar UV ist) ist mir persönlich schon deutlich zu laut und nur dank Zero Mod (also massive UV und Lüfter auf 0%) kann ich damit auch ehrlich arbeiten.
so 1. hat meine einen shuntmod heißt die hat kein powerlimit ergo is die tdp anmerkung von 350 schon mal falsch
dann die 82 grad sind gar nicht mal so problematisch war nur bei vollast (bei normaler auslastung bei guten 70 bis 75, mit guten lüftern wäre da durchaus noch mehr drin gewesen, die guten noctua lüfter kamen erst zur wakü)
2. sagte ich schon hier kommt es auf die lüfter und das gehäuse an....
3. wer eine 3090/6900xt kauft der hat kaum 0815 lüfter im gehäuse verbaut......
4. die so genannte "high perfomance lüfter" sind schrott
im 120er bereich ist noctua immer noch der beste was kühlung und lautstärke angeht (tests gabs genug, gibt hier aber auch neue von igor)
im 140er bereich sind die arctic p14 ganz vorne dabei (die neuen 140er von noctua kommen iwan q3 22) noch dazu kosten die sehr wenig und sind super (hab selber 3 im einsatz, auch hier gibts tests von igor)

war sehr etragbar bis gar nicht warnehmbar bei meinem soundsystem (pc steht ca. 2m entfernt)
bzw die msi ventus hat hier einen guten kühler und noch dazu hatte ich schon gute lüfter in meinem ultra big tower bis ich se gegen die von noctua getauscht habe
ich wollte allerdings das letzte quäntchen leistung rauspressen deswegen der umbau auf wasserkühlung

Mit wieviel Radiatorfläche und welcher Lautstärke??? Beides muss ziemlich massiv sein, ansonsten niemals!!!
daran sieht man nochmal deutlich das du von einer wakü recht wenig ahnung hast und es nur auf die radiatoren fläche runter brichst.
bei einer wakü kommen aber mehr faktoren hinzu

1. radiatoren
klar die fläche spielt eine rolle aber eben nicht nur
es kommt auch drauf an welcher hersteller
(hier gibts auch nochmal unterschiede, was auch durchaus mal 5 grad ausmachen, selbst auch schon getestet mit ein paar radiatoren

(meine radiatoren: gtx 360 black ice nemesis, gtx 280 black ice nemesis, alphacool xt 45 200er
hiermit wird aber auch ein 10900k gekühlt mit 5,3ghz allcore, mit einem speziellen kühler läuft bei diesem takt unter wassertemperatur bei 30 grad schwer vorstellbar aber is so ;) intel cryo cooler
is etwas überdimensioniert allerding hat mein gehäuse (nzxt Phantom 830 den platz hergeben und is für die zuukunft wass die tdp angeht gewappnet

2. GPU/CPU block
hier gibt es deutliche unterschiede
(kühldesign etc....)
bei corsair zb is es recht schlecht weil er nicht die ganze karte kühlt

3. Lüfter
sollte klar sein ;)
(meine lüfter: 4x 200er noctua nf a20 sind bei max unhörbar
3x 140er arctic p14)
4. Pumpe
sollte denke ich auch klar sein ;)
(meine pumpe: aquacomputer ultitube d5 200 pro ausgleichsbehälter mit d5 next pumpe)

5. Kühlmittel
(auch das kann mal 2-5 grad aussmachen, hört sich immer lustig an aber es summiert sich dann eben)

dadurch habe ich einen takt von 2,1 bis 2,2ghz (offset von 120mhz im afterburner)
vram läuft schneller als bei der 3090ti (offset von 1000mhz im afterburner, läuft stabil)
bei maximaler auslastung 42 bis 45/48 grad

was man aber auch immer bedenken sollte was die gpu angeht hier kann man mal einen guten chip erwischen andere erwischen einen nicht so guten chip

Das ist völlig in Ordnung und ich habe selbst an mehreren Stellen erwähnt, dass ich doch die 3080 hätte nehmen sollen (die 3090 ist mir dann doch over the top vom Preis gewesen). DLSS ist halt mittlerweile echt ausschlaggebend für mich!
vom preis her wäre die 3090 hier trz die bessere wahl denn die 3090 gabs bis märz zur uvp zu kaufen währen die 3080 fast genauso oder teilweise sogar mehr kostete als die 3090

amd hat gut abgeliefert und ich bin schon gespannt auf den herbst ob amd mit dem mcm design die ps auf die straße bringt oder ob der monolitische ansatz doch nochmal gewinnt

letzendlich kommt dieser konkurenz kampf uns gamer ja zu gute
Stimmt, da kann die 6900 XT nicht immer mithalten.
Mein Blick ist auch eher im Bereich der 6700 XT und 6600 XT - einfach, weil es für mich das mir gesetzte Budget Linit ist (PC Gaming ist nur eines unter vielen Hobbies und muss dann halt mit nem begrenzten Budget auskommen).

Immer wieder gelesene Kommentare bei 3060 und 3050: Aber die haben auch RT....
Mhm.. genau... in einer wunderbar craptastischen Performance.
Kann man dann halt auch einfach mal als Kaufargument ignorieren.

In der Preisklasse wären für mich halt eher Effizienz, Preis, Performance beim "normalen" Gaming und vielleicht noch nen Hauch "Welche Marke gefällt mir besser" entscheidend - wobei letztere auch maximal nen Ausschlag gibt, wenn die anderen 3 einen Gleichstand bringen.

Vor allem jetzt, wo sich für manche der Strompreis nach plötzlicher Kündigung durch den Anbieter mal eben verdoppelt hat.

RT mag das Zünglein an der Wage sein, aber es bleibt ein extrem schwaches Argument, wenn man sich die aktuelle Verbreitung des Features ansieht (Ich hör die Verteidiger des heiligen Rt schon tippen... "Aber es gibt doch schon über 80 Spiele!!!!11einself" (seit Launch der Turing Karten Anno 2018) - Toll... und allein letztes Jahr knapp 4000 PC Spiele ohne RT)
ja gut in deinem bereich gebe ich dir dann recht da sind andere dinge wichtig
nur kriegt man diese karten eben nur noch für horrende preise

das mit dem budget is bei mir ein weng anders, ich hab auch andere hobbys (aber durch meinen beruf is meine finazielle seite sehr entspannt, sonst hätte ich mir auch keine 3090 geholt plus neue konfi im winter 2020)

da haben wir in unser region sehr viel glück bei uns is der strompreis überhaupt nicht gestiegen
bin aber gewechselt zu einem anderen anbieter mit 2 jahren preisgarante (27ct/kwh, hier sind alle umlagen, grundpreis und steuern schon enthalten)

rt wird in der zukunft wichtiger werden wenn die next games auf der konsole kommen etc
noch is es zu wenig das is richtig aber wenns drin ist sieht es schon sehr gut aus

(far cry 6, guardians of the galaxy, shadow of the tomb raider, cp2077 da fehlt aber noch die leistung für ohne dlss, control, metro, hellblade, watch dogs legion aber nur auf mittel sonst is es zu over the top, es werden ja noch mehr rt titel kommen)
 
Zuletzt bearbeitet:
Zurück