Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.Der möglicherweise wichtigere Punkt ist, wie oft die 4090 im CPU-Limit hängt, auch mit den schnellsten CPUs auf dem Markt, da macht eine deutlich grössere GPU für's Gaming schlichtweg nicht viel Sinn. Erschwerend dazu kommt, dass NVidia literweise Blut geleckt hat im KI-Segment und sich augenscheinlich sehr stark darauf fokussiert.
Das passiert nicht. Der Großteil von den NV und AMD Aktien wird von den gleichen institutionellen Investoren gehalten bzw. für ihre Kunden verwaltet. Die Aktionäre von AMD sind damit oft auch Aktionäre von NV. Das ist beiden Unternehmen bekannt. Damit gehen sie mittlerweile sehr sparsam mit Preiskämpfen um. Ich werte mir keine „Hilfe“ von AMD aus Konsumentensicht.Ich hoffe ja ehrlich gesagt, dass AMD am Ende DOCH eine High-End GPU auf den Markt bringen wird und Nvidia damit etwas düpiert.
Letzten Endes ist ja vor allem dort eine gute Marge zu holen.
Nvidia könnte im schlimmsten Fall "oben" die Marge mitnehmen und dann "unten" strategisch einen Preiskampf führen.
???Interessant wie nvidia so etwas von AMD abhängig macht. Die sind doch keine ernsthafte Konkurrenz. Selbst wenn sie 2 Generation das deutlich bessere Angebot hätten, hat Nvidia immer noch das bessere Software Packet. Die Leute würden eh Nvidia kaufen, weil 'das ist das beste.'
siehe oben, natürlich interessiert es NV.Quatsch, als ob NVidia es gross interessieren würde, was für Chips AMD bringt.
stimmt, aber hat jetzt genau was für einen Bezug hier?Gibt zahlreiche Chip-Projekte, die früh abgebrochen werden, aus verschiedensten Gründen, oft technischer oder rein ökonomischer Natur.
Waren die Titans nicht in allererster Linie downgegradete ProfiChips? Oder auch mal im späteren Verlauf einer Gen ein vollausgebauter 80er; also wenn die Fertigung soweit war, dass es genug vollfunktionsfähige Chips gab?Sonst hätte es so GPUs wie die Titans, heute zu xx90 (Ti) umbenannt, nie gegeben, die immer eine eigene Leistungsklasse darstellten.
Das ist aber nur die halbe Wahrheit, die 6900XT war performancetechnisch immer auf Augenhöhe, Nvidia hat nicht umsonst eine Menge Strom reingeballert, damit man in den Balkendiagrammen die Spitze behält. Aber wenn man sieht, ein Blick in den aktuellen Index sagt zum Beispiel schon aus, dass eine 6800XT (also nichtmal das Flagschiff) eine 3080 10GB (Releasekarte) schlägt, die 3090Ti distanziert eine 6950XT (die 3090 non Ti und 6900XT sind nicht mehr vertreten) knapp um 7%, bei einem Preisaufschlag von 50% und deutlich besserer Effizienz! Nur RT war NV Gebiet, ansonsten war das ein sehr ausgeglichenes Duell in sachen Performance.aber performancetechnisch trotzdem nur in Teilen ebenbürtig
Das halte ich für das "größte" Dilemma für uns Spieler. Im KI Segment lässt sich aktuell wohl richtig Kohle verdienen und Nvidia ist da führend und wird dementsprechend nur das nötigste tun um knapp vor AMD zu bleiben, damit man maximale Effizienz für die KI Fertigung bereitstellen kann.Erschwerend dazu kommt, dass NVidia literweise Blut geleckt hat im KI-Segment und sich augenscheinlich sehr stark darauf fokussiert.
"nur"?MCM haben nur 2 Vorteile.
Nö! größere Chips haben in der Regel weniger nutzbare Fläche auf dem Wafer, da die Aufteilung dann nicht passt und quasi mehr Verschnitt dabei ist.Aber das ist alles. Bei z.b. 100% Ausbeute sind kleine MCM Chips und ein monolithischer Chip der gleichen Größe gleich teuer. In dem Beispiel ist MCM sogar vom Nachteil.
ich glaube ja, dass man die umbenannt hat, weil AMD die 6900XT hatte und der eigentlichen Speerspitze im Gaming um die Ohren gesaust wäre, daher hat man die Titan kurzerhand in 3090 umbenannt und ordentlich Strom drauf gegeben um im Balkendiagramm doch noch vorne zu liegen.Nvidia hat dann die aus Marketing Sicht in 90 umbenannt und die fürs Gaming beworben um halt mehr Leute direkt anzusprechen.
MCM haben nur 2 Vorteile. Monolithisch hat eine maximale Größe von ca 600-800mm², je nach Herstellungsverfahren.
Mit MCM kann man viele kleine Chips aneinander kleben und kann so eine größere Gesamtfläche bekommen.
Desweiteren haben kleine Chips den Vorteil, das bei einem Defekt nur ein kleinerer Teil des Wafers "Schrott" ist. Also bessere Ausbeute, was den Preis senkt.
Aber das ist alles. Bei z.b. 100% Ausbeute sind kleine MCM Chips und ein monolithischer Chip der gleichen Größe gleich teuer. In dem Beispiel ist MCM sogar vom Nachteil.
Denn bei MCM muss man entweder einen Interposer nutzen oder einen Teil der Fläche für die Konnektivität zwischen den MCM DIEs opfern, wie Apple. Ein Interposer kostet auch Geld und kann eine Leistungseinbuße bringen.
Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.
Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.
Ja, da KI-Segemtent ist für uns Gamer schon etwas unschön.
[...]
Das ist aber nur die halbe Wahrheit, die 6900XT war performancetechnisch immer auf Augenhöhe, Nvidia hat nicht umsonst eine Menge Strom reingeballert, damit man in den Balkendiagrammen die Spitze behält. Aber wenn man sieht, ein Blick in den aktuellen Index sagt zum Beispiel schon aus, dass eine 6800XT (also nichtmal das Flagschiff) eine 3080 10GB (Releasekarte) schlägt, die 3090Ti distanziert eine 6950XT (die 3090 non Ti und 6900XT sind nicht mehr vertreten) knapp um 7%, bei einem Preisaufschlag von 50% und deutlich besserer Effizienz! Nur RT war NV Gebiet, ansonsten war das ein sehr ausgeglichenes Duell in sachen Performance.
[...]
Witzig fände ich, wenn AMD es schafft doch ein MCM Monster zu bauen und dann beim Release Nvidia völlig überascht, einzig der Glaube fehlt.
[...]
Außer das AMD kein Hiegh End bedient hat, war da gar nichts. Weiß nicht wie man das schön reden will.schon, ja. Aber umgekehrt hat man damals die Ressourcen zusammengezogen und die sehr gute Navi1/2 Gen gebracht, das war auch nicht schlecht. Leider reden wir dann halt von einer Zeit von in 3 Jahren oder so...
Fängt diesmal aber sehr früh anwarten wir doch einfach auf die nächste News, die wieder alles über den Haufen wirft - das ganze geht jetzt noch 1,5 Jahre so weiter ?
Die Raden 5700 war endlich aml wieder eine effiziente, flotte GamerkarteAußer das AMD kein Hiegh End bedient hat, war da gar nichts. Weiß nicht wie man das schön reden will.
Nein, aber gleichwertig in vielen Belangen (was aber auch damit zusammenhing, dass Nvidia einen besseren 10nm Prozess nutze und AMD schon bei 7nm war)Navi war am Anfang sicher nicht schlecht. Aber dennoch nicht besser, als das Nvidia Gegenstück dazu.
Zu Zeiten von Vega sind die Ressourcen stark weggenommen worden und die übrigen in Navi investiert worden.War es nicht so, das AMD die Ressourcen eher für ZEN XY genutzt hat?
Sicher nur ein Hirngespinst von einem Aufmerksamkeitswünschenden Twitterer.Ich kann mir aber in diesem Fall aber sehr gut vorstellen, das selbst wenn an den Gerüchten ein wahrer Kern ist, das es sich um ein Missverständnis handelt. Da mit dem Multi Chip Design es genug Möglichkeiten gibt zu Verwechselungen.
Und damit nur auf der Höhe der Zeit.Die Raden 5700 war endlich aml wieder eine effiziente, flotte Gamerkarte
Das ist ja schon die Gen nach der, "wir beliefern diesmal kein Highend".Die Radeon 6xxx vs Geforce 3xxx war zumindest im Rastern ebenbürtig und effizient.
RT Nein, VR Nein, Raster ja. Aber das ist immer noch die Gen danach.Nein, aber gleichwertig in vielen Belangen (was aber auch damit zusammenhing, dass Nvidia einen besseren 10nm Prozess nutze und AMD schon bei 7nm war)
Das ist mir zu wenig. Ich will doch nicht erst wieder 2027 ordenltiche Hardware von AMD ( Nicht böse nehmen, ich denke eigentlich kann man erkennen worauf ich hinaus will.Zu Zeiten von Vega sind die Ressourcen stark weggenommen worden und die übrigen in Navi investiert worden.
Ähnlich wird es jetzt auch laufen, man wird eine neue Architektur für die nächsten Konsolengenerationen bauen
Gilt für beide Gerüchte (Nvidia jetzt, genau so wie AMD mit kein Highend).Sicher nur ein Hirngespinst von einem Aufmerksamkeitswünschenden Twitterer.
Wenn AMD RX7000 weiter entwickelt und man sich bei Nvidia schwer tut einen noch größeren monolithen zu erschaffen. RX7000 ist ja nicht schlecht. Aber Die RT Leistung muss derbe nachgebessert werden.Nvidia hat es im Moment nicht not, einen MCM Chip für Spieler zu bringen.
Für HPC ist es geplant
Deswegen sagte ich ja das Monolithisch bei 600-800mm² gekappt ist.Du hast den wesentlichen Punkt vergessen, Skalierbarkeit.
Mit einem MCM Design kann man eine breitere Produktpalette - zu günstigeren Herstellkosten - als mit Monolithen anbieten. Der Epyc ist da das Beste Beispiel.
Auch die MI300X würde ich hier anführen, da man auch 4 Chiplets miteinander verschaltet, was durchaus auch beachtenswert ist.
Es stellt sich nur die Frage inwieweit es bei Gamer GPUs dann wirklich Sinn macht (im Bezug auf wie viel Chiplets man denn vernetzen möchte)?
Ich bin da sehr gespannt was AMD mit RDNA 4 vorhat und was Nvidia für Ideen dazu hat.
Weil wir da schon von Kopite die 8nm Samsung info hatten.Und du weißt woher, dass das nicht ne Zeit lang geplant war und intern verworfen wurde?
Du weißt es nicht, also trifft die Aussage: "Der Typ labert doch ständig nur Mist." eher sogar auf dich zu
Die Dinge können sich über die Zeit ändern. Nvidia könnte möglicherweise den Gedanken gehabt haben auf 7 nm TSMC zu wechseln und später dann auf 5 nm. Weder du noch ich waren bei internen Gesprächen dabei, also können wir dazu auch nichts genaues sagen.Weil wir da schon von Kopite die 8nm Samsung info hatten.
Also laber Selber keinen Mist
Sowas ändert man aber nich mal eben in ein Paar Monaten!Die Dinge können sich über die Zeit ändern. Nvidia könnte möglicherweise den Gedanken gehabt haben auf 7 nm TSMC zu wechseln und später dann auf 5 nm. Weder du noch ich waren bei internen Gesprächen dabei, also können wir dazu auch nichts genaues sagen.
Der Unterschied zwischen uns beiden ist aber, dass ich mir dessen bewusst bin und du nur Unfug von dir gibst.
Naja, es ist ja nicht so, dass man gar nichts liefert. Die aktuelle XTX ist keine schlechte GPU, sie liefert deutlich mehr als der Vorgänger, ist effizienter als der Vorgänger und und und! Nur liegt sie halt deutlich hinter NVs Flaggschiff, was aber eben für dann doch wenig Mehrleistung 100% Aufpreis kostet! Wieviele Menschen geben 1k und mehr für eine GPU aus? 0,0001% der Gamer?Ich wünsche mir von AMD in jeder Gen Konkurrenz zu Nvidia und gerne auch brauchbare VR Treiber zu release, oder kurz danach.
das stimmt natürlich, abe das wa di Jahre davor eben nicht so. Seit 2014 (Maxwell,) hatte AMD sehr deutlich das NachsehenUnd damit nur auf der Höhe der Zeit.
Ja, dazu braucht es eben eine neue ArchitekturWenn AMD RX7000 weiter entwickelt und man sich bei Nvidia schwer tut einen noch größeren monolithen zu erschaffen. RX7000 ist ja nicht schlecht. Aber Die RT Leistung muss derbe nachgebessert werden.