Nvidia Ampere: Gerüchte um eine schlechte Lieferbarkeit bis Weihnachten

Es ist aber schon immer wieder krass, was für Falschinformationen in Foren gepostet werden. Das lesen hier 100 Leute und glaube es einfach, weil sie sich nicht informieren.

Da bist du doch auch fett dabei was die Falschinformationen betrifft... Noch ist zur Leistung von Navi2 nichts bekannt und schon posaunt jeder raus, dass sie ja auf gar keinen Fall Nvidia übertreffen können...
Bei Ryzen haben sie auch gut abgeliefert, wieso denn nicht auch hier?
 
Es ist aber schon immer wieder krass, was für Falschinformationen in Foren gepostet werden. Das lesen hier 100 Leute und glaube es einfach, weil sie sich nicht informieren.
Sie sind schon informiert, fehlinformiert. Speziell die deutsche Presse allgemein verkommt im Sinne des Klickbaits und Reichweite auch zu Reddit.com und bedienen sich immer weiter dem Moralismus bzw. in dem Fall Fanatismus. Wobei man kein Albert Einstein sein muss um zu erkennen das Nvidia mit ihren Produkten auch seriös wirtschaften möchte :ugly:.

Naja, wenn AMD bei BigNavi so schnell Custommodelle liefert wie bei Navi, dann hat man ja auch bei Nvidia bis Ostern nicht soooviel "Konkurrenz" (wenn der Halbgebildete davon noch reden mag). :D
Sehe ich auch so, je nach dem wie viel Zeit man sich lässt werden die 30er sich schon verbreitet haben speziell die 3070ti. Navi21 kann höchstens preislich etwas Druck machen, wenn überhaupt wird das aber keine signifikanten Marktanteile bringen, dafür reichen schon die kleinen Appetithäppchen bezüglich Ampere um das zu erkennen.
 
Das musst du mir jetzt mal genauer erklären...
Mit einem Chip mit gleicher Kernzahl und ähnlichem Takt wurde eine 2070 geschlagen... so dass es die Super gab.

Wie soll es dann unmöglich sein, einen doppelt so großen Chip mit leicht weiterentwickelter Technik zu mehr als der 70er Klasse zu bringen?

Also es sieht momentan so aus. 5700XT =< 2070S < 2080S < 2080Ti < 3070 < 3080 < 3090. Man muss doch erstmal nah dran sein. Und AMD ist eher weit entfernt. Wie soll man die 3090 schlagen?
 
man kann es halt nicht denen verüblen.Die Hoffnung stirbt zu letzt.Vielleicht träumen sie ja auch.In deren Träumen hat Amd schon längst eingeholt.Es fehlt in dem Traum nicht mehr viel.Denken die doppelte mehr Leistung würde ne RTX 3090 schon erreichen.Da ist halt zwischen Träumerei und wirklichkeit klafft halt ne große Lücke.
Man könnte meinen,die müsste nur einmal mit dem Finger Schnippsen wie Shini die Wunderlampe und schwups ist AMD gleichstark.
Aber so ist es halt eben nicht.Und selbst wenn sie kommen,kommen sie meistens zu spät.AMD hat also nix davon wenn sie dann vielleicht nächstes Jahr groß mit neuen Produkten kommen.Es ist wie wenn sie zu einer Party kommen die schon längst vorbei ist.Mit etwas Glück sind noch ein paar Handvoll Gäste da,das man da dann wenigstens etwas Geld dann damit macht.Es enscheidet also auch die Zeit.Was auch immer bei AMD nicht richtig Läuft,das werden wir wohl nie erfahren.Die vorherigen Generationen,die kamen auch viel zu spät auf dem Markt.Klar haben sie damit auch Geld gemacht,aber nur weil sie mit dem Preis herunter gegangen waren.Damit ist wohl echt nicht viel Geld damit verdient.Soweit ich gelesen habe,haben sie in letzter Zeit nicht mehr so viel Geld mit GPU gemacht.
ABer da ja die Kasse zurzeit dank der CPU Sparte gefüllt ist,braucht man sich finanziell dennoch bei AMD nun keine Sorgen mehr zu machen.Also egal wie schlecht es bei den GPU auch laufen mag.SIe könnten sogar Minus machen bei der GPU sparte und es Täte AMD nicht mehr weh.
 
Also es sieht momentan so aus. 5700XT =< 2070S < 2080S < 2080Ti < 3070 < 3080 < 3090. Man muss doch erstmal nah dran sein. Und AMD ist eher weit entfernt. Wie soll man die 3090 schlagen?

Ich bezweifel, das es im interesse von AMD ist die 3090 zu schlagen, denn die ist ein Nischenprodukt, einige die es beruflich brauchen kaufen es, und einige Hardcore-Spieler bzw. Enthusiasten.
Die Verkaufszahlen bleiben überschaubar, es ist kein Produkt was der Herbert, Hans oder Jürgen kauft, der seine Spiele über MM und die großen Ketten bezieht.

Wenn dann wird die leistung bei 3080 oder etwas dadrüber sein, jedenfalls in dem Bereicht, und eben der Preis spielt eine rolle.
 
Verfügbarkeit, Lieferbarkeit, Preisentwicklung der Turing-Karten bei Händlern auf Lager aber vor allem der gebrauchten Karten ... all das wird in den nächsten Wochen und Monaten wirklich interessant. Gerade schwimmt ebay ja momentan in Gebrauchtkarten, die allem Anschein nach schon fast panisch reingestellt werden, was nach der Präsentation der Ampere-Leistung noch verstärkt wurde.

Zumindest der Händler wegen wäre diese Vorgehensweise von Nvidia, wenn sie denn tatsächlich so gewollt ist, schon rücksichtsvoll. Ich denke auch Sony und MS werden Nvidia für jede Verzögerung dankbar, für mich stehlen die denen nicht unbeachtlich die Show, wenn man in erster Linie das P/L-Verhältnis pro TF GPU Leistung betrachtet.
 
Wie sieht das dann aus, muss man in der Nacht vom 16 auf den 17 schauen dass man schnell kauft oder kommt es einfach zu starken Lieferverzögerungen?
 
Lieferverzögerungen bei neuen Grafikkarten sind eigentlich nicht wirklich außergewöhnlich. Es kam doch immer wieder vor, dass Grafikkarten nach dem Release wochenlang nur in homöopathischen Dosen verfügbar waren.
 
Lieferverzögerungen bei neuen Grafikkarten sind eigentlich nicht wirklich außergewöhnlich. Es kam doch immer wieder vor, dass Grafikkarten nach dem Release wochenlang nur in homöopathischen Dosen verfügbar waren.

In der Tat. Das es bei Turing auch nicht gerade mit Überfluss los ging hatte ich selbst schon wieder fast vergessen.

Bei den Beißreflexen hier im Thread ist das anderen wohl auch wieder eingefallen. ;)
 
Zuletzt bearbeitet von einem Moderator:
Hach ja ... wie doof die Leute aus der Wäsche schauen werden wenn Big Navi ( Navi 2) tatsächlich wie vermutet auf das Chiplet Design mit Infinity Fabric switcht, so wie es eigendlich für Navi seit anfang an geplant war. Die Konsequenzen zum Beispiel 25 Shader Cluster in ein Chiplet zu packen sehen wie folgt aus:

->Die Fläche des Dies ist viel kleiner = Höhere Ausbeute, weniger Ausschuss = Günstiger
->Für mehr CUs ist kein komplett neuer / Anderer Chip in separater Fertigung nötig ( senkt die Kosten )
->Da alle Chips die gleichen Chiplets benutzen, ist auch hier von Anfang an besser Skalierbar und vor allem Schneller
->Einfache / Schnelle / Kostengünstige Skalierbarkeit -> du willst 50 shader Cluster, pack nen 2. Chiplet drauf, du willst 100 um im High End Segment die CUs des Konkurrenten zu überbieten? Geh auf 4. Der Konkurrent kommt mit ner Super Variante / Ti? ... pack 1-2Shader Cluster oben drauf.
-> Da kein einzelner Hotspot auf dem Chip sondern viele kleine, lässt sich die Kühllösung besser verteilen.

FALLs AMD auf Chiplet wechselt mit BIG Navi, dann können sie zu einem günstigem Preis tun und lassen was sie wollen, da sie auf jedenfall Notfalls immer nach oben skalieren können ohne groß die Kosten für RD bzw. zusätzliche Chipdesigns dieser Generation zu verschwenden und noch viel Wichtiger: Sie können die bestehenden Chiplets auch bei anderen Karten der Generation verwenden um ein wie von Nvidia genanntes BFGPU Monster zu schaffen, was dann aber aufgrund der Ausbeute sehr viel weniger kosten würde.
 
Hach ja ... wie doof die Leute aus der Wäsche schauen werden wenn Big Navi ( Navi 2) tatsächlich wie vermutet auf das Chiplet Design mit Infinity Fabric switcht, so wie es eigendlich für Navi seit anfang an geplant war. Die Konsequenzen zum Beispiel 25 Shader Cluster in ein Chiplet zu packen sehen wie folgt aus:

->Die Fläche des Dies ist viel kleiner = Höhere Ausbeute, weniger Ausschuss = Günstiger
->Für mehr CUs ist kein komplett neuer / Anderer Chip in separater Fertigung nötig ( senkt die Kosten )
->Da alle Chips die gleichen Chiplets benutzen, ist auch hier von Anfang an besser Skalierbar und vor allem Schneller
->Einfache / Schnelle / Kostengünstige Skalierbarkeit -> du willst 50 shader Cluster, pack nen 2. Chiplet drauf, du willst 100 um im High End Segment die CUs des Konkurrenten zu überbieten? Geh auf 4. Der Konkurrent kommt mit ner Super Variante / Ti? ... pack 1-2Shader Cluster oben drauf.
-> Da kein einzelner Hotspot auf dem Chip sondern viele kleine, lässt sich die Kühllösung besser verteilen.

FALLs AMD auf Chiplet wechselt mit BIG Navi, dann können sie zu einem günstigem Preis tun und lassen was sie wollen, da sie auf jedenfall Notfalls immer nach oben skalieren können ohne groß die Kosten für RD bzw. zusätzliche Chipdesigns dieser Generation zu verschwenden und noch viel Wichtiger: Sie können die bestehenden Chiplets auch bei anderen Karten der Generation verwenden um ein wie von Nvidia genanntes BFGPU Monster zu schaffen, was dann aber aufgrund der Ausbeute sehr viel weniger kosten würde.

Woher kommen die Gerüchte? Lt meines wissens (Roadmap von amd von vor ~1jahr) soll multi chip Design erst nach rdna2 an der Reihe sein. Ich könnt mir vorstellen das sowohl Nvidia als auch amd mit der nächsten gen die ersten Schritte in die Richtung machen.

Wobei ich dabei dann die technische Umsetzung tatsächlich spannender finden würde als die Leistung die die Karten dann evtl haben :p
 
Woher kommen die Gerüchte? Lt meines wissens (Roadmap von amd von vor ~1jahr) soll multi chip Design erst nach rdna2 an der Reihe sein. Ich könnt mir vorstellen das sowohl Nvidia als auch amd mit der nächsten gen die ersten Schritte in die Richtung machen.

Wobei ich dabei dann die technische Umsetzung tatsächlich spannender finden würde als die Leistung die die Karten dann evtl haben :p

Da würde ich mal zustimmen, hatte auch gelesen das erst mit RDNA3 man in Richtung Chiplets gehen möchte.

Raja Koduri hat ja 2015/2016 darüber gesprochen und Igor und andere Leute meinten soweit ich mich recht erinnere das es damals natürlich noch dauert.
 
Um das umzusetzen braucht man zwingend aktive interposer
dazu schnellen sram bzw sehr hohen coreclock wir sprechen von min 4,0ghz
quasi doppelten i/o clock zu gpu /shaderclock
Thermisch wäre das lösbar aber so eine gpu wäre bedingt directx11 10 9 fähig bzw nur bei einen chiplet, es muss directx12 basierend laufen da ansonsten windows die gpu nicht auslasten könnte.
Alternative wäre co Prozessoren in der gpu die diese Aufgabe übernehmen.
Vom treiber her könnte mane s so lösen wie einst 3dfx Ansatz (sfr) bild in tiles aufteilen und mit eine frame Abstand zusammensetzen.
Bedeutet aber auch das immer die Rechenintensivste stelle das limit stellen.

Diese Forschung ist garantiert gemacht worden aber ich bin mir fast sicher das dies noch nicht soweit ist.
RDNA3 soll zumindest die erste gen sein die eine art chiplet in 3d stack Bauweise.
Ursprünglich sollte navi schon chiplets haben (Stand 2017) aber durch die priorisierung der Konsolen und massiv viel R&D der cpu sparte wurde daraus nix.
jetzt wird erst navi so design wie es von Anfang an sein sollte als erste gen.
neue isa neue Architektur
 
AMD wird liefern ein Vorgeschmack werden die Konsolen dieses Jahr geben. Bei den Grafikkarten mal sehen bis es soweit ist.
 
Zurück