Nvidia Ampere: Massenproduktion im August, Release im September?

Gibt es dazu offizielle Daten oder ist das nur ein Gerücht?

Angeblich sollen die auf dem GA102 basierenden GPUs eine höhere TBP haben als noch zuvor bei Turing beobachtet, wo selbst eine reguläre RTX 2080 Ti deutlich unter 300 W blieb. Unklar ist aber auch ob die umherschwirrenden Werte von 320 bzw. 350 W das theoretische oberste Maximum darstellen oder eine typical TBP. Man kann jedoch schon mal vorab mitnehmen, dass es grundsätzlich "irgendwie" mehr werden wird.

Für eine Bewertung darüber hinausgehend taugt diese Information jedoch nicht, da man noch keine Leistungswerte hat und entsprechend abwegig ist hier auch etwas a la "Verzweifelung & Co", was wohl eher die Verzweifelung des Posters zum Ausdruck bringt, so wie seine persönlichen Präferenzen.
Aktuell sind weder Leistungswerte von nVidia noch AMD bekannt und von letzteren ist schlussendlich bisher noch weitaus weniger "bekannt" als von nVidia's Ampere, sodass hier alles Kaffesatzlesen ist.

Beispielsweise die RX Vega 64 war zwar ganz nett, konnte sich am Ende dennoch nicht mit einer GTX 1080 Ti messen, der sie leistungstechnisch wie auch verbrauchstechnisch unterlegen war und das, obwohl sie zudem HBM2 nutzte, das sparsamer als das auf der Geforce verwendete GDDR5X war (sowohl bzgl. der Speicher-Chips als auch bzgl. des PHY/Controllers in der GPU).

Hier wird man abwarten müssen, bis man das leistungstechnisch einordnen kann; sollte ja nicht mehr so lange dauern, zwei Monate für erste handfeste Vorabinformationen, schlimmstenfalls vier Monate bis zum Launch.
 
Zuletzt bearbeitet:
NV sieht verzweifelt aus, wenn man die XX80er auf über 300W prügeln muss.
Oder sie machen es einfach um ein Exempel zu statuieren.

Auf alle Fälle sollte man später mal RDNA2 mit Ampere bei einem festgelegten Power-Limit von sagen wir einmal 150W und einmal 200W vergleichen.
Dann kann man sagen ob Ampere wirklich einfach nur ineffizient ist oder ob es auch mit niedriger Leistungsaufnahme gegen RDNA2 gewinnt.

Würde jetzt nicht von den vermeintlichen Kühlern auf eine schlechte Effizienz von Ampere schließen.
Außerdem ist es am Ende jedem User selbst überlassen, ob man die GPU auf 150W oder 300W oder 400W-OC betreibt.
Man ist doch immer selbst dafür verantwortlich, was die Karte verbraucht und man muss auch nicht immer 120% Power-Limit geben.
 
RDNA2 ist ja speziell auch für Konsolen mit ener nicht so starken Kühlung wie bei Grafikkarten entwickelt worden und wenn man sich die Effizienz der 5600 Xt so ankuckt und RDNA2 in den Konsolen im Sweetspot läuft kann AMD schon weniger saufen.
 
Auch ein kleines Licht ebnet dir den Weg, wenn du verloren gegangen bist und bringt dich ans Ziel, aber ein großes Licht vermag dich und dein Portemonnaie gleichermaßen zu verbrennen, vor allem wenn dieses Licht 320W+ verballert^^

Welche CPU verbraucht denn Stock 320W und mehr ? ;)

Ob das Licht zu klein, oder zu groß ist, ist beides schlecht.

Angeblich sollen die auf dem GA102 basierenden GPUs eine höhere TBP haben als noch zuvor bei Turing beobachtet, wo selbst eine reguläre RTX 2080 Ti deutlich unter 300 W blieb. Unklar ist aber auch ob die umherschwirrenden Werte von 320 bzw. 350 W das theoretische oberste Maximum darstellen oder eine typical TBP. Man kann jedoch schon mal vorab mitnehmen, dass es grundsätzlich "irgendwie" mehr werden wird.

Für eine Bewertung darüber hinausgehend taugt diese Information jedoch nicht, da man noch keine Leistungswerte hat und entsprechend abwegig ist hier auch etwas a la "Verzweifelung & Co", was wohl eher die Verzweifelung des Posters zum Ausdruck bringt, so wie seine persönlichen Präferenzen.
Aktuell sind weder Leistungswerte von nVidia noch AMD bekannt und von letzteren ist schlussendlich bisher noch weitaus weniger "bekannt" als von nVidia's Ampere, sodass hier alles Kaffesatzlesen ist.

Beispielsweise die RX Vega 64 war zwar ganz nett, konnte sich am Ende dennoch nicht mit einer GTX 1080 Ti messen, der sie leistungstechnisch wie auch verbrauchstechnisch unterlegen war und das, obwohl sie zudem HBM2 nutzte, das sparsamer als das auf der Geforce verwendete GDDR5X war (sowohl bzgl. der Speicher-Chips als auch bzgl. des PHY/Controllers in der GPU).

Hier wird man abwarten müssen, bis man das leistungstechnisch einordnen kann; sollte ja nicht mehr so lange dauern, zwei Monate für erste handfeste Vorabinformationen, schlimmstenfalls vier Monate bis zum Launch.

TBP nicht TDP. Die TBP von Turing dürfte nicht viel niedriger gewesen sein. Jede GPU mit 1x 8 Pol und 1x 6 Pol Stecker dürfte schon eine TBP von 300W haben.
Bezüglich der Leistung und der Effizienz hast du absolut Recht, das kann noch keiner wirklich einschätzen.

Oder sie machen es einfach um ein Exempel zu statuieren.

Auf alle Fälle sollte man später mal RDNA2 mit Ampere bei einem festgelegten Power-Limit von sagen wir einmal 150W und einmal 200W vergleichen.
Dann kann man sagen ob Ampere wirklich einfach nur ineffizient ist oder ob es auch mit niedriger Leistungsaufnahme gegen RDNA2 gewinnt.

Würde jetzt nicht von den vermeintlichen Kühlern auf eine schlechte Effizienz von Ampere schließen.
Außerdem ist es am Ende jedem User selbst überlassen, ob man die GPU auf 150W oder 300W oder 400W-OC betreibt.
Man ist doch immer selbst dafür verantwortlich, was die Karte verbraucht und man muss auch nicht immer 120% Power-Limit geben.


Ich denke, anhand der Gerüchte Specs, das AMD und Nvidia bei knapp bis zu 300W TDP relativ gleich schnell wären und beide sehr viel schneller, als eine 2080TI. Ich kann mir hier bis zu 64% vor einer 2080TI vorstellen.

Wenn die Karte grundsätzlich effizient ist, habe ich kein Problem damit immer +20% zu geben ;)
 
[...] TBP nicht TDP. Die TBP von Turing dürfte nicht viel niedriger gewesen sein. Jede GPU mit 1x 8 Pol und 1x 6 Pol Stecker dürfte schon eine TBP von 300W haben.
Bezüglich der Leistung und der Effizienz hast du absolut Recht, das kann noch keiner wirklich einschätzen. [...]

Ich habe auch bzgl. der TBP recht ;-), denn von TDP habe ich nirgends etwas geschrieben.
Die RTX 2080 Ti FE hat eine TBP/TGP von 260 W. (Das maximale Board-Limit liegt bei 320 W.) Mit ihren typischerweise gemessenen 279 W (Gaming wie Stresstest) überschreitet sie ihre offizielle TBP-Spec bereits standardmäßig ein wenig, liegt damit aber noch 20 W unter den von dir erwähnten 300 W. Rechnet man diese TBP nun zurück, so kommt man auf etwa 196 W TDP für den TU102 in dieser Konfiguration.

Um die Gerüchte nun Vergleichen zu können, kann man annehmen: Die vermeintliche RTX 3090 (mit oder ohne Suffix) wird ggf. als Top-Modell die bisherige RTX 2080 Ti ersetzen und für diese würden die 350 W bestimmt sein, die vielfach zitiert werden. Ein Sprung von 260 W TBP auf 350 W TBP erscheint höchst unwahrscheinlich, sodass es sich bei den zitierten 350 W wahrs. um das maximale Board-Limit handeln sollte, es stellt also eine Erhöhung der 320 W der RTX 2080 Ti auf 350 W der RTX 3090 dar, was noch halbwegs überschaubar ist.
Zum weiteren Vergleich: Die zur FE baugleiche KFA2/Galax RTX 2080 Ti OC mit ihrem Custom-BIOS hat die TBP auf 320 W angehoben sowie das maximale Limit gar auf 380 W. Will man diese mit dem verwendeten Referenz-PCB jedoch innerhalb der PCIe-Spezifikation betreiben, darf man diese nicht über 350 W ausfahren, da sie ansonsten zu viele Ampere auf dem MB-Slot zieht. (Darüber hinaus: Die alte GTX 1080 Ti zieht im Mittel nur um die 250 W TBP.)
Unterm Strich bewegt sich nVidia hier mit Ampere also voraussichtlich lediglich etwas mehr in den Raum hinein, den bisher einzig die Board-Partner mit ihren Custom-Designs belegten (und entsprechend muss auch das Kühldesign etwas aufwändiger ausfallen).
 
Zuletzt bearbeitet:
Zurück