Nvidia Ampere/Volta: Alle bekannten Informationen zu den Spieler-Geforce-Grafikkarten

Vega und "galaktischer" Verbrauch... Willst du damit behaupten, dass eine 1080ti sparsam ist?:lol: Ja, sie ist sparsamer als eine Vega und Nvidia ist im allgemeinen effizienter, als eine AMD Graka. Aber dieses sinnlose, stumpfsinnige gebashe... Leute, schaut euch an, was die z.B. Vega 56 mit leichtem uv an Strom verbraucht. Da ist doch nicht mehr viel Abstand. Aber da kann man Bücher drüber schreiben, die Leute wollen es dann nicht mehr hören. :ugly:

hör doch auf UV Vega mit Stock Pascal zu vergleichen

ne UV 1080Ti geht auf 150W Verbrauch zu drücken und läuft immernoch mit ~1600MHz

da kann Vega effizienz technisch bei Weitem nicht mithalten
 
Nehmt doch einfach die Leistung der aktuellen Titan V als Referenz. Wenn Nvidia seiner Linie treu bleibt, dann wird sowieso erstmal die Consumer Titan A released und diese wird Leistungstechnisch unterhalb der Titan V einzuordnen sein und alles was dann darunter folgt. Interessant wird es wahrscheinlich erst wieder bei der Ti Variante. Was anderes darf man nicht erwarten. Warum auch? Solange AMD mit den Minern genug Umsatz macht, bleiben die Gamer halt auf der Strecke und Nvidia hat keinen Bedarf zu kontern.
 
Nehmt doch einfach die Leistung der aktuellen Titan V als Referenz. Wenn Nvidia seiner Linie treu bleibt, dann wird sowieso erstmal die Consumer Titan A released und diese wird Leistungstechnisch unterhalb der Titan V einzuordnen sein und alles was dann darunter folgt. Interessant wird es wahrscheinlich erst wieder bei der Ti Variante. Was anderes darf man nicht erwarten. Warum auch? Solange AMD mit den Minern genug Umsatz macht, bleiben die Gamer halt auf der Strecke und Nvidia hat keinen Bedarf zu kontern.

Es kamen eigentlich immer die X80er Karten zuerst und der GX104 Chip. Die Titan waren immer der erste Vorgeschmack auf den GX102 Chip, kamen dann aber meist nach GX106.
 
Ich glaube nicht, dass man Volta mit Ampere vergleichen kann, bei Volta scheint diesmal wirklich in Richtung Machine Learning entwickelt worden zu sein.
Für Ampere wären solche Chips ohnehin viel zu teuer, aber mal schauen, AMD scheint dieses Jahr ja gar keine Karten für Gamer bringen zu wollen, da bräuchte Nvidia nicht einmal ein großes Leistungsplus gegenüber Pascal.
 
Zurück