Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

Man kann sich das aber auch schön reden. Ein Jahr ist schnell vorbei und dann kommen schon wieder neue Grafikkarten mit Mindest-RAM von 24Gb. ;)

Kann, kann aber auch nicht... So schnell sind nun neue Engines auch nicht gebaut und man muß halt immer noch sagen, das größte Problem bei mehr als 10GB nötigem VRam wäre nicht, dass die Karte das nicht kann, sondern die Frage, mit was man den Entwickler verprügeln sollte, der dermaßen bei der Optimierung der Grafikengine versagt hat ;-)
 
muss hier noch was los lassen über nv´s ampere release verhalten bzw strategie, die dahinter stecken könnte !

ich vermute folgendes,

nach der rdna2 präsentation bzw test, wird sich herausstellen worauf nv eigentlich mit den frühen und mit aller macht, ampere mit der brechstange gezwungen hat, und zwar um ihre treue und naive kunden, vor allem die auf nv blind vertrauen, nämlich bzw natürlich um den verkauf zu maximieren, noch bevor rdna2 mit preisleistungs kracher einschlägt für die pc gamer !!!

weil nv freilich alles über rdna2 bescheid weiss, und das rdna2 perfekt auf den mark ankommen wird, deshalb eben mit der ampere mit ah und krach und frühen release gezwugen hat.

und was dann mit den verbrauch leistung sowie andere bling bling features von nv angeht, wollen wir erst garnicht anfangen, das sollte man lieber den nützer/verbraucher selbst überlassen ;)

ansonsten, hat sich nv mit der ampere release schon jetzt ein bitteren beigeschmack hinterlassen und es wird ein ganz grosser werden !!!

vor allem mit ihren angeblichen flaggshiff rtx3080, mit ihren sagen haften 10gb und über 330+ watt verbrauch, was eigentlich nicht mal 500 euro wert ist, sprich nv hat dadurch quasi seine kunden total abgezockt oder eher ver... ?

den im wahrheit, hätte fahrrad nur kette, also ohne elektrizität, so hätte ampere eigentlich nicht vor 2021 und direkt mit 16/20 gb vram erscheinen sollen, wenn nv ein seriöser firma und kunden freudlich gewessen wäre, aber das weinachtsgeschäft ist ja viel, viel wichtiger als kundenfreudlichkeit usw, so viel dazu !!!

am ende bzw irgendwann oder auch eines tages, wird sich herrausstellen, das nv die ampere für die totale abzocker architektur zur aller zeiten auf den markt gebracht hat.

bin gespannt wie das ganze dann mit nv enden wird, aufjedenfall wird das nichts gutes.
 
Zuletzt bearbeitet von einem Moderator:
Ich persönlich sehe den Ampere Release in vielerlei Hinsicht als Desaster für Nvidia an, bei dem man sich wirklich nicht mit Ruhm bekleckert hat.

Auf der technischen Seite die kastrierte VRAM Menge bei der 3080 - zu wenig für eine leistungsstarke High-End Grafikkarte 2020. Der exorbitant hohe Stromverbrauch, der interessierte User ggf. dazu zwingt ein neues NT kaufen zu müssen. Die Problematik mit den Kondensatoren. All das stößt Usern zurecht sauer auf.

In Deutschland haben Firmen wie Amazon, Cyberport und zuletzt auch Caseking den Verkauf der 3080 bis auf Weiteres eingestellt. Man kann die 3080 also hier bei uns kaum noch käuflich erwerben, und selbst wenn dürfte man wohl bis 2021 warten müssen, bis man sie dann in Händen halten kann. Weltweit ist die Situation nicht anders. Aus wirtschaftlicher Sicht ist das ein Problem für NV. Seit dem Release und für das Restjahr hätte man GPUs ohne Ende absetzen können, wenn man denn genügend in der Hinterhand gehabt hätte, und weiter entsprechende Stückzahlen würde produzieren können. Stattdessen werden die GPUs scheinbar nur tropfenweise ausgeliefert und so mancher User dürfte wohl zur Konkurrenz greifen, sofern Navi konkurrenzfähig ist und zumindest etwas besser lieferbar sein sollte. Am Ende könnte NV schlimmstenfalls der große Verlierer sein.
Wobei NV dann immer noch die treuen Fans im Rücken hätte, die so oder so immer zu Grün greifen, komme was da wolle...

Dann muss man sich schon auch fragen wie blauäugig die Verantwortlichen bei NV eigentlich sind? Da wird mit viel Tamtam eine 3080 vorgestellt, die eine 2080Ti ziemlich alt aussehen lässt, und dann kündigt man diese auch noch zu einem günstigen Preis von 699 $/€ an. Ja was haben die bei Nvidia denn gedacht was dann passieren würde???? Jedem Außenstehenden war klar, dass das einen riesigen Run auf diese Grafikkarte auslösen würde. Aber anstatt einsichtig damit umgehen, und einzugestehen, dass der Launch in die Hose gegangen ist und man womöglich verfrüht released hat, wodurch die meisten willigen Käufer in dir Röhre gucken und in den nächsten Monaten keine 3080 erhalten werden, schwadroniert Huang lieber über den "Ampere Faktor" und ein "Phänomen". Für mich unverständlich sich selber bzw. die eigene Firma unter diesen Gegebenheiten zu feiern. Etwas mehr Empathie gegenüber den Kunden wäre da mMn der richtigere Weg gewesen.
Auch wäre doch sicherlich eine ausdrückliche Entschuldigung seitens NV dafür angebracht, dass die meisten User in den nächsten Monaten keine FE für die versprochenen 699 erhalten werden (wenn überhaupt). Doch nichts geschieht.

Aus diesen Gründen komme ich für mich persönlich zu dem Fazit:
NV, das war/ist ein vollkommen verhunzter Release, der sich in meinen Augen auch nicht mit Floskeln wie "Phänomen" schönreden lässt.
 
Zuletzt bearbeitet:
NV, das war/ist ein vollkommen verhunzter Release, der sich in meinen Augen auch nicht mit Floskeln wie "Phänomen" schönreden lässt.

Leider ja.
Aber wenigstens sollen laut Igor massig 3070 einen Tag nach RDNA2 Präsentation verfügbar sein. Kann sich dann jeder überlegen ob er da direkt zuschlägt, oder die Tests von RDNA2 abwartet.
 
von einer verkrüppeltes 8gb vram gpu, sollte man lieber die finger weg lassen :fresse:

den eine 3070 mit ca 2080ti leistung dabei aber nur mit 8gb vram ?

ohje ohje.

keine ahnung was sich huag mit den 29.10 bezwecken will, aber lustig wird es alle mal werden.

Edit:

vll überrascht nv und bringt die 3070 direkt mit 16gb vram, da die 3070 mit nur 8gb vram, einfach zu armselig gegenüber rx 6800xt mit 16gb vram ausehen würde :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
RIP Nvidia?

2.png
 
@PCGH-Redaktion

Zitat: "Passend dazu arbeiten wir gerade an einer großen Messreihe, welche das Thema Grafikspeicher mit Fokus auf 10 und 11 GiByte Kapazität beleuchtet." Gibts da schon den Artikel oder?
 
wird nvidia nun die 3080ti 20gb und 3070ti 16gb auf tscm 7nm fertigen, damit man den verbrauch unter kontrolle hatt und dadurch auch ca 10% mehr leistung rauszuholen ?

ja wird so kommen !
 
Zuletzt bearbeitet von einem Moderator:
Also 330 Watt Realverbrauch, den man auf einer FE auf? 375 oder~380Watt steigern kann, sicher ohne Volt Modding?????
Wo soll das eigentlich hinführen, mal die Tatsache, dass man ja nun auch Recheneinheiten im Rechner hat, die auf dedizierte KI Leistung, also auf die KI Leistung von GPU-Compute Serverhallen, zurückgreifen kann, bei Seite!!!???

Ich denke, dass man das nicht mal kritisch betrachten muss, um zu denken, dass sämtliche Vorsätze die irgendetwas mit Vernunft bezüglich Ökologie und dem sicheren Umgang mit KI Rechenleistung zu tun hatten, einfach ausgeblenet wurden und nun irgendwie so getan wird als hätte es derartiges nie gegeben.

Da passt es ja auch gut, dass neue "effizientere" also stärkere PSU´s eingeführt werden, quasi von Intel vorgegeben und auf den Grafikkarten neue Stecker eingeführt werden bei denen niemand ohne weiteres noch weiß, wieviel Strom da maximal durchfließen kann, nur dass es ne Menge ist ??!
Tja was will man machen wenn das halt so ist, wenn die Industrie und der Markt der haltlosen"" Unvernunft"" nicht nur freie Bahn lassen, sondern sie sogar als Standard vorgeben!!??
Man kann wohl nur hoffen, dasss es nvidia schafft durch den etwas feineren Fertigungsprozess der bei TSMC( erstmalig von mir richtig geschieben übrigens) die Sache wieder etwas zu kompensieren.
Aber aus Erfahrung weiß man ja, dass jedwedge Effizienz aus ökonomischer Sicht, sehr schnell in Mehrleistung umgewandelt wird und schon ist die Messlatte an erwarteter Leistung wieder ein Stückchen höher gelegt.

Also ich will sicher kein Spielverderber sein und werde sicher diesen Wahnsinn auch, oder sogar im höchsten Maße betreiben, sobald es mir möglich ist. Trotzdem hab ich das Gefühl, dass das Ganze etwas übertrieben unmoralisch erscheint???!!

Aber das ist kein Schuh den sich die Gamer oder Harware User anziehen sollten, sondern die Industrie?
Keine Ahnung, in der Vergangenheit, die ja nicht mehr existent ist, hat man sich wer weiß wie aufgeregt wenn ein max. TDp von 250Watt überschritten wurde. Das war doch ein Rahmen an den sich jeder Chiphersteller wie Boardpartner unbedingt halten musste, der das Maximun an dem darstellte was noch irgendwie vertretbar ist.

Jetzt interessiert es plötzlich niemanden mehr, wenn das im hohen Bogen überschritten wird. Eine Asus RTX 3080 STrix hat von grundauf 3 8polige PCIe Stecker, das sind 525 mögliche Watt die da durchgehen können.

Hat man die neuen Stecker eingeführt um dem absurden Anblick von 4 oder sogar 5 x8 poligen PCIe Steckern vorzubeugen??

Also ich werde mir sicher auch sowas kaufen und dabei auch sicher darauf achten, dass die Karte möglichst viele 8-polige PCIe Stecker hat, aber dass wir alle schon verrückt sind das will ich ja wenigstens mal gesagt haben, wo es ja eh keinen interessiert
 
Zuletzt bearbeitet:
von einer verkrüppeltes 8gb vram gpu, sollte man lieber die finger weg lassen :fresse:

den eine 3070 mit ca 2080ti leistung dabei aber nur mit 8gb vram ?

ohje ohje.

keine ahnung was sich huag mit den 29.10 bezwecken will, aber lustig wird es alle mal werden.

Edit:

vll überrascht nv und bringt die 3070 direkt mit 16gb vram, da die 3070 mit nur 8gb vram, einfach zu armselig gegenüber rx 6800xt mit 16gb vram ausehen würde :rolleyes:


da aus der 3070 mit 16gb vram nichts geworden ist und jetzt bald eine 3090 mit 12 gb vram nachgeschoben wird, muss ich sagen, das sowas lustiges noch nie in der gpu geschichte gab !!! :lol:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet von einem Moderator:
[...]
Also ich werde mir sicher auch sowas kaufen und dabei auch sicher darauf achten, dass die Karte möglichst viele 8-polige PCIe Stecker hat, aber dass wir alle schon verrückt sind das will ich ja wenigstens mal gesagt haben, wo es ja eh keinen interessiert
"Ich habe nicht vor mich zu ändern aber finde Alle müssten sich eigentlich ändern."
Ist das so richtig zusammen gefasst?

Tatsächlich gibt es mittlerweile Grenzwerte für Bürorechner, aber eben nicht für "Exoten" wie die Gamingmaschinen. Zudem bleibt dir zumindest die Wahl deinen Strom aus Quellen zu beziehen die weniger dramatische Auswirkungen haben (ja du hast sogar die Wahl für dich die Entscheidung zu treffen welcher genauen Variante du diese Eigenschaft am ehesten zutraust) als der deutsche Standardmix.

Zum Punkt dass man sich früher mehr über die TDPs aufgeregt hat:
Was den Kunden am Ende gestört hat war die Lautstärke. Die GF5 z.B. sind berühmt geworden weil sie so gerauscht haben, nicht wirklich wegen des absoluten Verbrauches.
 
"Ich habe nicht vor mich zu ändern aber finde Alle müssten sich eigentlich ändern."
Ist das so richtig zusammen gefasst?
Eher nein, ich erwarte von niemandem, dass er sich irgendwie ändert, schon gar nicht wenn ich es nicht tue oder nicht kann, aber auch so nicht. Also ich glaube nicht, dass das irgendwen interessiert was ich mache und noch weniger dass sich irgendwer ein Beispiel daran nehmen könnte, sollte. Hab doch nur ein bisschen Spaß machen wollen. Das war nicht so ernst gemeint.
 
Zurück