Geforce RTX 3080: Weitere Bestätigung der 20-GiB-Version

Aber erstmal andere Probleme fixen...


Immer mehr und mehr Berichte tauchen auf auf diversen Seiten. Die haben mal paar Seiten zusammengetragen.

Aber keine Sorge Leute, Abhilfe schafft man ja ganz leicht, indem ihr 100MHz runtertaktet und die GPU fast auf 2080Ti Niveau drosselt^^ Freue mich schon auf Big Navis Probleme zum Release, ärgerlich das Ganze aber keine Seltenheit.
Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.
Ich wünsche niemandem Probleme mit ihren frischen Karten. Das wäre für mich eine Technotragödie.
 
technisch ist eine rtx3080 mit 20gb mit der Platine nicht möglich
und nein die rtx3090 hat eine andere

Entweder die rtx3080 kommt q3 2021 mit 2gb ddr6x oder was möglich ist ein modell mit 12 statt 10gb mit vollen 384bit chip
Weil aber das letzte ehr Dumm wäre vermute ich das man eher
Ein rtx3090 Modell mit nur 320bit chip und 20gb als rtx2080ti für 1299€ gibt
 
technisch ist eine rtx3080 mit 20gb mit der Platine nicht möglich
und nein die rtx3090 hat eine andere

Entweder die rtx3080 kommt q3 2021 mit 2gb ddr6x oder was möglich ist ein modell mit 12 statt 10gb mit vollen 384bit chip
Weil aber das letzte ehr Dumm wäre vermute ich das man eher
Ein rtx3090 Modell mit nur 320bit chip und 20gb als rtx2080ti für 1299€ gibt

Wieso schreibst du wiederholt so einen Unsinn? Igor hat sich schon vor rund 1,5 Monaten die Existenz eines separaten PCBs für das 20 GIB-Modell bestätigen lassen. Die Frage stellt sich gar nicht. Und in "q3 2021" braucht keiner mehr eine 20 GiB-Karte, das ist viel zu spät, da AMD noch im Nov/Dez (in diesem Jahr!) mit 16 GiB aufwarten wird, so wie es aktuell aussieht. Entsprechend wird auch die 20 GiB-Variante von nVidia in dem gleichen Zeitrahmen folgen und hier können sie entweder 16Gb-BGAs Standard-GDDR6 verwenden und müssen die etwas geringere Bandbreite kompensieren oder sie werden, wie auch bei der 3090 schlicht 20 8Gb-OC-BGAs auf beiden Seiten des PCBs via Clamshell verbauen, was das deutlich wahrscheinlichere Szenario ist. Und das vor allem zeitnah, wie es zudem jetzt auch die ersten Leaks durch einige Dritthersteller zu bestätigen beginnen.
 
Wirr oder nur gewollt Verwirrend ? Aktuell wird halt alles gekauft wohl aus allen bekannten Gründen .Die GTX 3070 TI+ GTX 3080 20GB variante soll wohl eher die Turing/Ampere I Besitzer recht schnell unzufrieden mit der eigenen Errungenschaft werden lassen als nötig, unter Seriöser Nvidia Informationspolitik verstehe ich etwas anderes aber wer ist wo noch Seriös in Politik Wirtschaft Weltweit? Wen interessiert noch das eigene Geschwätz Geschreibe von Gestern ?
Hochreizen kann mich diese Branche dadurch nicht, eher das Gegentum so bleibt die Kohle auf dem Konto für echte Gelegenheiten oder Notfälle.
Das beste P /L verhältnis bietet bald eine Founders Edition zu anderer Zeit und Gelegenheit.
 
Mit (un)seriöser Kommunikation hat das nichts zu tun. ;-) Die 16 und 20 GiB-Modelle sind als Reaktion auf AMD gedacht, insofern kann und will nVidia hier natürlicherweise nichts vorher kommunizieren (ebenso wie AMD derzeit nichts durchsickern lässt). Darüber hinaus ist das aber auch kein echtes Problem, denn wer hier halbwegs am Ball geblieben ist, weiß schon länger von den Modellen mit dem größeren Speicher, aber was sollte da nVidia jetzt zu sagen. "Ja, da kommt noch was, nur wir sagen weder wie schnell wir diese Modelle auslegen werden noch wie viel die kosten werden." Wem sollte die Information nützen? Vertriebstechnisch wäre das völliger Unsinn. Die wollen erst auf AMD warten oder zumindest bis sie sich einigermaßen sicher sein können was kommen wird, um ihren Konter entsprechend auszurichten.
 
Oh man,

ich möchte gar nicht daran denken was hier los ist wenn die 3080 mit 20 GB im Oktober eventuell vorgestellt wird und lieferbar ist. Und das für sagen wir mal 800 - 1000€. Dann geht das ganze Geheule wieder von vorne los und Nvidia ist wieder das große Problem. AMD hätte sowas ja nie getan. Ich sehs schon kommen.

Sollte die 20gb Version wirklich zwischen 800 - 1000€ landen, ist sie m. E. ein sehr guter Kompromiss was Leistung und Langzeitnutzen betrifft.
 
.......................
Und ja ich nenne DLSS2.0, weil Nvidia es hier nunmal schafft den VRAM-Bedarf um durchschnittlich 30% zu senken, bei einer Steigerung der Bildqualität. DLSS2.0 nutzt vorgerendertes 16K-Bildmaterial und integrierte Spezialfilter, die ein natives 4K-Bild im Vergleich zu einem DLSS-4K-Bild alt aussehen lassen. Das kann man shitstormen wie man will - es stimmt. Gleichzeitig steigt die Performance massiv an. Dank DLSS ist mittlerweile sogar 4K/120FPS-Gaming auf Ultra in AAA-Titeln möglich. Probiert das mal ohne DLSS.
.......................

Sei mir nicht böse, aber für mich liest es sich so, das NV DLSS benutzt, um die RAM beschnittenen Karten
weiterhin zum Vollpreis zu verkaufen. Die Leistung reicht ja, also kann ich in die Vollen gehen.
Wenn ich der Nachfolgegeneration weniger Speicher verpasse, müsste ich auch den Preis entsprechend senken.
Für 550,-€ würde ich evtl. über einen Kauf nachdenken, da ja evtl. noch ein neues NT dazu kommt,
aber die momentan künstlich erhöhten PReise für die 3080 gehen gar nicht in meinen Augen. Das steht
für mich in keinem Verhältnis zum aktuellen "Mehr"-Wert.
Da NV aber seit Jahren mit der Preispolitik durch kommt, wird sich leider in der Zukunft nichts ändern.
Ich bin gespannt, wo bei den Nutzern in Zukunft die Schmerzgrenze sitzt, das Maximum hat NV noch
nicht erreicht.
Da ich nur alle 4-5 Jahre die GPU aufrüste, wären 10GB für mich keine Option. Vor allem zu dem Preis....
 
Muss nicht an den Treibern liegen sondern eher an den zu schlechten Netzteilen.
Mit Nvidia Treibern hatte ich nur sehr selten Probleme, da konnte man dann immer den älteren nutzen.
Auch mit einer neuen Grafikkarte gehts.
Vielleicht habe auch Leute eine zu schlechte Gehäusebelüftung?

Genau, das Netzteil ist Schuld, wenn eine Karte Design bedingt Lastspitzen in Richtung 500W hat....die bösen Netzteilhersteller.....pfui sowas.:stupid::wall:

Vielleicht liegts auch am Wetter, dem Klimawandel oder Corona....aber ganz sicher nicht an Nvidia:lol:
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

?
 
Egal wie rum man es dreht ist die 3080 mit 10GB unrund. Ja, es kommt das Argument, für FHD braucht man nicht mehr Speicher. Ab WQHD kann ich aber sagen, 10GB sind auf Kante und definitiv nicht zukunftssicher.

Und wer jetzt wiederum Argumentiert 10 GB Reichen immer, DLSS blablabla dem sage ich: Dann reicht auch die 3070......
 
Zuletzt bearbeitet:
Mit (un)seriöser Kommunikation hat das nichts zu tun. ;-) Die 16 und 20 GiB-Modelle sind als Reaktion auf AMD gedacht, insofern kann und will nVidia hier natürlicherweise nichts vorher kommunizieren (ebenso wie AMD derzeit nichts durchsickern lässt). Darüber hinaus ist das aber auch kein echtes Problem, denn wer hier halbwegs am Ball geblieben ist, weiß schon länger von den Modellen mit dem größeren Speicher, aber was sollte da nVidia jetzt zu sagen. "Ja, da kommt noch was, nur wir sagen weder wie schnell wir diese Modelle auslegen werden noch wie viel die kosten werden." Wem sollte die Information nützen? Vertriebstechnisch wäre das völliger Unsinn. Die wollen erst auf AMD warten oder zumindest bis sie sich einigermaßen sicher sein können was kommen wird, um ihren Konter entsprechend auszurichten.

Hier hört mein Verständnis nach und nach aber auch auf.
Ich halte das auch schon, für eine Art und Weise, der Vermarktung, also wenn es o kommen würde, das Nvidia die Modelle mit verdoppelten Speicher bereits zwei, drei Monate nach Release der 3080 raus bringt, die nicht in Ordnung ist.

Da fängt es für mich auch an abzocke zu werden.
Wenn Nvidia auf AMD warten wollte, dann hätte man Ampere halt nach Big Navi bringen müssen. ODer eben jetzt die 3080 10GB (Beispiel) und direkt ankündigen, das man in drei Monaten halt ein 20GB Modell plant.

Anders ist es Abzocke (wenn es so gemacht wird)

Egal wie rum man es dreht ist die 3080 mit 10GB unrund. Ja, es kommt das Argument, für FHD braucht man nicht mehr Speicher. Ab WQHD kann ich aber sagen, 10GB sind auf Kante und definitiv nicht zukunftssicher.

Und wer jetzt wiederum Argumentiert 10 GB Reichen immer, DLSS blablabla dem sage ich: Dann reicht auch die 3070......

Es bleibt immer wieder, belegen ist nicht brauchen.
 
Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.
Ich wünsche niemandem Probleme mit ihren frischen Karten. Das wäre für mich eine Technotragödie.
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?
 
Jeder der 800€+ für eine Grafikkarte ausgibt muss eins sein: Glücklich mit der Leistung und den Features die er damit bekommen hat. Nur weil du dich verarscht fühlst kann jemand anderes perfekt glücklich damit sein. Nicht jeder muss in absolut jeden Spiel das 8K Texturenpaket haben.
Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.
Ich gehe davon aus, dass es hierbei auf 3xx.00€ mehr auch nicht mehr ankommt. ;)
Verrückt sind diese Summen trotzdem. :ugly:
Aber natürlich steckt hier durch Nvidia reine Verkaufstaktik dahinter und man sollte noch warten was hier hinterher kommt.
Wer auch vorher kaufen muss hat dann halt vorerst ........... aber hinterher kann man sich immer noch ärgern.
Das stinkt mir jedesmal, dass Nvidia nicht gleich alle Kartenmodelle offenlegt, bzw. gleichzeitig anbietet.
Hat schon etwas von Kundenverarsche.

Jetzt könnte jemand argumentieren, es liege an der Produktion bzw. je nach Ausschuss der Chipqualität.
Mag sein aber in dem heutigen Stand der Technik bezweifele ich das etwas.
 
Zuletzt bearbeitet:
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?

Frag doch mal bei PCGH Nach, da hat doch die 3080 ein 750W Netzteil "überfordert". Und das war bestimmt kein Chinacracker.

Und unterdimensioniert ist sowas nicht. Die Frage ist doch: Warum muss ich ein 900-1000W Netzteil kaufen, nur weil die Grafikkarte für ms ein "Polster" von +200W braucht? Effizient oder Sinnvoll ist sowas nicht.

Was passiert jetzt eigentlich bei dem ALDI Stangenrechnern? Werden da nun teure 800W+ Markennetzteile verbaut? Wie siehts in Notebook aus? 240W Notebook Netzteil gibts im CAD Bereich, aber für Consumer Spielerechner?
 
Sei mir nicht böse, aber für mich liest es sich so, das NV DLSS benutzt, um die RAM beschnittenen Karten
weiterhin zum Vollpreis zu verkaufen.

"Unser Auto fährt zweimal so schnell mit der Hälfte an Benzin."
"Sei mir nicht böse, aber für mich liest es sich so, als würdet ihr das benutzen um Autos mit kleinerem Tank zum Vollpreis zu verkaufen."

Sorry, aber da bleibt nur noch Kopfschütteln bei der "Logik".
 
"Unser Auto fährt zweimal so schnell mit der Hälfte an Benzin."
"Sei mir nicht böse, aber für mich liest es sich so, als würdet ihr das benutzen um Autos mit kleinerem Tank zum Vollpreis zu verkaufen."

Sorry, aber da bleibt nur noch Kopfschütteln bei der "Logik".
Ja, bei deiner Logik....da Schüttel ich auch den Kopf.

Um mal bei deinem vergleich zu bleiben: Das Auto säuft genauso viel. Es ist nur so billig gebaut, das es überall scheppert und es sich doppelt so schnell anfühlt (bei gleichem Verbrauch). Und nebenbei ist der Kofferaum halbiert, so fühlt es sich noch schneller an....bis du mal was schweres laden musst und feststellst das die neue karre theoretisch genug power hat, aber praktisch dem Kofferaum eines Smarts hat.
 
Zurück