• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

Nachdem es kürzlich einen (angeblichen) Leak zum Kühler-Design der designierten Geforce RTX 3080 gab, soll Nvidia nach dem Ursprung suchen. Unterdessen gibt es auch neue Details zur vermeintlichen Technik.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?
 

sunburst1988

Software-Overclocker(in)
Auf Igors Lab habe ich jetzt nichts zur Titan gefunden.

Aber mehr als doppelt so viel Speicher auf der 90 gegenüber der 80 ti?
Und SLI auch erst bei der Königsklasse?

Ich zweifle da doch etwas an diesen Infos.
Wenn das Ganze aber der Wahrheit entsprechen sollte bekomme ich bei dem zu erwartenden Preis der 3090 doch etwas Magenschmerzen :ugly:

Es gilt also wie immer: Abwarten und ein Heißgetränk der Wahl konsumieren :daumen:
 

GEChun

BIOS-Overclocker(in)
Ich hoffe auf ein Witz / Fake.
10 bzw.. 11 GB in der Entusiastenklasse sind 2020 einfach nur erbärmlich.

Stimme dir zu, aber wenigstens sind es keine 8 mehr.

So wie Nvidia sich in den letzten Jahren verhalten hat ist es aber sehr wahrscheinlich sogar noch richtig. Kann mir nicht vorstellen das eine 3080 oder 3070 mit 16 GB kommt... solche Sprünge macht NVIDIA nicht mehr..
 

x1337x

PC-Selbstbauer(in)
Naja, vielleicht hat Nvidia ja ihre magische Tensor-VRAM-Compression, wenn nicht ist 10 GB in einer 3080 aber definitiv zu wenig.
 

elmobank

Software-Overclocker(in)
Öhm.... 320 bis 350 Watt.... also das ist mal echt ne Hausnummer, mit OC werden es dann bis zu 450 oder wie...?
Also da würde ich eher Abstand nehmen wollen, wenn das so kommt.
Mit 250 Watt-Karten konnte ich bis jetzt immer leben, mit etwas Undervolting gingen die gut unter 200, wenn man es drauf angelegt hat, bei wenig Leistungseinbußen. Oder man konnte per UV übertakten, wie ich es bei meiner Larte aktuell mache, aber mehr als 250Watt kriegt die Karte nicht und wird sie auch nicht bekommen.

Also wäre das Thema Effizienz bei nvidia jetzt vom Tisch mit dieser TDP?

Naja abwarten, wie es wirklich kommt...
 

Da_Obst

PCGH-Community-Veteran(in)
PCGH schrieb:
Dabei soll unter anderem auch eine RTX 3090 in Planung sein, die entweder das Titan-Branding ersetzen könnte oder sich als weitere Abstufung dazwischen schiebt.

Ich kann mir einfach nicht vorstellen, dass NV eine Dual-GPU Karte bringt. Schon gar nicht statt der Titan.
Oder soll das eine normale Karte werden? XX90 wäre dann eine sehr schlecht gewählte Bezeichnung.
 
Zuletzt bearbeitet:

icon

Komplett-PC-Aufrüster(in)
Öhm.... 320 bis 350 Watt.... also das ist mal echt ne Hausnummer

Egal, was die für Leistung hat, mir selbst wäre das viel zu hoch. Ich hatte viele Jahre Grafikkarten mit hohen TDP Werten. So etwas baue ich mir nicht mehr ein.
Ich will nicht diese extreme Hitze, welche die abgeben, zusammen mit entsprechenden Lüftergeräuschen.
Bei vielen CPUs ist es genau das gleiche.
 

Mazrim_Taim

BIOS-Overclocker(in)
Das hoffe ich auch, vielleicht bringt ja AMD hier mehr, die sind weniger knauserig was den VRAM angeht.
Ich mag nicht nochmal 2 Jahre warten falls die neue Gen wieder eine Enttäuschung wird.

Schlimmer (bei NV).
Als GTX 1080 Nutzer habe ich ja schon 8 GB.
Bis jezt war ich immmer gewohnt das es mehr Speicher gab (wenn teilweise auch wenig; z.B. GTX 580 zu GTX 680) aber nach der 1080 kam ja die RTX 2080 und dann die 2080 Super.
War ganz ehrlich gesagt davon ausgegange ndas die RTX 3080 16 GB habe nwürde; ua. weil ja RT mehr Speicher (ver)brauchen soll.
 

Nuallan

PCGH-Community-Veteran(in)
Also die Tatsache das Nvidia es nach langer Zeit mal wieder für nötig erachtet der 80er Klasse den großen Chip zu spendieren sagt hoffentlich einiges über Big Navi aus. Scheint so als würden sich ein paar Schweißperlen unter der Lederjacke ansammeln.

Oder aber, was mindestens genauso wahrscheinlich ist: Nvidia jongliert einfach nur mal wieder sein Line-up für die nächste saftige Preiserhöhung.
 

Pumpi

Software-Overclocker(in)
Müssen wir leider auf die nächsten Konsolen warten. Wenn die zeigen was sie können, und klar ist was der PC dafür braucht, spätestens dann wird es satt Vram Nachschlag geben müssen.

Ich werde mir definitiv keine 8 oder 10 GB Karte kaufen. Bin froh das ich meine RTX2070S mit nur 55€ "Verlust" nach 6 Monaten wieder los geworden bin.

MfG
 
E

eclipso

Guest
Man legt eine VRM und ein PCB für 320W aus und die GPU darf dieses Powerbuget dann nicht ausnutzen? Ziemlich an den Haaren herbeigezogen. Eher eine spekulative Erklärung dafür, warum Nv die Effizienz etwas verloren geht. Also eine 2080ti nutzt das Buget wenn die Temperatur stimmt voll aus, alles andere macht keinen Sinn, weil ich dann keinen überteuren Kühler verbauen brauche und auch an der Bestückung oder Auslegung (Groundplane, Voltgaeplane usw.) des PCB's sparen könnte. Das erhöht ja Margen oder senkt den Preis. Das rechnet sich über abgesetzte Stückzahlen.

Vermutlich ist es eher so das die Angaben zur 3080 vllt. nicht stimmen. Das PCB kann was das Powerbuget einer VRM angeht, ja unterschiedlich bestückt sein.
 
Zuletzt bearbeitet von einem Moderator:

Pu244

Lötkolbengott/-göttin
Wenn Nvidia wirklich ermittelt, dann dürfte an den Leaks etwas dran sein.

Aber mehr als doppelt so viel Speicher auf der 90 gegenüber der 80 ti?

Das würde sich dann wenigstens mal lohnen. Alles unter 16GB können die eigentlich behalten, besonders wenn die Leistung wieder nur so wenig steigt, wie bei Turing.

Allerdings dürfte der Preis dann wohl endgültig auf 1500€ klettern.

Und SLI auch erst bei der Königsklasse?

Wirklich Sinn ergibt es ja immer erst mit dem stärksten Modell. Nvidia hat es ja systematisch gestrichen, früher war alles, bis runter zu den unter 100€ Karten, SLI fähig.

Also wäre das Thema Effizienz bei nvidia jetzt vom Tisch mit dieser TDP?

Effizienz ist ja Leistung pro Watt. Wenn die Karten entsprechend leistungsfähig sind, dann wäre auch die Leistungsaufnahme gerechtfertigt.

In jedem Fall wäre es ein Indiz, dass es diesmal wieder eine ordentliche Leistungssteigerung gibt. Wenn man Turing 350W gewährt, dann sind die Karten auch um einiges schneller, was ist dann erst mit Ampere.

Negativ wäre natürlich, dass ich mir ein neues Netzteil kaufen müßte, da das alte mit 460W nichtmehr tauglich ist. Aber das dürfte bei dem Preis dann auch nichtmehr so ins Gewicht fallen.

bei igorslab als quelle wann ich dann schon wieder raus :ugly:

Bei den Super Karten hatte er Recht. Er besitzt wohl noch von früher einige extrem gute Kontakte, zu den Grakaherstellern.
 
E

eclipso

Guest
Es kennt auf jeden Fall die Bezeichnung für's PCB. Im professionellen Bereich ist der Kühler wegen seinen Dimensionen eher unbrauchbar und damit würde man nicht auf so eine extravagante Konstruktion und PCB Auslegung setzen. Was einem Sorge bereitet ist das lt. Tabelle nur die Titan NV Link mitbringt und keine weitere Karte für ein Multi GPU System geeignet wäre. "133" hat diesen Ausschnitt nicht.

Zumindest müssen die GPU's aus einer Serie "Pin gleich" sein.
---------------
Ja Doraleous, das zeigt mal wieder dein technisches Unverständnis auf, die 2080ti zieht locker 380 Watt wenn man will, aber nur im "A Modus" und das PCB ist ein Serien PCB für professionelle Karten, denn die GT102 ist nichts weiter als ein teildeaktivierter Quadro. Es ist ein und das selbe Basic Design Kit wird nur anders bestückt.

Könnte ja sein Nv trennt die Bereiche deutlicher um an der "Bauteilverfügbarkeit" zu sparen.
 
Zuletzt bearbeitet von einem Moderator:

Tolotos66

Volt-Modder(in)
Vermutung: Der höhere Verbrauch gegenüber Turing könnte dem verbesserten Raytracing geschuldet sein. Wie ja TU schon zeigt, kostet RT richtig Leistung. Was ich persönlich absolut verschmerzlich finde, wenn dann RT endlich gut funzt und auch in der Mittelklasse brillieren kann.
Als EX-R9 390 Besitzer und jetzt Vega 64-Nutzer bin ich an hohe Verbräuche gewohnt und tweake gerne meine Grakas :D
Gruß T.
 

Nordbadener

PC-Selbstbauer(in)
Ich bringe die Karten einfach nicht zusammen. Sollten das 3080Titan, 3080Ti und 3080 sein, würde letztere beiden leistungsmäßig zu nah beisammen sein. Oder handelt es sich hierbei vielleicht um 3080Ti, 3080 und 3070? Das wäre dann wiederum arg viel Ram für die TI und eine recht flotte 3070.

Bin echt mal gespannt, was dieses Jahr noch so bringt. Spannend ist es alle mal.

Hieß es in den News am Jahresanfang nicht, Nvidia würde mit 7nm-Struktur die Leistungsaufnahme halbieren? Und jetzt kommen TDP-Angaben mit 320-350 Watt!!! Respekt, da geht was...
 

bynemesis

Software-Overclocker(in)
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk
 

x1337x

PC-Selbstbauer(in)
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk

Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
 
E

eclipso

Guest
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk

Nein nie darf sie nicht, weil sie nur 300w ziehen darf!:D

Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
Naja die 2070s ist auch kein Effizienzwunder. Trotzdem musst du eine große GPU auch mit Strom versorgen, wenn sie doppelt so schnell ausfällt aber nur 300-350w verpulvert ist sie gegenüber einer 215w GPU dann deutlich effizienter, denn zwei bräuchten ja 430w.
 
Zuletzt bearbeitet von einem Moderator:

TheGermanEngineer

BIOS-Overclocker(in)
Eigentlich wäre das doch die ideale Gelegenheit gewesen um mit 12 GB in der Mittelklasse aufzutreten und im High-End mit 16 GB zu arbeiten. 24 GB ist schon echt viel und für Spiele m.E. kaum sinnvoll, da müsste schon ordentlich Mehrleistung kommen dass sich das lohnt. So wie es jetzt aussieht, werden die 80er eher zu wenig Speicher haben und die ominöse 90er eher zu viel. Ja, zu viel Speicher geht ja eigentlich nie, aber wenn man mal an den Preis denkt, ist das schon etwas fraglich.

Ich meine mich an +50% Performance/Watt zu erinnern. Wenn gleichzeitig die TDP-Budgets um 50% steigen müssten das schon echte Klopper werden, aber da glaube ich ehrlich gesagt nicht dran.

Der neue potentielle FE-Kühler gefällt mir optisch leider überhaupt nicht. Ich hätte mir letztens beinahe doch noch eine Turing-FE gekauft, weil die Kühler einfach sehr sexy aussehen. So eine Ampere wird mir aber definitiv nicht in den Rechner kommen. Wobei das neue Kühlkonzept durchaus interessant ist. Wenn es eine Art "Umluftsystem" ist, dürfte das vielleicht erst die 350W mit zwei Lüftern im Dual-Slot ermöglichen. Ich sehe es schon kommen, dass wie bei Navi die meisten Customs schon Triple-Slots werden.
 

bynemesis

Software-Overclocker(in)
Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
powerlimit aufs max. (=375w) und dann noch 2100mhz core + 6200mhz ram.

bringt nen guten boost. Stromverbrauch ist mir da egal. Ich brauch maximale Leistung.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk
 
E

eclipso

Guest
Als EX-R9 390 Besitzer und jetzt Vega 64-Nutzer bin ich an hohe Verbräuche gewohnt und tweake gerne meine Grakas :D
Gruß T.
Das machen Nv Besitzer auch und nur weil auf dem Referenzpapier steht 250w darf ich das Powerbuget, dass mir mitgeliefert wird nicht ausnutzen? Wenn du einen Waküblock draufschnallst ist die Karte kaum thermisch limitiert und boostet dann auch bis um 2000GHz, sowas kostet nun mal. Custom zeigen ja @Stock schon (also im Werkszustand) wie das geht.

Natürlich kannst du auch undervolt tweaken und das Gegenteil erreichen, wenn man ein Takt- und FPS Ziel hat. Geht mit AMD und Nv.

Es kann möglich sein das Nv jetzt mehr an Grenzen geht, was AMD ja sowieso immer schon so umgesetzt hat, um der Serienstreuung Herr zu werden, dann bringen die Karten weniger OC Potential mit, sind dann aber im Werkstrimm schneller. In welchem Verhältnis muss man sehen.
 
Zuletzt bearbeitet von einem Moderator:

sunburst1988

Software-Overclocker(in)
Das würde sich dann wenigstens mal lohnen. Alles unter 16GB können die eigentlich behalten, besonders wenn die Leistung wieder nur so wenig steigt, wie bei Turing.

Gerade deswegen wundert es mich ja. Von 16gb ab der 3080 war ich jetzt eigentlich schon fast ausgegangen...

Wirklich Sinn ergibt es ja immer erst mit dem stärksten Modell. Nvidia hat es ja systematisch gestrichen, früher war alles, bis runter zu den unter 100€ Karten, SLI fähig.

Gerade nochmal geschaut. Bei Turing gab es SLI auch erst aber der 2080.
Aber stimmt schon, sinnvoll war es immer erst bei den High-End-Karten. Ausserdem stirbt die Technik sowieso langsam aus.
 

IronAngel

BIOS-Overclocker(in)
Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich niedriger sein als das, was maximal möglich wäre.

Ja hängt vom Game und Auflösung ab. Wenn die Karte dann aber doch mal belastet wird, hätte ich keine Lust auf einen Krach macher.:) 350 Watt mit Lüft weg kühlen ? Na viel Spass.

Aber wer weiß schon ob die Daten stimmen, oder der Chip ist so groß das es kein Problem wird.
 

Lichtspieler2000

Freizeitschrauber(in)
Ja Doraleous, das zeigt mal wieder dein technisches Unverständnis auf, die 2080ti zieht locker 380 Watt wenn man will, aber nur im "A Modus" und das PCB ist ein Serien PCB für professionelle Karten, denn die GT102 ist nichts weiter als ein teildeaktivierter Quadro.

Eine 2080 Ti benötigt etwa 275 Watt, genau nach ihrem Powertarget.
Die Stromversorgung (2x8Pin) ermöglicht 375 Watt. Hier sind 100 Watt Puffer. Gibt es eigentlich bei jeder Grafikkarte.

Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich niedriger sein als das, was maximal möglich wäre.

Mit TBP ist TGP gemeint, somit zieht schon die 2080 320 Watt, heftig.
Sieht mir nach einer Verzweiflungstat aus.
 
Zuletzt bearbeitet:

MyticDragonblast

PC-Selbstbauer(in)
Gerade deswegen wundert es mich ja. Von 16gb ab der 3080 war ich jetzt eigentlich schon fast ausgegangen...

Das Risiko einer zweiten 1080ti will man auch bei NVidia nicht eingehen. Es ist unzweifelhaft, das gerade diese Karte die Verkäufe der großen RTX Karten gedämpft hat, mehr als RTX on zum Neupreis der 1080ti hat man nicht bekommen und das auch noch mit 3 Gb weniger Speicher. Wer wirklich sowas langlebiges will wird vmtl. vierstellig für eine xx90er Karte hinlegen müssen. Damit kann man den Großteil des Marktes davon abhalten, die folgende Serie zu überspringen.

Zur Sache mit dem Powerlimit:
Das ist ja der ganze Trick an der Sache, übers Powerlimit soll man selbst mit der besten Kühlung nicht kommen. Das kanibalisierte die eigenen Topmodelle(gerade bei gleichem Chip wie offensichtlich in der neuen Serie). Wenn NVidia wirklich gut ist, ist eine xx80er mit abgeschaltetem RGB und ohne Lüfter direkt an der Karte angeschlossen(wie beim extrem OC) niemals viel schneller als eine xx90er mit Werkssettings; deshalb ist der Wert da auch TBP und auf der Karte fest hinterlegt. Der Speicherunterschied differenziert dann zusätzlich(mehr gesamt Bandbreite aber auch leicht höherer Stromverbrauch).
 
Zuletzt bearbeitet:
E

eclipso

Guest
Eine 2080 Ti benötigt etwa 275 Watt, genau nach ihrem Powertarget.
Die Stromversorgung (2x8Pin) ermöglicht 375 Watt. Hier sind 100 Watt Puffer. Gibt es eigentlich bei jeder Grafikkarte.

Mit TBP ist TGP gemeint, somit zieht schon die 2080 320 Watt, heftig.
Sieht mir nach einer Verzweiflungstat aus.

3080!:D

Wobei GT102 (2080ti) und GT104 (2080) unterschiedliche Leistungsbereiche abdecken, und auch unterschiedliche PCB Ausführungen dafür genutzt werden.

Die 3080 soll ja grundsätzlich GA102 sein, also "Pin gleich" (dafür legt man dann kein gesondertes Kit auf). Scheint Selektion nach Leistungsbereichen zu sein (ohne A und B Dies im gleichen Leistungssegment - sondern dann non ti, ti, Titan). Steht auch so ähnlich in einem Artikel dbzgl.. Chips die die höchsten Anforderungen nicht schaffen, kann man immer noch mit höherer Voltage auf ein ähnliches Leistungsniveau prügeln. Siehe 2070s bei 215w. Trotzdem musst du den dann vermeintl. teildeaktiverten Bereich weiter mitversorgen (wenn man teildefekte SKU's verwendet), was bei sehr großen Designs kostet.
 

MyticDragonblast

PC-Selbstbauer(in)
Wahrscheinlich nicht. Reviews abwarten. 2080Ti/2080 bleiben auch 100 bzw. 75 unterhalb der maximale Leistungsaufnahme des PCBs.

Wenn es dann hinterher bei der 3080 doch nur 250W sind und der Kühler für 350W TDP ausgelegt ist, freuen wir uns über leisen Betrieb. Mir lieber als AMD-Style ein 250W Board mit 300W realer Leistungsaufnahme. Sag nur RX480.
Wenn der Kühler aufdreht weil der Chip warm wird hat der Chip auch weniger zu saufen, weil bei NVidia durch TBP begrenzt. Ich finde da den konservativen Ansatz von AMD ehrlicher, wo ich nicht durch leistungshungrige Propeller und LED-Disco im Worstcase weniger Fps habe. Bei Bedarf kann ich da sogar noch ganz klassisch die Karte den Stromtod sterben lassen per Bios-Mod.
 

seahawk

Volt-Modder(in)
350W dürften einfach die Leistung sein, die der Kühler maximal abführen kann, niemand nutzt das aber aus, weil das Ding dann viel zu laut wird.
 
E

eclipso

Guest
Ich hörte Polaris 10 war sogar für 500w ausgelegt, ala RX480.:schief:

So ein Lineup hat vor allem einen Zweck, die Partner scheuen oft die teure Entwicklung und wenn sie Karten in diesem Segment verkaufen wollen, müssen sie sie komplett von Nv kaufen und verdienen daran nur wenig (AMD tut es ähnlich siehe RVII), wobei es kaum Freiheiten gibt Problemstellungen anders zu lösen. Davon profitiert vor allem der Hersteller selbst.

Das weder das Produktmanagement noch andere Bereiche darüber informiert wurden, ist eigentlich typisch dafür die Partner vor vollendete Tatsachen zu stellen. Ich weiß nicht ob das überall gut ankommt. Als Partner will man natürlich nicht, dass das eigene Image leidet und der Markenname darunter nicht verloren geht. Etwas weiterzuverkaufen, ist noch lange nicht selbst entwickelt. Egal wie gut oder schlecht es ist. Aber das wird hier kaum jemanden interessieren.

Es könnte sogar so sein, dass die Partner das Lineup aufgrund der Kostenentwicklung so nicht übernehmen wollten, das gab es schon siehe Titan.
 

paladin60

Freizeitschrauber(in)
Bei Nvidia können sie für ihre eigenen Kühler noch ein paar € mehr drauf schlagen falls die Entwicklung teurer wird, die Kunden zahlen es doch.
Nach der Vega64 dürfte es für die Partner auch nicht so schwierig sein für die Dinger einen Kühler zu entwickeln.
 

Incredible Alk

Moderator
Teammitglied
Also wie auch immer all das im Detail am Ende ausgeht (was jetzt eh keiner wissen kann) - es nähern sich zumindest die Anzeichen, dass NVidia dieses Mal durchaus nicht mehr so zurücklehnend im Sessel liegen kann bzw. sie zumindest BigNavi als stark im Vergleich zu Ampere einschätzen. Den großen Chip direkt zu bringen in vielen Ausführungen und mit ggf. sehr hoher TBP würde NV nicht machen wenn sie es nicht müssten.

Ich würde mich wirklich freuen wenns so kommt und die größte Navikarte mit der größten Amperekarte etwa bei der gleichen Performance und gleichem verbrauch rauskämen. Denn dann würde etwas passieren was wir seit Jahren nicht mehr kennen im GPU-Markt: Konkurrenz die Preise drückt! Unglaublich, sowas.

Das wäre dann die 3. Generation ohne Änderungen an der Speichergröße. Schwer vorstellbar...
Ich glaube es auch eher nicht. Andererseits ist bei NV nichts unmöglich, so peinlich eine RTX3090 mit nur 11GB auch wäre.
 
Oben Unten