Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

Und der Kühlkörper und Board waren für mehr ausgelegt.

Wenn die Leistungsaufnahme nicht signifikant steigen würde, gäbe es keinen Bedarf für so ein massives Upgrade des Kühlers, im Vergleich zur 2000er Serie.
Das ist ein [Edit]dual[/Edit] slot Design mit nochmals gewachsenen Lüftern.
Bisher haben bei den 2080 TIs und auch den RTX Titan Modellen dual Slot Kühler gereicht - die FEs waren nicht wirklich langsamer, als die massiv überzüchteten HOF, oder die Lightning Modelle.

Selbst die 2080 TI HOF sieht weniger massiv aus, als die angeblichen 3080 Kühler:
https://image1280.macovi.de/images/product_images/1280/1288878_4__72339-4.jpg

Edit: Sorry, ist ja doch nur ein Dual Slot Design. Dennoch deutlich aufgebohrt im Vergleich zu vorherigen FEs.
 
Zuletzt bearbeitet:
Interessant das würde indirekt die Gerüchte bestätigt.

VRAM ist aber komisch, vorherige Gerüchte besagen 384 Bit Interface bei 12 GB VRAM bei der 3080 Ti, nicht 11 GB bei 352 Bit.
 
Zuletzt bearbeitet:
hoffe auf 24 Gb VRam bei der Titan sowie einen Preis unter 2000 Euro; wenn noch die Gpu Leistung stimmt,
dann kommt die. Karte in die engere Auswahl
 
hoffe auf 24 Gb VRam bei der Titan sowie einen Preis unter 2000 Euro; wenn noch die Gpu Leistung stimmt,
dann kommt die. Karte in die engere Auswahl

Die Titan hat doch bereits schon 24 GB ! Nur kostet diese halt immer noch 2850 €.
Wenn Ampere raus kommt, dann bekommst die JETZIGE Titan evtl. gebraucht unter 2000 €.
Viele Späße damit ... ;-)

MfG Föhn.
 
Oder Silizium ist am Ende. Wie weit soll es noch runtergehen 3*nm? Atomzählerei ist das.

Physikalisch wären 20 Siliziumatome (meines Wissens) die Grenze, ab dann übernimmt der Tunneleffekt. Das wären etwa 2nm. Natürlich kann man jetzt nicht so exakt fertigen, denn es gibt eine gewisse Streuung. Man geht von etwa 3nm aus, wobei das reale 3nm sind und nicht diese Prozessbezeichnung,
 
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.
 
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.

Ob 350W verkehrt klingen, hängt ja an der Leistung.
Die Produktreihe wird sich ja nach unten fortsetzen.
 
Sollte sich das ganze bewahrheiten ist das ein Schritt in die falsche Richtung. Mehr Leistung ist zwar wünschenswert aber nicht durch höheren Verbrauch, dieser sollte gleich bleiben oder besser noch sinken.
10-12GB VRam finde ich ebenfalls als etwas knapp, 24GB fände ich jedoch utopisch. Die 80er mit 10-12GB und die ti/90 mit 16 fände ich ok, die Karten darunter alle mit 8GB bis zur 50er Reihe, der würde ich dann 6GB spendieren.
Die Preise steigen hoffentlich nicht wieder, ansonsten kaufe ich in Zukunft in der Holzklasse, mehr wie 550€ gebe ich für eine GPU nicht aus.
 
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.

Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.
 
Sollte sich das ganze bewahrheiten ist das ein Schritt in die falsche Richtung. Mehr Leistung ist zwar wünschenswert aber nicht durch höheren Verbrauch, dieser sollte gleich bleiben oder besser noch sinken.
10-12GB VRam finde ich ebenfalls als etwas knapp, 24GB fände ich jedoch utopisch. Die 80er mit 10-12GB und die ti/90 mit 16 fände ich ok, die Karten darunter alle mit 8GB bis zur 50er Reihe, der würde ich dann 6GB spendieren.
Die Preise steigen hoffentlich nicht wieder, ansonsten kaufe ich in Zukunft in der Holzklasse, mehr wie 550€ gebe ich für eine GPU nicht aus.

Und nochmal, es hängt an der Leistung die erbracht wird. Wenn eine 3090 zum Beispiel ein Board hat mit 350W TBD und dann real eine TDP von , ich schätze mal 275-300W, dabei aber (nur mal so theoretisch) die doppelte Leistung einer 2080TI bei 260W erreicht. Dann ist das eine tolle Leistung und deutlich effizienter.

Bewusst überdeutlich gemacht. Ich erwarte nicht, das die 3090 doppelt so schnell sein wird.

Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.

Das wundert mich auch, es werden bewusst, oder unbewusst Details ignoriert. Keiner hat bisher gesagt, das die Karten eine TDP von 350, oder 320W haben. Das soll die Leistung sein, auf die das Board ausgelegt ist. Diese ist immer höher gewesen, als dann die TDP der Karte.

Wenn die Karrten 350W schlucken passen sie perfekt zu einer Comet Lake CPU, beide total ineffizient und nicht zeitgemäß.

Wenn du die zusammen bringst, willst du damit auch zocken. Dann ist der Comet Lake aber nicht wirklich weniger effizient, als ZEN2. Laut PCGH Tests mit Verbrauchsmessungen in Spielen.

Und ob die Nvidia Karte 200, 250, oder 300, oder gar 350W verbraucht, lässt zu 100% sicher noch kein Urteil über die Effizienz zu. Dazu muss man immer rest die erbrachte Leistung in Relation dazu bringen.

Wenn ich mal spekulieren würde... Dann würde ich schon einiges von so einer neuen Ampere erwarten. Ich denke das es ordentlich mehr Leistung gibt (endlich), hoffe auch das Big Navi richtig gut wird, damit es einen harten Schlagabtausch geben kann.
 
Angenommen die Nomenklatur kommt hin:

3080, 10GB
3080 Super, 11GB
3090, 24GB

Ganz ehrlich NVIDIA, ich hasse euch. :ugly:
Die wissen genau, dass sich 99%, selbst wenn sie viel Geld in die Hand nehmen würden, maximal ne 3080 Super leisten könnten. Und dann bleibt man wieder auf den fucking 11GB stehen. Was soll der Mist? Ich könnte mir in den Arsch beißen, dass ich mir 2017 nicht die GTX1080 Ti geholt habe. Diese Karte war scheinbar was für die Ewigkeit. Nvidia will wohl, dass wir für immer auf der Stelle treten. Immer ne neue Generation, aber Mehrleistung bekommt man nur, wenn man die Preise mitgeht. Bei den erwarteten Preisen hätte man sich auch ne RTX2080Ti kaufen können und wäre auf dem gleichen Level wie die RTX3080 Super.

Und ganz toll, dass Nvidia jetzt den Namen 3090 etabliert. Die soll wohl die nächste Evolutionsstufe in der Preispolitik darstellen. 1999€ oder was?
 
Stimme dir zu, aber wenigstens sind es keine 8 mehr.

So wie Nvidia sich in den letzten Jahren verhalten hat ist es aber sehr wahrscheinlich sogar noch richtig. Kann mir nicht vorstellen das eine 3080 oder 3070 mit 16 GB kommt...
solche Sprünge macht NVIDIA nicht mehr..

jaaa aber
Ich finde selbst mit 11 GB können die ihre Karten behalten.
Das traurige ist ja das die Leistungstechnisch auch keine großen Sprünge machen sollen (hatte was von nur ~30 bis 50% gelesen) und zusätzlich die zuwenig Speicher bei wieder ~850€
für die RTX 3080. Man sollte im Hinterkopf behalten das die ~Super Modelle erst zwei Jahre später erscheinen könnten.
Auch die bis zu 350Watt stimmen mich nicht wirklich positiv.

Ich hoffe das da AMD was deutlich besseres macht.
Mehr Speicher sollte kein Problem sein und Leistungstechnisch aufhohlen sollte hoffendlich kein Prob. sein.
Würde mich aber erst kaputt lachen wenn die AMD Karten dann mehr Speicher, (gleich)schnell, weniger Strom und dann noch günstiger sein sollten.
Würde dann aus Prinzip mir ne zweite Karte kaufen um CF zu testen :ugly:
 
RT unterstützt eh kein Spiel, DLSS schaltet jeder ab, damit liegt die Hälfte der Kerne brach und man hat wieder seine 150W.

An Stelle von Nvidia wäre ich auch sauer über das Leak, denn mit 10GB Speicher würde ich eine 3080 als Totgeburt bezeichnen. Konsolen kommen mit 16GB und bei Nvidia hat es schon Tradition eine Karte erst mit mülligem Speicherausbau zu veröffentlichen bevor nachgebessert wird auf Kosten der Early Adopters. Vgl. 1060 3GB, oder 960 2GB. Genauso wird es den 3080 10GB Kunden gehen. Halbes Jahr später kommt eine mit 20GB und man denkt sich dann schönen Dank und hängt in den neuen Spielen auf mittleren Einstellungen fest.

Selbst wenn eine AMD Karte 10% langsamer wäre, mit mehr Speicher als eine 10GB Nvidia wäre sie trotzdem das zukunftssichere Angebot. Spöttisch könnte man auch sagen Nvidia braucht ja auch nicht mehr als 10GB, die rendern ja eh bald alles auf 540p und lassen DLSS drüberlaufen um es 4k zu nennen.
 
Zurück