Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

Noch sind das alles nur Gerüchte...
Wenn die Karten offiziell vorgestellt werden und die Gerüchte bewahrheiten sich - dann darf man sich aufregen.
Ich hoffe ja noch auf 16 GB ab einer mutmaßlichen 3080.
 
Und ganz toll, dass Nvidia jetzt den Namen 3090 etabliert. Die soll wohl die nächste Evolutionsstufe in der Preispolitik darstellen. 1999€ oder was?

Jedes Mal wenn ich "3090" lese hab ich eine Dual-GPU vor Augen... :D
Bei der aktuellen Preislage würde ich weiterhin dabei bleiben jeweils ein/zwei Generationen hinterher zu hinken und die Reste zu verwerten welche von den reichen Enthusiasten abgestoßen werden. :)
 
Ich hoffe auf starke RDNA2-Karten und dann heißt es für zwei Jahre erst mal tschüss Nvidia. Die brauchen endlich mal einen Dämpfer. Kann ja nicht ewig so weitergehen. Ist eben nicht gesund immer und immer wieder im gleichen Laden zu kaufen. Wenn es 2080T-Leistung bei AMD gibt, dann ist die Kohle so gut wie überwiesen.
 
Noch sind das alles nur Gerüchte...
Wenn die Karten offiziell vorgestellt werden und die Gerüchte bewahrheiten sich - dann darf man sich aufregen.
Ich hoffe ja noch auf 16 GB ab einer mutmaßlichen 3080.

Das ginge nur mit einem 256bit Interface, was dann wohl die Bandbreite erheblich einschränken würde. Aber das eigentliche Problem des geplanten Speicherausbaus ist, dass die 3070 damit wieder mit 8GB antreten wird und die 3060 mit 6 GB.
 
Igorslab sagte auch das der neue Kühler 160 Dollar (und ohne Steuer) kostet und das die neue eingekerbte Platine auch den Preis nach oben treiben wird. Ich sehe hier keine günstigen neuen Karten von Nvidia in der Zukunft. Igorslab hat RTX Karten gegen Pascal und AMD Karten in Ü20 Profianwendungen(ab~500€) getestet, selbst die günstige RTX 2060S ist im Videoschnitt 250% schneller als eine Pascal Titan(und vs. amd sowieso) und dazu eine bessere Bildqualität beim codieren. Spielerisch lässt mich das RTX eher auch kalt, zu viel Strom, zu hohe FPS Einbruch in Spielen bei zu geringer optischer Verbesserung.
 
Früher gab es auch mal ein 512bit Interface wäre ja auch möglich macht nur seit langem keiner mehr . Es gab zeiten da gab es nur 64 für die Unterste Budget Karte , 128 für die typische Nvidia 60er Serie fing mit der 6600 Gt an dann für die Oberklasse 256 Bit und 512 dür das absolute High End aber mit der 8800 hat Nvidia mit diesen krummen Interfaces angefangen . ATI später AMD haben für High End immer das größte technisch machbare genommen und Nvidia hat lieber Texturkomprimierungsverfahren entwickelt.
 
160$ allein für den Kühler halte ich für Blödsinn, ist das Teil versilbert? :what:
So ein Kühler wird in der Massenproduktion maximal 40$ kosten.
 
160$ allein für den Kühler halte ich für Blödsinn, ist das Teil versilbert? :what:
So ein Kühler wird in der Massenproduktion maximal 40$ kosten.

Der ganze Leak und die mutmaßlichen Daten sind sowieso schräg.. Allein die Differenzierung mit 11 und 10 GB bei der SUPER/TI zur normalen 3080 ... Und dann ein riesen loch mit 24 bis zur Titan ? Da wären doch 16 GB für eine TI viel sinnvoller ?? Ich glaub davon erst mal gar nix xD
 
Naja vielleicht packen sie da ja hinter der 3080Super noch ne Ti und ne SuperTi dazwischen. 3080 ist das neue Mid-End. Früher hatte man mit ner 80 (ohne Ti) noch das Flaggschiff. Heute ist das leistungsmäßig eine aus’m mittleren Bereich, für den namensgerechten hohen Preis.

Wir werden durch die irreführenden Namen seit Turing verarscht.
Wer sich nicht auf dem Laufenden hält, kauft die 3080 und denkt bei dem Namen und dem Preis, man hätte ein Topmodell gekauft, aber es ist eben leider nur eins der abgespeckten Modelle. Traurig.

Jetzt gibt‘s dann die „RTX 3090 Super Ti Plus Ultimate ItJustWorks Edition“.
 
Zuletzt bearbeitet:
Mittlerweile glaube ich, dass bei den drei Modellen noch gar keine TI am Start ist. Ich vermute eher, dass das 24GB-Modell der Titan entspricht und die beiden anderen Karten aufgrund ihrer doch recht ähnlichen Leistungsdaten eine 3080 und eine 3080Super darstellen können.

Aber alles egal, ich warte ab bis die Karten/Fakten auf dem Tisch liegen. Ich möchte => 2080TI Leistung und bin gespannt, welcher Hersteller mich da mehr begeistern kann.
Und falls die Preise durch die Decke gehen, wird gar nichts gekauft. Ist nur eines meiner vielen Hobbies...
 
Ich hatte glück mit der 2070, im Angebot als Custom Model von MSI um 429 Euro und die Vega 64 um 300 losgeworden. Da kann man sich ausnahmsweise nicht beschweren xD Aber die ganzen 5-600 bzw 2080 um 650-850 Geschichten waren natürlich schon eine harte Kiste ...
 
Hm, hatte die Fotos eigentlich unter "Da hatte aber jemand Spaß mit Photoshop" abgelegt. Aber wenn Nvidia wirklich eine Ermittlung startet, heißt das für mich, dass das zumindest Design-Samples sind.

Die Fotos weisen zwar deutliche Zeichen für Nachbearbeitung auf (mindestens ein Lüfter komplett Fake, einige Lamellen merkwürdig), sind aber immer noch Fotos. Wer immer die gemacht hat, hatte Zugang zu weit fortgeschrittenen (Kühler-)Prototypen, mutmaßlich sogar zu einer 0-Serie.


Physikalisch wären 20 Siliziumatome (meines Wissens) die Grenze, ab dann übernimmt der Tunneleffekt. Das wären etwa 2nm. Natürlich kann man jetzt nicht so exakt fertigen, denn es gibt eine gewisse Streuung. Man geht von etwa 3nm aus, wobei das reale 3nm sind und nicht diese Prozessbezeichnung,

IBM-Forscher haben schon in den 0er Jahren einen experimentellen 1-Atom-Transistor vorgeführt. Die Prozessbezeichnungen orientieren sich mittlerweile ohnehin am ehesten an der Gate-Breite (zumindest bis 10 nm Intel, alles noch kleinere ist meinem Wissen nach gewürfelt) und die ist, im Gegensatz zur Länge, nicht von Tunnel-Effekten nicht betroffen. Von den aktuell in Produktion befindlichen Prozessen ausgehend haben wir also noch physikalische Reserven für mindestens drei weitere Voll-Nodes, was bei den immer länger werden Zyklen ein 2030er Datum bedeutet. Viel weiter konnte man auch früher nicht in die Zukunft schauen.


Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.

Titans und Tis hatten in der Vergangenheit ähnliche Leistungen, da letztere nun einmal ein Salvage-Design ist, also mit schlechteren/teildeaktivierten Chips arbeiten muss, was die Effizienz senkt.


Wenn die Karrten 350W schlucken passen sie perfekt zu einer Comet Lake CPU, beide total ineffizient und nicht zeitgemäß.

Ich empfehle einen Blick in die aktuelle PCGH. Wider erwarten hat der 10900K, korrekt mit 125 W PL1 konfiguriert, laut Daves Effizienz-Tests nur 2,0 beziehungweise 0,3 Prozentpunkte Rückstand (Spiele/Anwendungen) auf den 3900X. Also wenn du diese Effizienz als nicht zeitgemäß bezeichnest, dann solltest du dich aus Diskussionen über nicht-Notebook-Hardware zurückziehen.


Igorslab sagte auch das der neue Kühler 160 Dollar (und ohne Steuer) kostet und das die neue eingekerbte Platine auch den Preis nach oben treiben wird. Ich sehe hier keine günstigen neuen Karten von Nvidia in der Zukunft. Igorslab hat RTX Karten gegen Pascal und AMD Karten in Ü20 Profianwendungen(ab~500€) getestet, selbst die günstige RTX 2060S ist im Videoschnitt 250% schneller als eine Pascal Titan(und vs. amd sowieso) und dazu eine bessere Bildqualität beim codieren. Spielerisch lässt mich das RTX eher auch kalt, zu viel Strom, zu hohe FPS Einbruch in Spielen bei zu geringer optischer Verbesserung.

Eine V-förmige Kerbe wird nicht viel Kosten. Rückseite an Rückseite gelegt können solche Formen ohne Schnittverluste produziert werden und der Zuschnitt erfolgt meinem Wissen nach sowieso mit Lasern und nicht mit Sägen, die auf einen geraden Kantenverlauf angewiesen werden. Früher waren einige billige PCI- oder gar ISA-Karten sogar dreieckig, um die volle Anschlusshöhe und die enorme Slot-Länge mit möglichst wenig PCB-Fläche zu verbinden. Der Kühler sieht aber sehr aufwendig aus, ja.


Früher gab es auch mal ein 512bit Interface wäre ja auch möglich macht nur seit langem keiner mehr . Es gab zeiten da gab es nur 64 für die Unterste Budget Karte , 128 für die typische Nvidia 60er Serie fing mit der 6600 Gt an dann für die Oberklasse 256 Bit und 512 dür das absolute High End aber mit der 8800 hat Nvidia mit diesen krummen Interfaces angefangen . ATI später AMD haben für High End immer das größte technisch machbare genommen und Nvidia hat lieber Texturkomprimierungsverfahren entwickelt.

Wenn ich mich richtig erinnere, war das Maximum bei Nvidia ein 384-Bit-Interface und 512 Bit gab es nur einmal, bei ATIs 2900ern. Die Geforce 6000 hatten auf alle Fälle 128 Bit für die 600er und 256 Bit für die 800er Topdmodelle. Gleiches gilt für Geforce 5000, 7000 und 9000. (Dazwischen und danach gab es die Big-Chips mit "krummen" Zahlen.)
 
@Torsten:
Könntest du nochmal ein Bild mit Pfeilen posten, wo du die Nachbearbeitung vermutest?
Weiß jetzt nicht welches du meinst.

Wurde das hier eig schon gepostet?

29114252-ECDA-47BD-93FC-B0E68A27DB4A.jpeg
 
Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.
 
Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.

An den Fakten hat sich immer noch nichts geändert. ;-) Bereits die RTX 2080 FE hat zur Stromversorgung 1x6pin, 1x8pin zzgl. PCIe (75 W) und das, obwohl die Karte nur im Mittel etwa um die 225 W zieht (wobei kurzzeitige Peaks jedoch durchaus bis zu 100 W mehr ziehen dürften). Entsprechend reicht ein Zusätzstecker zzgl. PCIe zweifelsfrei nicht aus für die drei GA102-Modelle.
 
Ich kann mir sehr wohl vorstellen, dass NVidia den zwischenschritt 11/12Gb RAM auf der 3070/3080 machen wird, der 3080 Ti/3090 würde ich dann mal auf 16GB RAM tippen. Und AMD wird sicher sofort mit 16GB klotzen, alles andere wäre eher unlogisch bei denen, da man schon mit der R290X 8GB im Portfolio hatte (überlegt einmal, wie lange das schon her ist!).
 
Ich für meinen Teil kann mir vorstellen, dass die mittlere der Karten einfach eine bei GPU und Vram teildeaktivierte Version der großen ist.
Einfach um den "Ausschuss" mitverwerten zu können.
 
An den Fakten hat sich immer noch nichts geändert. ;-) Bereits die RTX 2080 FE hat zur Stromversorgung 1x6pin, 1x8pin zzgl. PCIe (75 W) und das, obwohl die Karte nur im Mittel etwa um die 225 W zieht (wobei kurzzeitige Peaks jedoch durchaus bis zu 100 W mehr ziehen dürften). Entsprechend reicht ein Zusätzstecker zzgl. PCIe zweifelsfrei nicht aus für die drei GA102-Modelle.

Warum. 320W TBD sind nicht 320W TDP. Das bleibt noch abzuwarten, was real verbraucht wird.
 
Zurück