• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

RicksMorty

Schraubenverwechsler(in)
Noch sind das alles nur Gerüchte...
Wenn die Karten offiziell vorgestellt werden und die Gerüchte bewahrheiten sich - dann darf man sich aufregen.
Ich hoffe ja noch auf 16 GB ab einer mutmaßlichen 3080.
 

Da_Obst

PCGH-Community-Veteran(in)
Und ganz toll, dass Nvidia jetzt den Namen 3090 etabliert. Die soll wohl die nächste Evolutionsstufe in der Preispolitik darstellen. 1999€ oder was?

Jedes Mal wenn ich "3090" lese hab ich eine Dual-GPU vor Augen... :D
Bei der aktuellen Preislage würde ich weiterhin dabei bleiben jeweils ein/zwei Generationen hinterher zu hinken und die Reste zu verwerten welche von den reichen Enthusiasten abgestoßen werden. :)
 

deady1000

Volt-Modder(in)
Ich hoffe auf starke RDNA2-Karten und dann heißt es für zwei Jahre erst mal tschüss Nvidia. Die brauchen endlich mal einen Dämpfer. Kann ja nicht ewig so weitergehen. Ist eben nicht gesund immer und immer wieder im gleichen Laden zu kaufen. Wenn es 2080T-Leistung bei AMD gibt, dann ist die Kohle so gut wie überwiesen.
 

seahawk

Volt-Modder(in)
Noch sind das alles nur Gerüchte...
Wenn die Karten offiziell vorgestellt werden und die Gerüchte bewahrheiten sich - dann darf man sich aufregen.
Ich hoffe ja noch auf 16 GB ab einer mutmaßlichen 3080.

Das ginge nur mit einem 256bit Interface, was dann wohl die Bandbreite erheblich einschränken würde. Aber das eigentliche Problem des geplanten Speicherausbaus ist, dass die 3070 damit wieder mit 8GB antreten wird und die 3060 mit 6 GB.
 

kleinemann

Komplett-PC-Aufrüster(in)
Igorslab sagte auch das der neue Kühler 160 Dollar (und ohne Steuer) kostet und das die neue eingekerbte Platine auch den Preis nach oben treiben wird. Ich sehe hier keine günstigen neuen Karten von Nvidia in der Zukunft. Igorslab hat RTX Karten gegen Pascal und AMD Karten in Ü20 Profianwendungen(ab~500€) getestet, selbst die günstige RTX 2060S ist im Videoschnitt 250% schneller als eine Pascal Titan(und vs. amd sowieso) und dazu eine bessere Bildqualität beim codieren. Spielerisch lässt mich das RTX eher auch kalt, zu viel Strom, zu hohe FPS Einbruch in Spielen bei zu geringer optischer Verbesserung.
 

defender2409

PC-Selbstbauer(in)
Früher gab es auch mal ein 512bit Interface wäre ja auch möglich macht nur seit langem keiner mehr . Es gab zeiten da gab es nur 64 für die Unterste Budget Karte , 128 für die typische Nvidia 60er Serie fing mit der 6600 Gt an dann für die Oberklasse 256 Bit und 512 dür das absolute High End aber mit der 8800 hat Nvidia mit diesen krummen Interfaces angefangen . ATI später AMD haben für High End immer das größte technisch machbare genommen und Nvidia hat lieber Texturkomprimierungsverfahren entwickelt.
 

D3N$0

BIOS-Overclocker(in)
160$ allein für den Kühler halte ich für Blödsinn, ist das Teil versilbert? :what:
So ein Kühler wird in der Massenproduktion maximal 40$ kosten.
 

bonesai

Freizeitschrauber(in)
160$ allein für den Kühler halte ich für Blödsinn, ist das Teil versilbert? :what:
So ein Kühler wird in der Massenproduktion maximal 40$ kosten.

Der ganze Leak und die mutmaßlichen Daten sind sowieso schräg.. Allein die Differenzierung mit 11 und 10 GB bei der SUPER/TI zur normalen 3080 ... Und dann ein riesen loch mit 24 bis zur Titan ? Da wären doch 16 GB für eine TI viel sinnvoller ?? Ich glaub davon erst mal gar nix xD
 

deady1000

Volt-Modder(in)
Naja vielleicht packen sie da ja hinter der 3080Super noch ne Ti und ne SuperTi dazwischen. 3080 ist das neue Mid-End. Früher hatte man mit ner 80 (ohne Ti) noch das Flaggschiff. Heute ist das leistungsmäßig eine aus’m mittleren Bereich, für den namensgerechten hohen Preis.

Wir werden durch die irreführenden Namen seit Turing verarscht.
Wer sich nicht auf dem Laufenden hält, kauft die 3080 und denkt bei dem Namen und dem Preis, man hätte ein Topmodell gekauft, aber es ist eben leider nur eins der abgespeckten Modelle. Traurig.

Jetzt gibt‘s dann die „RTX 3090 Super Ti Plus Ultimate ItJustWorks Edition“.
 
Zuletzt bearbeitet:

Nordbadener

PC-Selbstbauer(in)
Mittlerweile glaube ich, dass bei den drei Modellen noch gar keine TI am Start ist. Ich vermute eher, dass das 24GB-Modell der Titan entspricht und die beiden anderen Karten aufgrund ihrer doch recht ähnlichen Leistungsdaten eine 3080 und eine 3080Super darstellen können.

Aber alles egal, ich warte ab bis die Karten/Fakten auf dem Tisch liegen. Ich möchte => 2080TI Leistung und bin gespannt, welcher Hersteller mich da mehr begeistern kann.
Und falls die Preise durch die Decke gehen, wird gar nichts gekauft. Ist nur eines meiner vielen Hobbies...
 

bonesai

Freizeitschrauber(in)
Ich hatte glück mit der 2070, im Angebot als Custom Model von MSI um 429 Euro und die Vega 64 um 300 losgeworden. Da kann man sich ausnahmsweise nicht beschweren xD Aber die ganzen 5-600 bzw 2080 um 650-850 Geschichten waren natürlich schon eine harte Kiste ...
 

PCGH_Torsten

Redaktion
Teammitglied
Hm, hatte die Fotos eigentlich unter "Da hatte aber jemand Spaß mit Photoshop" abgelegt. Aber wenn Nvidia wirklich eine Ermittlung startet, heißt das für mich, dass das zumindest Design-Samples sind.

Die Fotos weisen zwar deutliche Zeichen für Nachbearbeitung auf (mindestens ein Lüfter komplett Fake, einige Lamellen merkwürdig), sind aber immer noch Fotos. Wer immer die gemacht hat, hatte Zugang zu weit fortgeschrittenen (Kühler-)Prototypen, mutmaßlich sogar zu einer 0-Serie.


Physikalisch wären 20 Siliziumatome (meines Wissens) die Grenze, ab dann übernimmt der Tunneleffekt. Das wären etwa 2nm. Natürlich kann man jetzt nicht so exakt fertigen, denn es gibt eine gewisse Streuung. Man geht von etwa 3nm aus, wobei das reale 3nm sind und nicht diese Prozessbezeichnung,

IBM-Forscher haben schon in den 0er Jahren einen experimentellen 1-Atom-Transistor vorgeführt. Die Prozessbezeichnungen orientieren sich mittlerweile ohnehin am ehesten an der Gate-Breite (zumindest bis 10 nm Intel, alles noch kleinere ist meinem Wissen nach gewürfelt) und die ist, im Gegensatz zur Länge, nicht von Tunnel-Effekten nicht betroffen. Von den aktuell in Produktion befindlichen Prozessen ausgehend haben wir also noch physikalische Reserven für mindestens drei weitere Voll-Nodes, was bei den immer länger werden Zyklen ein 2030er Datum bedeutet. Viel weiter konnte man auch früher nicht in die Zukunft schauen.


Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.

Titans und Tis hatten in der Vergangenheit ähnliche Leistungen, da letztere nun einmal ein Salvage-Design ist, also mit schlechteren/teildeaktivierten Chips arbeiten muss, was die Effizienz senkt.


Wenn die Karrten 350W schlucken passen sie perfekt zu einer Comet Lake CPU, beide total ineffizient und nicht zeitgemäß.

Ich empfehle einen Blick in die aktuelle PCGH. Wider erwarten hat der 10900K, korrekt mit 125 W PL1 konfiguriert, laut Daves Effizienz-Tests nur 2,0 beziehungweise 0,3 Prozentpunkte Rückstand (Spiele/Anwendungen) auf den 3900X. Also wenn du diese Effizienz als nicht zeitgemäß bezeichnest, dann solltest du dich aus Diskussionen über nicht-Notebook-Hardware zurückziehen.


Igorslab sagte auch das der neue Kühler 160 Dollar (und ohne Steuer) kostet und das die neue eingekerbte Platine auch den Preis nach oben treiben wird. Ich sehe hier keine günstigen neuen Karten von Nvidia in der Zukunft. Igorslab hat RTX Karten gegen Pascal und AMD Karten in Ü20 Profianwendungen(ab~500€) getestet, selbst die günstige RTX 2060S ist im Videoschnitt 250% schneller als eine Pascal Titan(und vs. amd sowieso) und dazu eine bessere Bildqualität beim codieren. Spielerisch lässt mich das RTX eher auch kalt, zu viel Strom, zu hohe FPS Einbruch in Spielen bei zu geringer optischer Verbesserung.

Eine V-förmige Kerbe wird nicht viel Kosten. Rückseite an Rückseite gelegt können solche Formen ohne Schnittverluste produziert werden und der Zuschnitt erfolgt meinem Wissen nach sowieso mit Lasern und nicht mit Sägen, die auf einen geraden Kantenverlauf angewiesen werden. Früher waren einige billige PCI- oder gar ISA-Karten sogar dreieckig, um die volle Anschlusshöhe und die enorme Slot-Länge mit möglichst wenig PCB-Fläche zu verbinden. Der Kühler sieht aber sehr aufwendig aus, ja.


Früher gab es auch mal ein 512bit Interface wäre ja auch möglich macht nur seit langem keiner mehr . Es gab zeiten da gab es nur 64 für die Unterste Budget Karte , 128 für die typische Nvidia 60er Serie fing mit der 6600 Gt an dann für die Oberklasse 256 Bit und 512 dür das absolute High End aber mit der 8800 hat Nvidia mit diesen krummen Interfaces angefangen . ATI später AMD haben für High End immer das größte technisch machbare genommen und Nvidia hat lieber Texturkomprimierungsverfahren entwickelt.

Wenn ich mich richtig erinnere, war das Maximum bei Nvidia ein 384-Bit-Interface und 512 Bit gab es nur einmal, bei ATIs 2900ern. Die Geforce 6000 hatten auf alle Fälle 128 Bit für die 600er und 256 Bit für die 800er Topdmodelle. Gleiches gilt für Geforce 5000, 7000 und 9000. (Dazwischen und danach gab es die Big-Chips mit "krummen" Zahlen.)
 

deady1000

Volt-Modder(in)
@Torsten:
Könntest du nochmal ein Bild mit Pfeilen posten, wo du die Nachbearbeitung vermutest?
Weiß jetzt nicht welches du meinst.

Wurde das hier eig schon gepostet?

29114252-ECDA-47BD-93FC-B0E68A27DB4A.jpeg
 

deady1000

Volt-Modder(in)
Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.
 

gerX7a

Software-Overclocker(in)
Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.

An den Fakten hat sich immer noch nichts geändert. ;-) Bereits die RTX 2080 FE hat zur Stromversorgung 1x6pin, 1x8pin zzgl. PCIe (75 W) und das, obwohl die Karte nur im Mittel etwa um die 225 W zieht (wobei kurzzeitige Peaks jedoch durchaus bis zu 100 W mehr ziehen dürften). Entsprechend reicht ein Zusätzstecker zzgl. PCIe zweifelsfrei nicht aus für die drei GA102-Modelle.
 

BxBender

BIOS-Overclocker(in)
Ich kann mir sehr wohl vorstellen, dass NVidia den zwischenschritt 11/12Gb RAM auf der 3070/3080 machen wird, der 3080 Ti/3090 würde ich dann mal auf 16GB RAM tippen. Und AMD wird sicher sofort mit 16GB klotzen, alles andere wäre eher unlogisch bei denen, da man schon mit der R290X 8GB im Portfolio hatte (überlegt einmal, wie lange das schon her ist!).
 

Xaphyr

Software-Overclocker(in)
Ich für meinen Teil kann mir vorstellen, dass die mittlere der Karten einfach eine bei GPU und Vram teildeaktivierte Version der großen ist.
Einfach um den "Ausschuss" mitverwerten zu können.
 

derneuemann

BIOS-Overclocker(in)
An den Fakten hat sich immer noch nichts geändert. ;-) Bereits die RTX 2080 FE hat zur Stromversorgung 1x6pin, 1x8pin zzgl. PCIe (75 W) und das, obwohl die Karte nur im Mittel etwa um die 225 W zieht (wobei kurzzeitige Peaks jedoch durchaus bis zu 100 W mehr ziehen dürften). Entsprechend reicht ein Zusätzstecker zzgl. PCIe zweifelsfrei nicht aus für die drei GA102-Modelle.

Warum. 320W TBD sind nicht 320W TDP. Das bleibt noch abzuwarten, was real verbraucht wird.
 

seahawk

Volt-Modder(in)
Ich empfehle einen Blick in die aktuelle PCGH. Wider erwarten hat der 10900K, korrekt mit 125 W PL1 konfiguriert, laut Daves Effizienz-Tests nur 2,0 beziehungweise 0,3 Prozentpunkte Rückstand (Spiele/Anwendungen) auf den 3900X. Also wenn du diese Effizienz als nicht zeitgemäß bezeichnest, dann solltest du dich aus Diskussionen über nicht-Notebook-Hardware zurückziehen.

Dank des Abos habe ich das getan, leider stellen die meisten Z Boards da ganz andere Werte ein. Ich bin ja auch mit meinem Coffe Lake Refresh 9900 @82W sehr zufreiden. Stromverbrauch ist für mich heute ein wichtiges Thema.
 

gerX7a

Software-Overclocker(in)
Warum. 320W TBD sind nicht 320W TDP. Das bleibt noch abzuwarten, was real verbraucht wird.

Was war ein meinem Post unverständlich und welchen Sinn sollte deiner haben? Die RTX 2080 FE hat um die 160 W TDP und die zuvor zitierte Zahl an Stromanschlüssen, das ist schlicht ein Fakt.
Igor vermisst GPUs sehr umfangreich und differenziert und wenn er für die Modelle öffentlich 320 - 350 W in den Raum stellt, wird er damit zweifelsfall nicht 1 ms-Peaks oder weniger meinen (die darüber hinaus in einem ganz anderen Bereich rangieren, denn bereits eine RTX 2080 Ti erreicht hier rd. 400 W und eine RX Vega 64 toppte das gar schon mit 420 W).
Die neuen Modelle müssen die entsprechenden Werte nicht im Mittel exakt ausreizen, jedoch dürfte der reale Verbrauch sich durchaus in einem deutlich gehobenen Bereich bewegen und selbst wenn die größere "3080" nur bei 290 W mittlerem Verbrauch landet, würde sich das Modell bereits jenseits aller 2000er-Modelle bewegen und darüber hinaus rangiert gar noch eine "3090" für die bis zu 350 W im Raum stehen. Ergo ... ein einzelner Stromanschluss ist absurd für jede der drei GA102-Karten, schlicht weil nVidia dieses mal den Lauch so aufsetzen wird, dass man zuerst mit HighEnd-Produkten starten und das Midrange-Segment mit einem etwas kleineren Chip erst im Nachgang bedienen wird.

Selbstredend wird man für eine Bestätigung abwarten müssen, aber unwahrscheinlich sind diese Werte nicht, denn es gab schon früher deutlich stromhungrigere Karten und wenn nVidia tatsächlich deutlich mehr Raytracing-Leistung realisieren will, bedeutet das deutlich mehr gleichzeitig arbeitenden Transistoren, was per se einen deutlich höheren Stromverbrauch impliziert, den ein modernerer Fertigungsprozess nur zum Teil kompensieren kann.
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
naja sehr naive Menschen (wie ich) sind eigendlich von 16 GB ausgegangen.
Aber warten wir mal ab.
Vielleicht alles ein Fake und NV überrascht uns sogar mit 20/22 GB :ugly:
Ne die Karten kommen so.
Nvidia will halt echt nicht, dass wieder sowas ärgerliches passiert wie die GTX1080Ti:

Damals mit übertriebenen 11GB Speicher zu einem Releasepreis von $US 699 (omg) mit bis zu 30% Mehrleistung zur ohnehin schon sehr schnellen GTX1080. Wer damals im Februar 2017 die - heute würde man sagen - "paar Euro" bezalt hat, der konnte problemlos Turing ignorieren (RTX2080 im Sep. 2018) und kann jetzt wahrscheinlich auch noch Ampere links liegen lassen, wenn die wieder nur mit 10GB und 11GB, im unter Schmerzen bezahlbaren Bereich, kommen. Und Nvidia hat sicherlich keinen Bock jetzt wieder den gleichen Fehler zu machen und den Leuten zu viel VRAM an die Hand zu geben. Nacher überspringen die Leute wieder zwei Generationen (zwei bis vier Jahre) und das kann ja niemand wollen. Daher gibt's bei Ampere für jeden der keine RTX3090 oder die Titan kauft einen Speicherkrüppel und bezahlen lässt man die sich natürlich trotzdem fürstlich.

So wird es laufen.

RDNA2 kann kommen bitte.
 

Xaphyr

Software-Overclocker(in)
Tja, hab eine 1080ti, würde gern noch warten, kann aber nicht.
Für 4k wirds einfach zu oft zu eng in letzter Zeit.
 

deady1000

Volt-Modder(in)
Tja, hab eine 1080ti, würde gern noch warten, kann aber nicht.
Für 4k wirds einfach zu oft zu eng in letzter Zeit.
Also rüstest du auf die RTX3090 mit 24GB auf?
Die anderen beiden Karten haben ja auch nur max 11GB und da kommste in Zukunft mit RT auch nicht wirklich weit.
Mit VR (falls das eine Rolle spielt) fange ich jetzt mal gar nicht an. Das frisst auch VRAM zum Frühstück.

Resident Evil 2 - >8GB
Control - >8GB
PUBG - >10GB
RotTR - >10GB
Deus Ex MD- >10GB
Star Citizen - >10GB

Quelle:
"Games don'''t need more than 8GB VRAM" : Amd

Control on PC Can Utilise Up To 18.5GB of VRAM | eTeknix

0sVOTOg.jpg hkGws41.jpg uHC0zrA.jpg uSyYitK.jpg
 

deady1000

Volt-Modder(in)
Entweder das oder das entsprechende AMD Pendant, auf jeden Fall.
Ich mache es ähnlich. Benötige auch mehr Leistung, aber nicht um jeden Preis.
Entweder es wird das AMD Flaggschiff, wenn es entsprechend performt und ein gutes P/L hat oder ich bleibe auf meiner aktuellen Karte sitzen.
Die Nvidia-Karten sind, von dem was ich mir hier zusammenreimen kann, eigentlich jetzt schon keine Option mehr für mich.
Zu teuer, lächerlich wenig VRAM und nur durch hohe Leistungsaufnahme noch vor RDNA2.

Ich gehe mal davon aus, dass sich angemessene Preise ein paar Wochen nach der Marktverfügbarkeit beider Serien einpendeln werden - hoffentlich vor Weihnachten.
Dann wird nochmal auf die Tests geschaut und danach entschieden. :daumen:
 

facehugger

Trockeneisprofi (m/w)
Wie kannst du die Effizienz ohne Kenntnis der Leistung beurteilen?
Es soll eben Leute geben, die auch nach dem Verbrauch schielen und nicht nur nach der Balkenlänge;) Und da selbst Nvidia`s Spitzenriege im Referenz oder auch Foundersdesign(:schief:) in den letzten Jahren immer bei um die 250W lag, erscheinen mir die kolportierten 320-350W (is ja noch nix in Stein gemeißelt, richtig) zumindest diskussionswürdig:P

Und yes, i can!

Gruß
 

warawarawiiu

Volt-Modder(in)
Sind die Dinger schon wieder nur ca. doppelt so schnell wie ne 2080ti?
Langweilig.....wieder kein technischer Fortschritt.

Vielleicht passen sie den Preis wenigstens so an, dass die 2080ti Ende diesen Jahres für 299€ und dann halt von mir aus die 3080ti für 599€ anbieten.
Alles andere wäre weltfremd.
 

JoM79

Trockeneisprofi (m/w)
Also rüstest du auf die RTX3090 mit 24GB auf?
Die anderen beiden Karten haben ja auch nur max 11GB und da kommste in Zukunft mit RT auch nicht wirklich weit.
Mit VR (falls das eine Rolle spielt) fange ich jetzt mal gar nicht an. Das frisst auch VRAM zum Frühstück.

Resident Evil 2 - >8GB
Control - >8GB
PUBG - >10GB
RotTR - >10GB
Deus Ex MD- >10GB
Star Citizen - >10GB
Nur weil ein Spiel mehr als 8GB VRAM belegt, muss es deswegen nicht mit 8GB ruckeln.
Der VRAM wird teilweise unnötig belegt.
 

warawarawiiu

Volt-Modder(in)
Sagt der Typ, der nicht eins von den dingen in seiner Signatur besitzt.

Es macht mich traurig dass du das glaubst und ich würde dir gerne das Gegenteil beweisen....aber wird wohl keine Möglichkeit geben dich zu überzeugen.
Ich habe das Zeug in meiner sig.....hört auf so tun als wär es was besonderes den Klimbim aus meiner sig zu haben. Kann sich jeder mit Job leisten.
 

Schnitzel1979

Freizeitschrauber(in)
also wenn Control schon 18 gb an Ram schluckt, wäre es nicht verkehrt, in ein 24 gb Karte
zu investieren; bleibt abzuwarten, wie teuer die DInger werden
 

gerX7a

Software-Overclocker(in)

Nein, 160 W, wie es da geschrieben steht. Typical TBP hat die Karte 225 W. Davon Lüfter, Speicherchips, Spannungswandlerverluste und sonstigen Kleinkram abgezogen und man kommt bei um die 160 W für den GPU-Chip raus, also die eigentlichte TDP. Navi 10 auf der RX 5700XT liegt auf einem vergleichbaren Niveau und bspw. für den TU106 auf der originalen RTX 2060 kommt man auf etwa 115 W.
 

Xaphyr

Software-Overclocker(in)
Sind die Dinger schon wieder nur ca. doppelt so schnell wie ne 2080ti?
Langweilig.....wieder kein technischer Fortschritt.

Vielleicht passen sie den Preis wenigstens so an, dass die 2080ti Ende diesen Jahres für 299€ und dann halt von mir aus die 3080ti für 599€ anbieten.
Alles andere wäre weltfremd.
Hm. Da haben wir wohl unterschiedliche Auffassungen für die Definition von "weltfremd ". :ugly:
 

warawarawiiu

Volt-Modder(in)
Mich macht es Traurig das du anscheinend an Schizophrenie leidest, immer nur motzen über die 2080ti und das sie so langsam ist, Monate später hat er es doch gekauft anscheinend du hast sie ja echt nicht mehr alle gehe zu deiner Ps4 die ja ej bessere Grafik bietet obwohl 10mal langsamer deine Worte. Nun erwartest du 2080TI Leistung für 299 und nennst alles darüber Weltfremd? Hörst du es? Bin echt kein freund von Smileys aber hier geht es nicht anders :lol: :stupid::stupid::stupid::stupid:

Wenn man für eine Konsole mit 12tf gpu inkl. Gehäuse, Eingabegerät, CPU, mainbord, ssd, Laufwerk, Betriebssystem etc am Ende 499€/599€ bezahlt - dann finde ich für eine EINZELNE GPU mit ca. der doppelten Leistung (24tf) die keine anderen Komponenten mitbringt einen Preis von ca. 599€ absolut angemessen.

Wir sind nicht mehr in 2019 in dem pc Hardware konkurrenzlos besseres Bild geliefert hat als Konsolen - da durfte man sich wegen des wesentlich höheren Mehrwerts sicher auch die dreisten Preise irgendwo schönreden bei Nvidia. Aber im Jahr 2020 muss man einfach mal mit einer dann neuen Generation vergleichen - sowohl gpu als auf Konsole.

Deine sonstigen Beleidigungen kannst du dir sparen.
 

PCGH_Torsten

Redaktion
Teammitglied
@Torsten:
Könntest du nochmal ein Bild mit Pfeilen posten, wo du die Nachbearbeitung vermutest?
Weiß jetzt nicht welches du meinst.

Ich bin sehr sicher bei dem rückseitigen Lüfter. Da sieht man deutlich, dass die der Bildmitte nähere Seite optisch gestaucht und die der bildmitte fernere optisch gestreckt ist. Bei einem normalen Objektiv ist das genau umgekehrt: Bereiche zum Rand hin, die in einem flacheren Winkel abgelichtet werden, müssten optisch gestauch sein. Also hat der rückseitige Lüfter entweder die Form eines Eis, was Rotation ziemlich schwierig macht, oder es handelt sich um eine eigentlich aus Gegenrichtung aufgenommenes Lüfter-Foto, das nachträglich auf das Bild des Kühlers/der Karte geschnitten. Da es kühlungstechnisch sowieso keinen Sinn ergibt (siehe vorangehende Posts) einen nach unten blasenden Lüfter zu verbauen, vermute ich, dass hier ein saugender Lüfter mit dem Bild eines blasenden verdeckt wurde.

Weitere, aber nur einen Pixel breite, Auffälligkeiten sehen einige Anwender an einigen Lamellen. Da bin ich aber unentschlossen &#8211; bei einem so matschigen Foto sind andere Ursachen denkbar, wenn auch unwahrscheinlich.


Next Leak, nackter Kühlkörper:

NVIDIA GeForce RTX 3080 heatsink leaked - VideoCardz.com

4 Heatpipes vom PCB rüber in den hinteren Part mit dem extra Lüfter. Klare Trennung erkennbar zwischen dem hinteren und vorderen Part. Mittlerer Part ist nur passiv gekühlt, blockt den vorderen vom hinteren Part ab.

Thorstens Buchsen Ausschnitt ist auch da ;)

Allerdings kein zweiter sichtbar, muss man wohl mit deiner 225W These mit gehen....

:-)
Ich mag kein GPU-Experte sein, aber mit Kühlung setze ich mich gelegentlich auseinander.


Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.

Für den GA104 wären 225 W maximale Board-Power ohne Übertaktung sehr realistisch. Aber "Leaker" haben halt von einem GA102 für die 3080 gesprochen und da wären unter 275 W unerwartet. Natürlich hindert nichts und niemanden Nvidia daran, das komplette Namensschema mal wieder auf den Kopf zu stellen.

Meine persönliche Vermutung, ist wie schon mehrfach geäußert, dass Nvidia die Leaker trollt um Lecks ausfindig zu machen: Dem einen erzählt man komische Speicherangaben (10 GB + 11 GB + 24 GB?), dem anderen falsche Chips ("Klar verbauen wir das größte Gaming-Silizium unterhalb der xx80 Ti"), dem nächsten um 20-30 W verschobene TDPs, etc.. Nichts davon ist für sich genommen komplett unglaubwürdig, aber logischerweise passt es am Ende nicht zusammen, weil es teilweise erlogen ist. Da aber jedem ein anderer Fehler untergeschoben wurde, kann man anhand der im Internet auftauchenden Lügen leicht ermitteln, wer Daten durchgestochen hat.


Was war ein meinem Post unverständlich und welchen Sinn sollte deiner haben? Die RTX 2080 FE hat um die 160 W TDP und die zuvor zitierte Zahl an Stromanschlüssen, das ist schlicht ein Fakt.
Igor vermisst GPUs sehr umfangreich und differenziert und wenn er für die Modelle öffentlich 320 - 350 W in den Raum stellt, wird er damit zweifelsfall nicht 1 ms-Peaks oder weniger meinen (die darüber hinaus in einem ganz anderen Bereich rangieren, denn bereits eine RTX 2080 Ti erreicht hier rd. 400 W und eine RX Vega 64 toppte das gar schon mit 420 W).

Wenn Igor misst, dann gründlich, aber bislang hat er nicht zugegeben, eine 3080 vermessen zu haben. Die Angaben aus seiner News sind TDP-Werte, die Nvidia an die Board-Partner weitergegeben hat. (Oder, siehe oben: Weitergegeben haben soll.) Also eine Anweisung an MSI & Co: "Stellt euch darauf ein, dass ihr 320-/350-W-Kühler braucht." Da steht aber nirgendwo bei, ob es exakt 320 W werden und auch nicht, unter welchem Betriebszustand. Mit Übertaktung? Oder fordert Nvidia auf diesem Wege Kühlreserven für leisere oder kältere Karten?
 

gerX7a

Software-Overclocker(in)
Jetzt verstehe ich was du meinst :)

Ist halt verwirrend, weil Dinge wie VRAM und SpaWa ja auch gekühlt werden müssen und in die TDP mit eingehen. Du meinst aber Chippower :)

Dazu habe ich jedoch keine Aussage getroffen.
Die ursprüngliche Aussage, auf die ich eingegangen bin, war die Vermutung, dass ein 3080er-Modell ggf. nur mit einem einzigen, zusätzlichen Stromanschluss auskommen könnte, also bspw. einem 8pin-Zusatzstecker (150 W) zzgl. der möglichen 75 W des PCIe-Slots.
Da für die GA102er-Modelle jedoch derzeit bereits minimal um die 300 W im Äther umherschwirren (selbst wenn man noch großzügig viel abziehen wollte, also bspw. nur noch effektiv 250 W annehmen würde), dann ist die Überlegung eines einzigen Steckers dennoch abwegig, denn bereits die RTX 2080 FE nutzt mit ihren "nur" 225 W 6pin+8pin+PCIe (ebenso übrigens auch die RX 5700XT und selbst die etwas genügsamere RX 5700). Ein einzelner Stromanschluss passt hier versorgungstechnisch einfach nicht, selbst dann nicht wenn es ein 8pin-Anschluss wäre.

[...]Wenn Igor misst, dann gründlich, aber bislang hat er nicht zugegeben, eine 3080 vermessen zu haben. Die Angaben aus seiner News sind TDP-Werte, die Nvidia an die Board-Partner weitergegeben hat. [...]

Nichts anderes habe ich behauptet und ebensowenig nicht, dass man die Watt-Werte nun punktgenau für bare Münze nehmen muss, insbesondere nicht für alle Kartenmodelle oder gar über alle zukünftig kommenden Custom-Modelle.
Aber als groben Richtpunkt zeigt sich nun einmal deutlich, dass die Werte signifikant höher liegen, als noch bei bei den RTX 2080 Ti-Modellen und selbst im Vergleich zu deren Custom-Modellen, die noch ein wenig mehr als nVidia's FE-Version aus dem TU102 "rauszuquetschen" versuchen.
 
Zuletzt bearbeitet:
Oben Unten