Geforce RTX 4080: Aktualisierte Daten der Spekulanten [Gerücht]

RAZORLIGHT

Freizeitschrauber(in)
Krass, schon wieder vergessen, dass die 1080ti "gerade mal" 250W nuckeln durfte (als offizielle Spec) während meine derzeitige 2070 Super sich schon 215W genehmigen darf (undervoltet ~45-55W weniger, bei gleicher Leistung).
Und mit der nächsten Gen wird das noch verrückter...

Da die ganzen Geier jetzt auf ihren 2 Jahre alten Ampere Karten sitzen, wird sich der Launch der attraktiven Karten, sprich 4080/4070 etc. noch rauszögern.
Mal sehen ob AMD früher veröffentlichen.
Wenn eine 4070 die Leistung einer 3090 hat, dann ist es für mich keine Mittelklasse mehr. 800€ wäre sogar angemessen für die Karte, sollte die Leistung abgeliefert werden...aber kaufen würde ich sie für den Preis nicht.
Ich will maximal 600€ für die Karte sehen, auch wenn dadurch meine 3090 einen extremen Preisverfall bekommt.
Absolut falscher Gedankengang.
Nur weil die 4070, 3090 Leistung (nach 2 Jahren!)hat, bedeutet das nicht, dass man dafür auch ordentlich verlangen kann.
Wäre das schon immer so gewesen, hätten wir jetzt Preise die sich lediglich die reichen 1% leisten könnten.
Mehr Leistung für weniger Geld ist der technische Fortschritt, der diese Unternehmen am Leben erhält, sonst würden sie nicht mit jeder Generation massenhaft Geld verdienen.
 

Firestar81

Freizeitschrauber(in)
wenn eine 4070(Ti) einer 3090 in nichts ausser dem Speicher nachstehen soll, die 3090 aber sehr teuer ist, bekommt man eine Vorahnung wo die UVPs hingehen

die ehemalige Mittelklasse 4070(Ti) wird dann ne UVP von um die 800-1000 € haben, 4080(Ti) bei 1200-1400€, und die Flagschiffe 4090(Ti) bei 2000+ €
Hat ja Prima geklappt bei der 3090Ti mit der Preisklasse über 2000€😂

Jetzt 3 Monate später von 2400€ auf 1400€

Bei dem Preisverfall kann man getrost warten bei der 4090.
 

FormatC

igor'sLAB
Ich leake ja auch ganz gern mal, aber....

Hat schon mal jemand überlegt, wie ein Querverleich der Informationswege und -Inhalte erfolgt? NV ist cleverer als man denkt. Kimi sitzt mit den Infos nah am R&D and noch vor den FAE. Allerdings geben auch nur letztere die finalen Daten an die Boardpartner. Diese wiederum arbeiten aber meist mit anderen Specs. Ich halte mich aus diesem Spiel aktuell raus, weil nichts wirklich bestätigt ist.
 

Pu244

Lötkolbengott/-göttin
3000-er ist für mich nicht mehr interessant. Ich möchte 4090-er und hoffe auf doppelte Leistung im Vergleich zu 2080TI.

Das sollte schon die RTX 4080 hinbekommen, zumindest wenn man von der RTX 2080Ti die non OC Modelle nimmt. Bei der 4090 würde ich auf das dreifache hoffen.

Diese ganzen Gerüchte sind einfach Werbung die werden bewusst an diesen Kimi von Nvidia weitergegeben der diese im Abstand von ein paar Tagen veröffentlicht. Um einen Hype zu generieren muss man das heutzutage so machen.

Unwahrscheinlich

Die werden Kimi, bzw. seiner Quelle, den Hals umdrehen wollen. Wenn man sowas als Unternehmen nach außen gibt, dann sehr unkonkret ("ja, unsere Produkte sind der absolute Hammer und viel, viel schneller als der Vorgänger, warten lohnt sich"), damit die Konkurrenz möglichst nichts damit anfangen kann.
 

AyC

Freizeitschrauber(in)
Damit bietet Nvidia bei der RTX4000 Reihe leider kein passendes Produkt für mich.

Aber nüchtern betrachten werden die Produkte doch deutlich besser als die 3000er Reihe in allen Bereichen werden.

Vergleich 3070 vs 4070:
-12GB anstelle 8GB
- 3090ti Leistung anstelle 3070 Leistung
- 300 Watt anstelle 400 Watt+ (3090ti Leistung)
- kann man sicherlich auch mit wenig Performance Verlust bei 220-250 Watt laufen lassen

-> Wenn die 4070 12GB bekommt, dann wäre sie für mich ziemlich interessant. Meine 1070 verbraucht 150 Watt, leistet aber auch deutlich weniger als eine 3090ti.
 

Blackout27

Volt-Modder(in)
Aber nüchtern betrachten werden die Produkte doch deutlich besser als die 3000er Reihe in allen Bereichen werden.

Vergleich 3070 vs 4070:
-12GB anstelle 8GB
- 3090ti Leistung anstelle 3070 Leistung
- 300 Watt anstelle 400 Watt+ (3090ti Leistung)
- kann man sicherlich auch mit wenig Performance Verlust bei 220-250 Watt laufen lassen

-> Wenn die 4070 12GB bekommt, dann wäre sie für mich ziemlich interessant. Meine 1070 verbraucht 150 Watt, leistet aber auch deutlich weniger als eine 3090ti.

Da magst du Recht haben aber 12GB empfinde ich für die Leistung als "zu wenig".
Die Karte kann man dann getrost in 4K betreiben wo ihr 16GB deutlich besser stehen würden. Nicht das die 12GB nicht reichen aber im Blick auf die Zukunft hätte ich mir das gewünscht.

Eine RTX4070 mit 16GB auf RTX3080ti-RTX3090ti Niveau wäre für mich ein No Brainer. Untervoltet bekommt man sie sicher auf unter 250 Watt ohne groß an Leistung zu verlieren.

Schon alleine fürs Streaming würde ich auch wieder eine Nvidia Karte holen.

Aber wie gesagt, warten wir es ab :)
 

shaboo

Software-Overclocker(in)
Da magst du Recht haben aber 12GB empfinde ich für die Leistung als "zu wenig".
Die Karte kann man dann getrost in 4K betreiben wo ihr 16GB deutlich besser stehen würden. Nicht das die 12GB nicht reichen aber im Blick auf die Zukunft hätte ich mir das gewünscht.
Nvidia will halt, dass du gefälligst eine 4080 oder 4090 kaufst, wenn du 4k mit allem Drum und Dran haben möchtest. Irgendwoher müssen ja am Ende auch die Argumente für die Käufer deutlich teurerer Karten (4080, 4090 und vielleicht sogar noch einer Titan) kommen, und da wird's halt irgendwann verdammt eng, wenn schon eine 4070 die Leistung einer 3090 und 16 GB Speicher bietet.
 

Blackout27

Volt-Modder(in)
Nvidia will halt, dass du gefälligst eine 4080 oder 4090 kaufst, wenn du 4k mit allem Drum und Dran haben möchtest. Irgendwoher müssen ja am Ende auch die Argumente für die Käufer deutlich teurerer Karten (4080, 4090 und vielleicht sogar noch einer Titan) kommen, und da wird's halt irgendwann verdammt eng, wenn schon eine 4070 die Leistung einer 3090 und 16 GB Speicher bietet.

Naja ich schaue jetzt was mir eine RX7800 bieten kann. Mal sehen was uns erwartet.

Wenn man bedenkt das eine GTX1070 damals genau wie ihre große Schwester / Bruder 1080 auch 8GB spendiert bekommen hat bei toller Last Gen Titan Leistung. Schade das die 70er Karten nicht mehr dieses Rundumpaket spendiert bekommen :(
 

KasenShlogga

Freizeitschrauber(in)
Naja ich schaue jetzt was mir eine RX7800 bieten kann. Mal sehen was uns erwartet.

Wenn man bedenkt das eine GTX1070 damals genau wie ihre große Schwester / Bruder 1080 auch 8GB spendiert bekommen hat bei toller Last Gen Titan Leistung. Schade das die 70er Karten nicht mehr dieses Rundumpaket spendiert bekommen :(
Mich interessiert jetzt auch wie AMD darauf reagiert und das sage ich als Nvidia-Nutzer. Meine jetzige 4070 hatte ich mir aus einer Not heraus 200€ über UVP geholt und soetwas werde ich nie wieder tun. Spätestens seit letztem Jahr ist Nvidia bei mir unten durch, so sehr wie die ursprüngliche Kernzielgruppe (Gamer) im Consumersegment zugunsten von Mining beschissen wird. Glaube auch nicht, dass Nvidia nach Ray-Tracing noch irgendwelche neuen Gamingspezifischen Features bringt. Die werden sich jetzt weiter aufs Kerngeschäft Mining und Machine Learning konzentrieren.

AMD ist mir allein schon deswegen sympatischer weil deren Software einen nicht zum Einloggen zwingt um alle Features zu benutzen zu können (siehe Geforce Experience). Und mit der VRAM-Bestückung sind die generell auch großzügiger. Wenn in Sachen Ray-Tracing große Fortschritte gemacht wurden, könnte ich mir vorstellen dieses mal zu AMD zu greifen. FSR2.0 ist mir dann auch gut genug, auch wenn es (noch) nicht mit DLSS mithalten kann.
 

DaHell63

Volt-Modder(in)
Meine jetzige 4070 hatte ich mir aus einer Not heraus 200€ über UVP geholt und soetwas werde ich nie wieder tun. AMD ist mir allein schon deswegen sympatischer weil deren Software einen nicht zum Einloggen zwingt um alle Features zu benutzen zu können (siehe Geforce Experience). Und mit der VRAM-Bestückung sind die generell auch großzügiger.

Hat Dich doch keiner gezwungen Nvidia zu kaufen. Wenn Dir Nvidia zuwider und AMD offensichtlich sympatischer ist, hätte AMD doch sicher das passende Gegenstück zum erwerben gehabt.
 

belle

PCGH-Community-Veteran(in)
Wenn man bedenkt das eine GTX1070 damals genau wie ihre große Schwester / Bruder 1080 auch 8GB spendiert bekommen hat bei toller Last Gen Titan Leistung.
Sicherlich versucht Nvidia eher als AMD den VRAM an den Kosten auszurichten und schon zugunsten der nächsten Generation möglichst ausreichend, aber nicht allzu großzügig zu dimensionieren. AMD muss noch immer Marktanteile erobern.
Durch die Breite des Speicherbus, unterschiedlichem RAM-Takt und weil die GTX 1060 6 GiB 192 Bit gegenüber der GTX 960 4 GiB 128 Bit hier zulegen musste, hatte die 1070 mit ihrer GP104-GPU eine relativ gute Basis als Abgrenzung zur Mittelklasse. AMDs Konkurrenz war schwierig, aber gegen Polaris musste man sich in der Mittelklasse besser positionieren, somit rutschten GTX 1060 und 1070 nach oben.

Durch die steigenden Kosten, Gewinnoptimierung und weil die Käufer für mehr Leistung auch oft mehr zahlen, steigt aktuell wieder die Differenzierung mittels größerer Modellunterschiede.
Das sieht man an den 20er Super und den 30er Ti Modellen.
Hier kommt noch hinzu, dass Fertigungsverfahren unterschiedliche Kosten verursachen und die Chip-Ausbeute nicht in jeder Fertigung jeder Generation gleich ist (man erinnere sich an Intels Schwierigkeiten der letzten Jahre). Produktionskosten und Yield-Rate haben einen hohen Anteil an der Chip-Vielfalt.

Ein gutes Beispiel ist hier der Ausreißer RTX 3060: Mit weniger Speicher hätte die Speicheranbindung und somit die Speicherbandbreite gelitten, da beim GA106 wieder nur 192 Bit zu Verfügung stehen. Schnelleren Speicher, beispielsweise 10 GiB an 160 Bit bei höherem Takt benötigt auch eine entsprechende Signalqualität des PCB (des Boards), was wiederum teurer werden würde. Da 6 GiB endgültig für die Massen-Klasse zu knapp gewesen wären, entstand die 3060 12 GiB. Die hat zwar nur unwesentlich mehr Leistung als eine RTX 2060 12 GiB, aber die Unterschiede von aktuellen Nvidia-Karten zu Turing und Pascal werden durch Nvidias Schwächen bzw. geringem Nutzen von hardwarenahen Schnittstellen wie DX12 und Vulkan mit der Zeit größer werden. In manchen Titeln wie FC6 und RDR2 ist die Performance fast gleich, in Dying Light 2 sieht man schon jetzt Unterschiede zwischen 2060 12 GiB und 3060.
Mich interessiert jetzt auch wie AMD darauf reagiert und das sage ich als Nvidia-Nutzer. Spätestens seit letztem Jahr ist Nvidia bei mir unten durch, so sehr wie die ursprüngliche Kernzielgruppe (Gamer) im Consumersegment zugunsten von Mining beschissen wird.
AMD ist mir allein schon deswegen sympatischer weil deren Software einen nicht zum Einloggen zwingt um alle Features zu benutzen zu können (siehe Geforce Experience). Und mit der VRAM-Bestückung sind die generell auch großzügiger.
Ich wollte eigentlich aus ähnlichen Gründen bei AMD bleiben (GTX 1070 und RX 480), letzten Endes gingen aber auch viele Radeon an die Miner. Die RX 6700 XT kostete Mondpreise, wenn man die Raytracing-Leistung in die Gesamtperformance einbezieht und im AMD-Shop hatte nicht jeder Glück. Die ersten Tage nach Release gab es die RX 6600 XT zur UVP, da hätte ich allerdings trotzdem 400€ für eine 8 GiB Karte bezahlt, die bei mir nur mit PCIe 3.0 8x läuft. Ich liebäugelte außerdem schon länger mit einem 1440p Monitor, da hätten es schon 48 statt 32 MiB Infinity-Cache sein können. Da finde ich den Unterschied zu den größeren Modellen etwas zu krass (32 MiB auf 96 / 128 MiB).
 
Zuletzt bearbeitet:

Thunderburne

Komplett-PC-Aufrüster(in)
Hat ja Prima geklappt bei der 3090Ti mit der Preisklasse über 2000€😂

Jetzt 3 Monate später von 2400€ auf 1400€

Bei dem Preisverfall kann man getrost warten bei der 4090.
Na da wäre ich mir jetzt nicht mehr so sicher nach dem was gerade in Taiwan los ist !

Das kann noch richtig in die Hose gehen aktuell ist die Insel umstellt wer weis ob da jetzt noch Ware raus gehen wird in nächster Zeit !
Wen da nix kommt könnte die 3000ner Serie sogar wieder teurer werden !
Es könnte noch soweit gehen das wir keine neuen Karten mehr sehen werden so schnell .
 
Zuletzt bearbeitet:

facehugger

Trockeneisprofi (m/w)
Meine 1080Ti zieht undervoltet bei ca. 1900Mhz Takt so ca. 200W, nie mehr eigentlich, meistens sogar etwas weniger, je nach Spiel und Grafik Settings.
Man sollte prinzipiell jede Karte erstmal undervolten mMn.
Richtig, die 320W meiner RTX3080 waren mir auch zuviel des Guten. Mit UV samt eigener Lüfterkurve sind es "nur" noch 250/260W (je nach Game/Auslastung) und damit kann ich leben.

Ist gar nicht so weit weg von meiner alten GTX 1080, bei wesentlich mehr Power. So ähnlich wird es wohl bei Nvidia's Ada auch laufen...

Gruß
 

seahawk

Lötkolbengott/-göttin
Sicherlich versucht Nvidia eher als AMD den VRAM an den Kosten auszurichten und schon zugunsten der nächsten Generation möglichst ausreichend, aber nicht allzu großzügig zu dimensionieren. AMD muss noch immer Marktanteile erobern.
Durch die Breite des Speicherbus, unterschiedlichem RAM-Takt und weil die GTX 1060 6 GiB 192 Bit gegenüber der GTX 960 4 GiB 128 Bit hier zulegen musste, hatte die 1070 mit ihrer GP104-GPU eine relativ gute Basis als Abgrenzung zur Mittelklasse. AMDs Konkurrenz war schwierig, aber gegen Polaris musste man sich in der Mittelklasse besser positionieren, somit rutschten GTX 1060 und 1070 nach oben.

Durch die steigenden Kosten, Gewinnoptimierung und weil die Käufer für mehr Leistung auch oft mehr zahlen, steigt aktuell wieder die Differenzierung mittels größerer Modellunterschiede.
Das sieht man an den 20er Super und den 30er Ti Modellen.
Hier kommt noch hinzu, dass Fertigungsverfahren unterschiedliche Kosten verursachen und die Chip-Ausbeute nicht in jeder Fertigung jeder Generation gleich ist (man erinnere sich an Intels Schwierigkeiten der letzten Jahre). Produktionskosten und Yield-Rate haben einen hohen Anteil an der Chip-Vielfalt.

Ein gutes Beispiel ist hier der Ausreißer RTX 3060: Mit weniger Speicher hätte die Speicheranbindung und somit die Speicherbandbreite gelitten, da beim GA106 wieder nur 192 Bit zu Verfügung stehen. Schnelleren Speicher, beispielsweise 10 GiB an 160 Bit bei höherem Takt benötigt auch eine entsprechende Signalqualität des PCB (des Boards), was wiederum teurer werden würde. Da 6 GiB endgültig für die Massen-Klasse zu knapp gewesen wären, entstand die 3060 12 GiB. Die hat zwar nur unwesentlich mehr Leistung als eine RTX 2060 12 GiB, aber die Unterschiede von aktuellen Nvidia-Karten zu Turing und Pascal werden durch Nvidias Schwächen bzw. geringem Nutzen von hardwarenahen Schnittstellen wie DX12 und Vulkan mit der Zeit größer werden. In manchen Titeln wie FC6 und RDR2 ist die Performance fast gleich, in Dying Light 2 sieht man schon jetzt Unterschiede zwischen 2060 12 GiB und 3060.

Ich wollte eigentlich aus ähnlichen Gründen bei AMD bleiben (GTX 1070 und RX 480), letzten Endes gingen aber auch viele Radeon an die Miner. Die RX 6700 XT kostete Mondpreise, wenn man die Raytracing-Leistung in die Gesamtperformance einbezieht und im AMD-Shop hatte nicht jeder Glück. Die ersten Tage nach Release gab es die RX 6600 XT zur UVP, da hätte ich allerdings trotzdem 400€ für eine 8 GiB Karte bezahlt, die bei mir nur mit PCIe 3.0 8x läuft. Ich liebäugelte außerdem schon länger mit einem 1440p Monitor, da hätten es schon 48 statt 32 MiB Infinity-Cache sein können. Da finde ich den Unterschied zu den größeren Modellen etwas zu krass (32 MiB auf 96 / 128 MiB).
Die Speichermenge ergibt sich bei beiden in der Regel ganz einfach, sofern die nicht zu Marketingzwecken erhöht wird, aus der für die angestrebte Leistung notwendigen Bandbreite und der minimal notwendigen Speichermenge für die jeweilige Leistungsklasse. NV wirkt nur knausriger weil man durch breitere Speicher-Interfaces feiner skalieren kann.
 

facehugger

Trockeneisprofi (m/w)
Wenn das auch in "extremeren" Bereichen nach unten gut funktioniert (keine Ahnung gefühlte 700 Millivolt in die GPU schieben und trotzdem bei 70 - 80% Takt betreiben....) und man damit eine große GPU in Verbrauchsbereiche unter 300W drücken kann muss ich mich schon hart zurückhalten um das nicht mit ner 4090 zu tun und damit dann wieder 4-5 Jahre das Thema Grafikkarte tauschen vergessen zu können.
Von deiner 2080 lohnt sich der Wechsel ja schon mal auf jeden Fall:DUnd mit bissi Glück wirst du deine 300W auch erreichen, bei wesentlich mehr Leistung/VRAM.

Wenn man kann (und nicht gewissen Versuchungen erliegt) lohnt es sich vor allem bei den Graka's mal 1 oder 2 Gen's auszulassen. Seit 2006 mache ich das so und bin damit immer gut gefahren.

Vorausgesetzt natürlich, man hechelt nicht dem allerletzten Frame hinterher oder/und brauch 4K(+) samt 144Hz@ultra;-)

Gruß
 

Incredible Alk

Moderator
Teammitglied
Wenn man kann (und nicht gewissen Versuchungen erliegt) lohnt es sich vor allem bei den Graka's mal 1 oder 2 Gen's auszulassen.
Ich machs ja normalerweise nicht aber die RTX3000er Serie hat mich generell nicht überzeugt (mehrleistung hauptsächlich durch Mehrverbrauch) und war wegen der ganzen bekannten Geschichten ja auch viel zu teuer - persönlich ist sie das noch immer für das gebotene.
Da ists recht einfach gewesen mal ne Runde auszusetzen^^
 

facehugger

Trockeneisprofi (m/w)
Ich machs ja normalerweise nicht aber die RTX3000er Serie hat mich generell nicht überzeugt (mehrleistung hauptsächlich durch Mehrverbrauch) und war wegen der ganzen bekannten Geschichten ja auch viel zu teuer - persönlich ist sie das noch immer für das gebotene.
Da ists recht einfach gewesen mal ne Runde auszusetzen^^
Ha, mich hat eben die 2000er nicht zum Kauf bewegen können. Aus ganz ähnlichen Gründen und so schwachbrüstig war Pascal ja nicht. Zudem recht effizient für die gebotene Leistung und mit 8GB RAM (1070/1080) damals gut bestückt.

Blieb noch Raytracing, aber Kinderschuhe ziehe ich schon lange nicht mehr an:D

Gruß
 

belle

PCGH-Community-Veteran(in)
Ich machs ja normalerweise nicht aber die RTX3000er Serie hat mich generell nicht überzeugt (mehrleistung hauptsächlich durch Mehrverbrauch) und war wegen der ganzen bekannten Geschichten ja auch viel zu teuer
Mich hat auch aus diesen Gründen eher Turing nicht wirklich überzeugt: RTX 2060 6 GiB war relativ schwach und die Super kostete dann schon damals ca. 400€ UVP. Da hätte ich mir eher eine RX 5700 für 285€ im Angebot geholt.
Bei Ampere finde ich nach wie vor 3060 / Ti relativ rund, wenn der Preis stimmt. Darüber hatte die 3070 zu wenig VRAM für den Preis und die 3080 12 GiB hätte gleich so erscheinen sollen.
NV wirkt nur knausriger weil man durch breitere Speicher-Interfaces feiner skalieren kann.
Mir ist gerade AMD mit breiten Speicherinterfaces und voller Bestückung in Erinnerung geblieben (Hawaii / Grenada, Tahiti), aber irgendwie musste man ja punkten.
War nicht die 1070 die mit der geringsten Bandbreite pro TFlop Rechenleistung ihrer Generation? Naja, für die Konkurrenz ihrer Klasse hat es nach Verkaufszahlen ja gereicht.

Eine theoretische RTX 3060 mit 8 GiB GDDR6X VRAM an 128 Bit ist wohl erstens an der Speicherverfügbarkeit gescheitert und zweitens hätte das die Signalqualität des PCB nicht hergegeben. Selbst auf den RTX 3060 Ti / 3070 verbaut Nvidia nur RAM mit 14 Gbps, was die 3060 wieder minimal herausragen lässt.

Lange Rede, langer Sinn: Preise, Chip-Konfigurationen und Verfügbarkeiten führen manchmal zu Kuriositäten wie der RTX 3060. Im derzeitigen Preisgefüge ist die RX 6600 für den Normalnutzer aber interessanter geworden, darüber würde ich eher direkt zur 6700 XT oder 3060 (Ti) schielen.
 
Zuletzt bearbeitet:
Oben Unten