Geforce RTX 4000: Neue Werte zur RTX 4080 und RTX 4070, mögliche RTX 4080 Ti [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: Neue Werte zur RTX 4080 und RTX 4070, mögliche RTX 4080 Ti [Gerücht]

Die Gerüchteküche um die Geforce RTX 4000 justiert nun die Leistungsaufnahme zur Geforce RTX 4080 und RTX 4070 nach und bringt eine RTX 4080 Ti ins Spiel. Generell soll es aber langsam etwas ruhiger um die wilden Spekulationen werden, da die Board-Partner angeblich ihre Instruktionen bekommen haben,

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000: Neue Werte zur RTX 4080 und RTX 4070, mögliche RTX 4080 Ti [Gerücht]
 
"Über Twitter-Nutzer "KittyYukko" kommt allerdings noch ein weiteres Modell ins Gespräch, dass sich zwischen RTX 4080 und RTX 4090 positionieren soll. Das kann nach bisherigem Schema eigentlich nur eine RTX 4080 Ti sein. ... Da eine TI so früh ausgeschlossen scheint, wird eine Workstation-Version von Ada ins Gespräch gebracht."

Ja, was denn nun? Kann es nur eine 4080Ti sein? Oder scheint eine solche Karte ausgeschlossen?

Selbst die Gerüchte-Artikel werden immer sinnfreier ... :rollen:
 
Fast jeden Tag jetzt neue Gerüchte mit veränderten Specs.
Nividia muss sehr nervös sein und scheinbar nicht überzeugt von ihrem eigenen Kram.
Klar, NV rotiert gerade wie wild im Kreis und wirft jeden Tag die Specs um weil sie in ihrer Verzweiflung einfach nicht mehr weiter wissen.

Ooooder, es sind eben nur unzuverlässige Gerüchte bei denen sich immer mal jemand was Neues zusammen reimt.

Zum Thema: Die 320W für die 4080 klingen schon deutlich besser. Hoffentlich steigt dann auch der Verbrauch der 4090 nicht allzu sehr.
 
Oder sie hatten anfangs tatsächlich höhere Taktraten und Powerlimit, rudern aber anlässlich der Kritik in der Gerüchteküche und steigender Energiepreise zurück.

Genau Nvidia ist in der Zwickmühle, man bekommt nur noch Leistungssteigerungen durch mehr Verbrauch hin.
So aber wird Nvidia den Anschluss verlieren, denn AMD hat es mit RDNA geschafft die Architektur weiter in der Effizienz zu steigern.
 
Genau Nvidia ist in der Zwickmühle, man bekommt nur noch Leistungssteigerungen durch mehr Verbrauch hin.
So aber wird Nvidia den Anschluss verlieren, denn AMD hat es mit RDNA geschafft die Architektur weiter in der Effizienz zu steigern.
Erstmal muss AMD den Rückstand aufholen. Wenn alle Details genutzt werden. AMD muss dringend die RT Leistung in dieser Gen aufbohren. Was aber laut Gerüchten ja auch passiert.
 
Bei den neuen Specs gefällt mir das schon mal viel besser wenn es denn auch so kommen sollte. Kämpfe gerade mit mir ob ich nun warten soll auf die 4000er oder doch zuschlagen bei einer 3080 12 GB:gruebel:
 
Prima, dann ergibt auch der Abstand zur 4090 im TDP so langsam Sinn.

Was gibt die Gerüchteküche zu potenziellen Ankündigungsterminen zum Besten? Siggraph passt der Zuschauerkreis kaum, vielleicht wie bei Turing auf der Gamescon?
 
Kämpfe gerade mit mir ob ich nun warten soll auf die 4000er oder doch zuschlagen bei einer 3080 12 GB:gruebel:
Warte, warte, warte... der nächste Mining-Boom kommt bestimmt:D

Im Ernst, du kennst die Power/denPreis/die Verfügbarkeit der 3080 12GB. Was weißt du bis jetzt über Ada Lovelace? Wenn du jetzt Leistung brauchst, dann kaufe jetzt. Alles andere is Glaskugel rollern...

Gruß
 
Oha, 1:1 wie die 3080? Wenn dazu die spekulierte Leistungssteigerung auch so kommt, dann bin ich doch geneigt mir die 4080 zu holen. Undervoltet dann unter 300W, klingt gut. Aber erst mal abwarten was RDNA3 so leistet.

Da beide Hersteller jetzt im selben Prozess fertigen werden wir sehr ähnliche TDPs sehen, hatte ich hier ja bereits mehrfach spekuliert.
 
Hier schreiben schon wieder einige als wären die Daten in Stein gemeißelt?

Aufjedenfall wäre das aber deutlich schöner von der TDP her, wobei mich die Aussage von AMD da ein bisschen dran zweifeln lässt.
 
Zurück