Geforce RTX 4090 & RTX 4080: Neue technische Daten durchgesickert [Gerücht]

Alter Schwede, die Wattangaben sind ja mal ein desaster. Die ersten Bilder der Kühler sind auch schon geleakt, das ist einfach grotesk und in Zeiten wie diesen mit explodierenden Energiepreisen einfach nicht mehr zu rechtfertigen.

Meiner Meinung gehen die Produkte so am Markt vorbei. Hoffentlich setzt AMD moderater an, glaube ich aber kaum da man das Performancebattle mitmachen möchte.
Denke es gibt noch genug Leute, denen es völlig egal ist, wieviel Strom verbraten wird. Zum Beispiel in den USA. Und dort werden sie ja schließlich auch entwickelt.
 
Denke es gibt noch genug Leute, denen es völlig egal ist, wieviel Strom verbraten wird. Zum Beispiel in den USA. Und dort werden sie ja schließlich auch entwickelt.
Die Strompreise sind am Ende nicht das Entscheidende, sondern das die Verbraucher derzeit nicht gewillt sind hohe Summen für Consumerelektronik zu bezahlen, eben vor allem wegen der hohen Inflation. Der Teil der davon völlig ausgenommen ist reicht bei weitem nicht um die Umsatzvorstellung von BigTech zu befriedigen.
 
Die Strompreise sind am Ende nicht das Entscheidende, sondern das die Verbraucher derzeit nicht gewillt sind hohe Summen für Consumerelektronik zu bezahlen, eben vor allem wegen der hohen Inflation. Der Teil der davon völlig ausgenommen ist reicht bei weitem nicht um die Umsatzvorstellung von BigTech zu befriedigen.
Abwarten. Viele haben deutlich über 2 K für eine 3090 bezahlt. 2.5 K für eine 4090 kratzen die überhaupt nicht. Mich übrigens auch nicht. Bei 10% Inflation verliere ich im Jahr mehr Geld als jede 4090 kosten kann.
Wo wurde denn gesagt dass eine 3080 kaum langsamer als eine 3090 wäre? Allein die Shader Zahl (8704 vs 10496) ist doch eindeutig.
Seinerzeit im Gamestar Forum wurde jeder für bekloppt erklärt, der sich eine 3090 für 1900 Euro gekauft. Da glaubten alle noch die 3080, würde man immer für 699 Euro kaufen können. Darüber hätte man ja diskutieren können, wenn es denn so gekommen wäre.

Und welche Games laufen ins Speicherlimit? Und wann? Auf 4K mit allen Details, RT und Texture Pack?

Geht es weiterhin um die nicht mal handvoll bereits bekannten oder hast Du mehr Beispiele?
FC6, massiv gemoddetes Skyrim, COD Warzone, Godfall?

Wobei FC6 und Godfall AMD sponsored sind und künstlich erhöhten VRAM Bedarf haben. COD Warzone hat offenbar mieses Speichermanagement und ein Skyrim mit drölfzig Mods ist ja wohl kein allgemeingültiges Beispiel.
Ist alles richtig, dennoch fühle ich mich mit den 24 GB meiner 3090 deutlich besser aufgehoben als mit den 12 meiner 3080TI. Darum wird die jetzt auch verkauft und eine 4090 angeschafft.

Ich bin mir ziemlich sicher, das die 10 GB der 3080 immer häufiger knapp werden, zumindest wenn man in 4 K zocken will.
 
Zuletzt bearbeitet von einem Moderator:
Ich bin mir ziemlich sicher, das die 10 GB der 3080 immer häufiger knapp werden, zumindest wenn man in 4 K zocken will.
Auf jeden Fall! Aber für 4K reicht die Rohleistung der Karte sowieso nicht aus wenn man alle Regler nach rechts schiebt. Und sollte man dann DLSS nutzen für mehr FPS sinkt auch wieder der VRAM Bedarf.
 
Auf jeden Fall! Aber für 4K reicht die Rohleistung der Karte sowieso nicht aus wenn man alle Regler nach rechts schiebt. Und sollte man dann DLSS nutzen für mehr FPS sinkt auch wieder der VRAM Bedarf.
Ja, aber für WQHD würde ich mir keine neue Karte kaufen. Da ist jede 3080ti oder 3090 schon overdosed.
 
jo sehe ich genauso, zahle lieber für mehr Leistung als für mehr Ram, wenn man nicht in 4K spielt sicher sinnvoller. Denke mit 12 ist man in WQHD noch ne Weile gut dabei.
Kommt wohl auf den Nutzungszeitraum an.. bis zur nächsten Gen. wirds wohl noch hinkommen.
bis dato füllt sich meine 1080Ti ja erst bis 10-11GiB in WQHD und fast vollen Details.

Ich zahle lieber für ein gesamt-stimmiges-Paket aus Ansprüchen und Leistung, passend zur Nutzungsdauer. Die natürlich so lange wie möglich ist bei mir.
 
Weil der Inputlag bei 300fps geringer als bei 165fps ist.
Deswegen bringt es dir was.
Ob du das per Auge mitbekommst wage ich mal zu bezweifeln. Der einzige der das merkt ist das Tool, was dir die Werte anzeigt.
Ob man dafür nun seine GPU ohne Limit laufen lässt, höheren Stromverbrauch und größere Abwärme für dieses Argument in Kauf nimmt, muss jeder selbst entscheiden.

Würde ich persönlich nie tun.
 
Was hat die Wahrnehmung des Auges mit dem Inputlag zu tun?
Deine Aktionen und Reaktionen werden schneller verarbeitet als mit 60fps.
Liegt halt an der Spieleengine.
 
Die Refreshrate hat recht wenig mit den fps zutun
Die fps lassen lediglich spiele schneller berechnen was im Endeffekt ein schärferes Bild ergibt.
Das aber bedingt das die game engine an der schnelleren Reaktion von eingaben die Ablaufgeschwindigkeit nicht beschleunigt.
Das geht in der Regel aber manche spiele sind darauf nicht ausgelegt quasi an einen bestimmte fps Bereich gebunden, darüber bricht das Konzept und es kommen clipping Fehler oder auch timing Fehler bei hitboxen.
Darum ist es ratsam bei solchen games eine maximal fps einzustellen.
Ideal sind z.B. Monitore mit 144 240hz und vrr über Displayport.
Das bedingt aber das man unempfindlich ist gegenüber schwankende Darstellung
Das kann mal scharfe Bilder geben oder auch verschwommene.
Darum machen bei spielen die min fps einzustellen am meisten Sinn, bei dieser art von Monitoren.
Hat man dagegen eine fixe hz ist es herzlich egal und es kommt primär darauf an wie die game engine auf eingaben zu frames reagiert.
Die meisten sind auf folgende fps hin designet, 60fps 30fps
Letztere macht oft Probleme wenn man nicht gewillt ist die schwammige Steuerung und oder Unschärfe hinzunehmen.
Darum macht es Sinn das Ports auch an die 60hz angepasst werden in meinen fall sind es 75hz und glaubt mir die sind schärfer als 60hz
Das beste Bild hat in meinen Augen ein 144hz panel aber auch die Probleme damit
Den je mehr fps das Auge sieht und flüssiger die Bewegungen sind desto höher die gpu Anforderung min die Hälfte an diesen hz als flüssig war zunehmen

Darum ist mein Rat an alle, maximal ein monitor mit 75 und 100hz solange eine einsteigerklasse gpu genutzt wird in der Regel sind das die nvidia 60er sku.
Ausgenommen man nutzt vrr dann erübrigt sich das, aber man muss die spiele auf ein min fps begrenzen sonst wird einen übel
Den Effekt kann man am ehesten mit vr Brillen vergleichen. Da sind auch konstante fps a und o.

ja es Stimmt das mehr fps bessere Reaktionen bringen aber primär liegt das an der game engine und wie gut diese antwortet.
Das beste Ergebnis ist aber ein monitor mit etwa 144hz.
Das schlägt jeden 60hz panel wo die spiele mehr als 60fps dargestellt wird. Das liegt auch daran das die eingaben auch dem Bild was noch kommt schneller dargestellt wird.
Also was man fühlt sieht man dann auch. aber wie gesagt die Nachteile sind das man sehr empfindlich bei zu geringen fps wird.
Und da kommt die Wirtschaftlichkeit ins spiel
Wenn ich fürn 144hz Bildschirm ne gpu brauche die a mehr Strom zieht also ab 250w und zudem das doppelte kostet alle 2 bis 4 Jahre und b ich muss in manchen games Kompromisse machen. Ist das ein problem.
Den spiele werden Primär für die Konsolen entwickelt. und die haben folgende ziele.
Derzeit 1080p 60hz, 30hz
Bei pc ports manchmal 1440p 30hz
Also bringen mir mehr als 60hz bei den meisten spielen nix außer ein schärferes Bild was ich persönlich bevorzuge.
Zudem sind offene fps ein guter benchmark

Zum Thema vsync das ist leider Tatsache das wenn vsync zum Einsatz kommt eine Verzögerung dadurch entsteht das man Bilder Vorberechnet meist zwischen 1-3 und da ist es verheerend wenn 30hz was 100ms sind das merkt man und bei 60hz etwa 50ms
Das aber ist monitor abhängig hat man nen 60hz panel und dieser eine Reaktionszeit von 8-20ms pro frame sind das nach 3 frames was bei vsync die Regel sind zwischen 30-60ms
Darauf kommt die Eingabeverzögerung was oft zwischen 20-40ms sind und zum Schluss die Reaktion drauf was wieder 60ms sind = min 110ms max 160ms
Ohne Erstmal die eigene Reaktionszeit einzurechnen was oft zwischen 100-300ms sind.
Man wartet bei vsync quasi ne halbe Sekunde im schlimmsten fall. Egal bei adventures, kritisch bei allen was schnelle Reaktion braucht.
Und genau das ist bei mir die Regel. Darum macht vsync am wenigsten Sinn dagegen kann man fps limitieren was die 3 frames zu beginn eliminiert.
Man gewinnt zwischen 30-60ms an zeit, das kann ein unterschied machen. Auch wenn das spiel auf bspw 75fps limitiert wird.
Competitive würde ich erst gar nicht unter 144hz an fps und Monitor antreten.
Außer alle haben dieselben Bedingungen. Und genau das kann man nicht annehmen.
 
@Prozessorarchitektur Ich finde deine Texte immer immens ausführlich und du scheinst viel Fachwissen zu besitzen.
Aber sag mal, ist dir das nicht manchmal zu öde, immer solchen langen texte zu schreiben? Du schreibst immer soviel Text, leitest hier und da was her - du solltest Buchautor werden. :-P
 
Ja er schreibt sehr viel und meistens ist die Hälfte, oder mehr, davon Blödsinn oder falsch.
Jedes Mal seine Märchenstunde einzeln zu beantworten, ist sehr mühselig.
 
Das stimmt nicht. Die Riva TNT war der erste 3D Beschleuniger von Nvidia und dafür wurde der Rivatuner entwickelt.
Besten Dank für den (entspannten) Hinweis (mit dem Zaunpfahl :p)
Da hat mich meiner Erinnerung in die Irre geführt.
War mir so exakt im Detail nicht mehr erinnerlich ( (c) Scholz).
das wusste ich gar nicht
Ich auch nicht mehr: Die Korrektur bitte aus dem Post von RaPid entnehmen.

Wie ist das passiert? Beim Undervolten und/oder Übertakten?
Undervolten?
Damals?
Never ever.

Die 1800XT beim ersten Übertaktungsversuch
(Ich sag mal frech +1 MHz)

Die 850XT einfach so, wie Frauen, die wollte einfach nicht mehr.

Ist alles Jahrzehnte her, exakte Details weiß ich nicht mehr.
Ausser, dass sie noch ATI waren.

Seit dem ausschliesslich NV gehabt, und die konnte ich alle schon
ziemlich misshandeln, durchgehalten bis zum regulären Austausch
haben sie alle.
 
Zuletzt bearbeitet:
Besten Dank für den (entspannten) Hinweis (mit dem Zaunpfahl :p)
Da hat mich meiner Erinnerung in die Irre geführt.
War mir so exakt im Detail nicht mehr erinnerlich ( (c) Scholz).

Kein Thema, mein erster 3D Beschleuniger war tatsächlich eine Riva TNT Karte, und ich hatte damals (das war zu Win98 Zeiten :ugly:) den Rivatuner im Einsatz. Deswegen war ich etwas verwundert über Deine Aussage und musste das direkt mal googlen.
 
Zurück