Geforce RTX 4080: 100 Watt mehr TGP als Vorgänger?

Das meine ich auch, an den Kosten soll es wohl nicht liegen. Aber man hat ja irgendwie ein Gefühl dazu, was einem selbst ein Verbrauch Wert ist. Ob Fernseher, PC, Kühlschrank, oder was auch immer.

Mein Maximum waren damals bei 290X mit OC und 3820@5,1GHz rund 470W... Danach ging es wieder auf die üblichen knapp 300W, mal mehr, mal weniger. Deswegen käme mir auch RTX3000 nur mit starkem UV ins Haus. Genauso aber auch RX6000 und so wie es aussieht auch deren Nachfolger.

Die Aussage im Artikel ist bezogen auf die RTX3090. Dazu ist die RTX3090Ti laut PCGH 7% schneller, als die 3090.
WOW haut mich aus den Socken.

Welche Ausrede du auch immer vermutest, lies doch einfach die Tests. Da steht das was ich sage.

Aber "viel" ist immer relativ und individuell. Meine Auffassung von viel, ist vielleicht eine andere als deine. Hauptsache erstmal auf die Kacke hauen.

Die 4080 sollte schneller werden als die 3090TI. Ich denke da an gute 20%+ vor einer 3090TI. Das bei 420W wäre ok.

NOCHMAL (Kann man jederzeit alles online nachlesen)

Wenn RTX3080 100%, dann
RTX3090 113% und
RTX3090TI 121%.

Der 13% Vorteil der RTX3090 gegenüber der 3080 halte ich für alles andere als immer klar im Vorteil. Selbst die 21% der 3090TI sind für mich nicht klar im Vorteil. Sondern eher ok, kann man machen, wenn man Bock drauf hat, aber sinnvoll.... Ist so eine Sache. Ja die letzten % kosten immer (darum geht es aber nicht).

Der Unterschied zwischen RTX3080 und 3090 ist sehr klein, wann es nicht mehr reichen wird.

Einziger echter Vorteil, der 3090 ist der größere Speicher das wars aber auch.

Ach, nur für den Fall, das es nicht selbstverständlich ist. Alles was ich hier schreibe ist nur meine Meinung!
ja, es ist deine Meinung, sowie was ich schreibe meine Meinng ist, aber ich habe meistens Recht ;) Du gehst viel zu viel auf reine Zahlen und Tests. Ich nutze die Karten ! Und ich sehe klare Unterschiede die real sind. Ich lese gerne die Tests, vor allem PCGH und Guru3D aber die zeigen dir nicht wie man es selbst empfinden würde, Also wenn ich ein Spiel in 4K oder UltraWide mit RTX und alles auf Max spielen möchte und habe dann zB 78 FPS anstatt nur 70 FPS ist das ein Unterschied den du leicht erkennen kannst und nur ungern missen würdest. Zum anderen ist der Gewinn bei RTX höher, kannst man auch nachlesen wenn man will. Wenn man Overclocking ins Soiel bringt, was bei der 3080 auch geht, dann bleibt der Abstand immer noch locker bestehen, was man wiederrum auch beim Spielen klar sieht. Ob der Abstand nun gross oder klein bewertet wird ist, so wie du sagst, individuell. Ich möchte jedenfalls keine einfache 3080 (ohne 12G oder Ti) und werde auch keine 4080 bekommen die nicht schneller sein wird als eine 3090Ti und sicher keine 20% schneller sein wird als eine 3090(Ti) Bei der 40xx Generation wird die 4090 den Abstand bekommen den sie auch verdient, daher wird aus der 4080 nicht alles herausgeholt was geht, da muss Platz sein für eine weitere 4080Ti. Ist nur meine Meinung aber es scheint ja dass die Meisten die sich damit beschäftigen, sowie ja auch PCGH, eher meiner Meinung sind. Ich gehe aber davon aus dass Custom Karten auf 460W / 480 Watt gehen werden was dann doch zu ca. 10% Abstand verhelfen wird, es wird auch Ausreisser geben, das ist klar. Wir werden es ja bald erleben und dann sehen wir weiter. Ich freue mich jedenfalls auf meine zukünftige 4090. Und dann kommt wieder die Diskussion ob man soviel Geld ausgeben sollte, wenn man etwas 2 Jahre lang nutzt und Spass dran hat, dann ist es meiner Meinung nach ok 800 bis 1900 Euro für eine Graka zu bezahlen für die man sicher wieder ein paar hundert Euro zurüchbkommt wenn man sie wieder verkauft. Wenn ich jetzt gerne Sparen wollte/müsste würde ich immer eine Generation abwarten, heisst nach ca 1,5 bis 2 Jahren würde ich versuchen eine der besten Karten der letzten Generation für eine richtig guten Preis zu ergattern, damit kann man ohne weiteres nochmal 2 Jahre richtig Spass haben. Jedem das Seine und vielleicht liegt die Wahrheit ja auch irgendwo dazwischen...
 
Never ever. Die Leistung 4080=3090 wäre für die neue Generation viel zu schwach.
Wieso? Klingt doch ziemlich realistisch. Man zeigt auch durch die TDP-Erhöhung, dass man nicht irgendwo auf freie Leistung gestoßen ist, sondern um jedes Prozent kämpfen musste. Denke die next Gen wird ziemlich ineffizient und vergleichsweise ernüchternd.
 
Wieso? Klingt doch ziemlich realistisch. Man zeigt auch durch die TDP-Erhöhung, dass man nicht irgendwo auf freie Leistung gestoßen ist, sondern um jedes Prozent kämpfen musste. Denke die next Gen wird ziemlich ineffizient und vergleichsweise ernüchternd.
Ich sehe das eher so das AMD auch stark ist man aber King bleiben möchte und deswegen die TDP ordentlich nach oben schraubt.
Also ich gehe davon aus das eine 4070(TI) auf dem Niveau einer 3090 sein wird. Frage ist nur geizt Nvidia wieder mit dem VRAM.
Den eine 3090 mit 8Gib Vram können die gerne behalten.
 
Natürlich, Nvidia wird King bleiben wollen. Nach wie vor haben sie aber bei gleicher Leistung mehr Trümpfe in der Hand (Features durch RTX und Cuda/Tensor). Die werden garantiert auch klassisch schneller sein wollen als AMD und die wissen defintiv schon, dass AMD ziemlich nah dran ist, sonst würden die die TDPs nicht so irrsinnig nach oben knallen.

Dennoch, erscheint mir diese Erhöhung der TDP als Verzweiflungstat. Unabhängig von AMD müssen die das wahrscheinlich machen, weil die sich sonst von RTX3000 nicht hinreichend absetzen könnten.

Dass Leute behaupten, ne RTX4080 würde eine RTX3090 DEUTLICH abziehen und eine RTX4090 wäre angeblich bis zu DOPPELT so schnell, ist doch einfach nur lächerlich.

Ich habe nur eine Frage:
Wann, WANN, hat Nvidia in den letzten Jahren mal Leistung verschenkt? Haben die ewig nicht gemacht (evtl mal GTX970/GTX1080/Ti) und damit fangen die jetzt auch nicht an. Haben sie nicht nötig. Man kauft bei gleicher Leistung und gleichem Preis eh Nvidia.

Doppelte Leistung von RTX3000 wäre der absolute Overkill und falls es so wäre, bräuchte man die TDP nicht erhöhen. Dann könnte man ganz easy Stromsparen und mit Effizienz UND Leistung Werbung machen.

Daher ist es eigentlich klar, dass die Karten zwar etwas schneller werden, weil sie müssen, aber dabei unfassbar ineffizient sein werden.
 
Daher ist es eigentlich klar, dass die Karten zwar etwas schneller werden, weil sie müssen, aber dabei unfassbar ineffizient sein werden.
Da bin ich andere Meinung. Ich gehe sogar davon aus das sie effizienter sein werden als ihre Vorgänger. (also FPS/Watt).
Das die Karten aber für die letzten 5-10% Leistung 20-35% mehr Watt schlucken ist sicher wie das Armen in der Kirche.
Schon die 3000 Serie ist eigentlich sehr effizient nur halt leider weit über ihren Sweetspot betrieben.

Ich Rechne mit einem Leistung plus von knapp 50% Prozent von 3090 vs 4090 usw.

Denn wir bekommen hier eine neue Node und eine Neue/verbesserte Architektur bei mehr Leistung Aufnahme wird dann auch ein deutlich Leistungs Plus erzielt.
 
Weil
1.) AMD dieses Mal mächtig Druck macht statt völlig abgeschlagen zu sein
2.) Ein "anderthalber" Node zwischen Samsung 10nm ("N8") und TSMC 5nm ("4N") liegt

Die 4080 wird nach allem was bisher bekannt ist SEHR viel schneller sein als eine 3090.
Der letzte Satz des Artikels ist, sorry, einfach falsch und kommt auch in keiner Quelle vor.

Die Quelle sagt lediglich das hier:
"Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103."

Die Mutmaßungen zur Performance dieser Karte liegen je nach Seite/Berechnung/Annahmen zwischen dem 1,6-fachen und dem 2-fachen einer RTX3080 - und damit WEIT vor einer 3090. Sehts mal so - eine 4080 hat im vorsichtigen Fall (AD103 statt 102salvage) etwa genau so viele SM-Einheiten wie ne 3090. Nur, dass die neuen Shadereinheiten verbessert wurden, ne Tonne mehr an L2-Cahce haben und gefühlt ein GHz höher takten können. Es wäre ein mittleres Wunder wenn das nicht viel schneller als ne 3090 wäre.
Ja dann freu ich mich aber auf die 4090 die doppelt so schnell sein soll wie die 4080.... das wird ja geil ;) also wird die 4090 4 mal so schnell wie die 3080 ?? ne im Ernst.... die 4090 wird sehr viel schneller werden als die 4080 also kann die 4080 nicht wirklich viel schneller werden als die 3090Ti sagen wir mal.... wir werden es ja erleben... ich wechsle nur von der 3090 auf die 4090 egal was kommt.
 
Woher kommt denn der Unsinn?
Die 4000er weeden massiv schneller als die 3000er sein, zwischen 4080 und 4090 ist aber nicht der himmelweite Unterschied mehr (siehe 3080 zu 3090Ti, etwa so).
Nein eben genau nicht ! die 4090 wird dieses mal sehr viel schneller als die 4080 ! die 4090 bekommt sogar einen anderen Chip als die 4080. Ich weiss ja nicht wie du dich informierst aber du liegst total falsch. Und die 4080 wird nicht massiv schneller als eine 3090Ti ... die 4090 wird es ja aber nicht die 4080. Deshalb habe ich ja geschrieben .. oh... dann soll die 4090 nochmal doppelt so schnell sein ?... der Unterschied zwischen 4080 und 4090 wird dieses mal massiv... und genau so soll es auch sein.
 
die 4090 wird dieses mal sehr viel schneller als die 4080 !
Selbst im günstigsten Falle für die 4090 (großer gegen kleinen Chip) wären es ~82SM gegen ~128SM, also rund +50% mehr Shadereinheiten. Der große Chip kann selbst mit höherem Powerbudget nicht die Taktraten des kleineren mitgehen und es gilt auch keine 100%-Skalierung von Shadereinheiten und Leistung. Das bedeutet realistisch wären ganz grob 30-40% Performanceplus von 4080 zu 4090. Das ist etwas mehr als 3080 zu 3090(Ti) aber weit von "doppelt" entfernt.

die 4090 bekommt sogar einen anderen Chip als die 4080.
Das ist nicht klar. Die 4080 kann sowohl einen AD103 bekommen als auch einen AD102 salvage. Niemand außer NVidia weiß das (und vielleicht NV selbst noch nicht), auch wenn es viele gibt die behaupten es zu wissen.

Und woher bekommst du so deine Informationen dass du natürlich ganz klar weißt wer falsch und richtig liegt? ;-)
 
Ist doch ganz einfach :Testet die 4090 mit der selben Wattzahl wie die 3090,also 350 Watt und vergleicht dann das Leistungsplus.
Das entspricht dann der tatsächlichen Leistungseffizienz.
 
Ist doch ganz einfach :Testet die 4090 mit der selben Wattzahl wie die 3090,also 350 Watt und vergleicht dann das Leistungsplus.
Bitte einmal mit UV auf 0,800V und einmal limitiert auf 300W. :daumen:
Die 4000er weeden massiv schneller als die 3000er sein, zwischen 4080 und 4090 ist aber nicht der himmelweite Unterschied mehr (siehe 3080 zu 3090Ti, etwa so).
Finde diese Spekulationen absolut unrealistisch ehrlich gesagt. Wieder wird man sich fragen, wozu man dann die 90er braucht (außer wenn die der 80er 10GB geben würden lol) und außerdem wäre ich mit diesen Aussagen, wie "massiv schneller" ganz vorsichtig hinsichtlich Taktbereinigung. Klar, wenn man die Karten mit voller Leistungsaufnahme ausfährt, werden die sich logischerweise absetzen, aber ich bin sehr gespannt, wie es aussieht, wenn User auf vertretbarere Werte undervolten und limitierten wollen.

Letzteres darf man ja schon mit der RTX3090Ti nicht machen, sonst hat man bei gleicher Leistungsaufnahme quasi nur ne sackteure RTX3090. :ugly:
 
Zuletzt bearbeitet:
Natürlich, Nvidia wird King bleiben wollen. Nach wie vor haben sie aber bei gleicher Leistung mehr Trümpfe in der Hand (Features durch RTX und Cuda/Tensor). Die werden garantiert auch klassisch schneller sein wollen als AMD und die wissen defintiv schon, dass AMD ziemlich nah dran ist, sonst würden die die TDPs nicht so irrsinnig nach oben knallen.

Dennoch, erscheint mir diese Erhöhung der TDP als Verzweiflungstat. Unabhängig von AMD müssen die das wahrscheinlich machen, weil die sich sonst von RTX3000 nicht hinreichend absetzen könnten.

Dass Leute behaupten, ne RTX4080 würde eine RTX3090 DEUTLICH abziehen und eine RTX4090 wäre angeblich bis zu DOPPELT so schnell, ist doch einfach nur lächerlich.

Ich habe nur eine Frage:
Wann, WANN, hat Nvidia in den letzten Jahren mal Leistung verschenkt? Haben die ewig nicht gemacht (evtl mal GTX970/GTX1080/Ti) und damit fangen die jetzt auch nicht an. Haben sie nicht nötig. Man kauft bei gleicher Leistung und gleichem Preis eh Nvidia.

Doppelte Leistung von RTX3000 wäre der absolute Overkill und falls es so wäre, bräuchte man die TDP nicht erhöhen. Dann könnte man ganz easy Stromsparen und mit Effizienz UND Leistung Werbung machen.

Daher ist es eigentlich klar, dass die Karten zwar etwas schneller werden, weil sie müssen, aber dabei unfassbar ineffizient sein werden.
Wenn ich die Gerüchte zusammenziehe und die spekulierten 375W bei AMD´s Topmodel sehe, gegenüber 450W bei Nvidia, kommt mir das noch nicht als derbe Verzweifelungstat vor. Eher das man halt bei der Raster Leistung mithalten will. Beim RT glaube ich nicht, das AMD den Rückstand direkt in einen Vorsprung umsetzen kann.

Die TDP steigt bei beiden deutlich.

Keiner der Beiden wird mit geringem Verbrauch Werbung machen, wenn man Dichtauf. Nvidia könnte nur auf Effizienz gehen, wenn man mit geringem Verbrauch weiterhin 15% vor AMD wäre und das wird denke ich, in der kommenden Generation nicht passieren.

Ich persönlich denke, das die 4090 schon bis zu 60% schneller sein kann, als die 3090TI. Wenn ich mir anschaue was drin stecken soll. Das bei gleichem Verbrauch, wie die 3090TI.

Die RTX4080 könnte übrigens gut bei 20% vor der 3090ti landen.
ja, es ist deine Meinung, sowie was ich schreibe meine Meinng ist, aber ich habe meistens Recht ;) Du gehst viel zu viel auf reine Zahlen und Tests. Ich nutze die Karten ! Und ich sehe klare Unterschiede die real sind. Ich lese gerne die Tests, vor allem PCGH und Guru3D aber die zeigen dir nicht wie man es selbst empfinden würde, Also wenn ich ein Spiel in 4K oder UltraWide mit RTX und alles auf Max spielen möchte und habe dann zB 78 FPS anstatt nur 70 FPS ist das ein Unterschied den du leicht erkennen kannst und nur ungern missen würdest. Zum anderen ist der Gewinn bei RTX höher, kannst man auch nachlesen wenn man will. Wenn man Overclocking ins Soiel bringt, was bei der 3080 auch geht, dann bleibt der Abstand immer noch locker bestehen, was man wiederrum auch beim Spielen klar sieht. Ob der Abstand nun gross oder klein bewertet wird ist, so wie du sagst, individuell. Ich möchte jedenfalls keine einfache 3080 (ohne 12G oder Ti) und werde auch keine 4080 bekommen die nicht schneller sein wird als eine 3090Ti und sicher keine 20% schneller sein wird als eine 3090(Ti) Bei der 40xx Generation wird die 4090 den Abstand bekommen den sie auch verdient, daher wird aus der 4080 nicht alles herausgeholt was geht, da muss Platz sein für eine weitere 4080Ti. Ist nur meine Meinung aber es scheint ja dass die Meisten die sich damit beschäftigen, sowie ja auch PCGH, eher meiner Meinung sind. Ich gehe aber davon aus dass Custom Karten auf 460W / 480 Watt gehen werden was dann doch zu ca. 10% Abstand verhelfen wird, es wird auch Ausreisser geben, das ist klar. Wir werden es ja bald erleben und dann sehen wir weiter. Ich freue mich jedenfalls auf meine zukünftige 4090. Und dann kommt wieder die Diskussion ob man soviel Geld ausgeben sollte, wenn man etwas 2 Jahre lang nutzt und Spass dran hat, dann ist es meiner Meinung nach ok 800 bis 1900 Euro für eine Graka zu bezahlen für die man sicher wieder ein paar hundert Euro zurüchbkommt wenn man sie wieder verkauft. Wenn ich jetzt gerne Sparen wollte/müsste würde ich immer eine Generation abwarten, heisst nach ca 1,5 bis 2 Jahren würde ich versuchen eine der besten Karten der letzten Generation für eine richtig guten Preis zu ergattern, damit kann man ohne weiteres nochmal 2 Jahre richtig Spass haben. Jedem das Seine und vielleicht liegt die Wahrheit ja auch irgendwo dazwischen...
78 zu 70 Fps als deutlich zu empfinden ?
Ist klar. Natürlich gibt es je nach Spiel unterschiedliche Frametimes, da steht es aber nicht so schlecht um die 3080 ;)


Nochmal, es ist schön, das es die 3090 gibt und auch das es Leute gibt, die die kaufen. Aber (allgemein )sinnvoll kann es nicht sein, den doppelten Preis für deine 78 zu 70 Fps zu zahlen.

Das hat nichts mit deinem Kauf zu tun! Ich freue mich für dich, das du dir den Spaß geleistet hast und zufrieden bist. Ist doch schön.

Ich finde es auch in Ordnung 800 - 2000€ für eine GPU zu zahlen. Ist doch kein Problem.
 
Zuletzt bearbeitet:
Wenn ich die Gerüchte zusammenziehe und die spekulierten 375W bei AMD´s Topmodel sehe, gegenüber 450W bei Nvidia, kommt
Nur kann man die Werte nicht vergleichen da NVIDIA meist von TBP redet (Total Board Power) und AMD von TGP
(Total Graphics Power) auf den Wert von AMD darf man je nach Platinen Design und Wärme der Spannungswandler gerne nochmal 30-40 Watt hinzurechnen.
375+40=415 Watt
 
Wieder wird man sich fragen, wozu man dann die 90er braucht
Die Frage warum man das Topmodell einer Grafikkarte "braucht" ist seit Jahrzehnten die gleiche und wird auch mit der 4000er Serie nicht anders werden. ;-)
und außerdem wäre ich mit diesen Aussagen, wie "massiv schneller" ganz vorsichtig hinsichtlich Taktbereinigung.
Selten war eine solche Aussage gefahrloser zu treffen als beim jetzigen Generationssprung. Ich weiß, man ist mittlerweile dran gewöhnt dass ne neue Generation 30% oder sowas an Mehrleistung bringt weils die letzten Jahre immer so war. Aber, so abgedroschen der Spruch ist: dieses Mal wirds mit an Sicherheit grenzender Wahrscheinlichkeit anders bzw. deutlich mehr. Das kann man auch wenn alles natürlich weiter keine bestätigten Infos sind durchaus behaupten, denn einfach alles weist darauf hin und sowohl die technischen als auch marktwirtschaftlichen Randbedingungen sind passend für einen SEHR großen Performancesprung was es so die letzten 10+ Jahre einfach nie gegeben hat.
 
Ich lasse das einfach mal hier:
die 3070 kann man gerne als 2080Ti sehen
1654848790006.png
 
Zurück