Geforce RTX 4080: 100 Watt mehr TGP als Vorgänger?

Lesen und verstehen können verlängert unter Umständen das Leben !
Dass die 4070 die doppelte 3090 Leistung bieten soll, hat meiner einer bis Dato weder gelesen/gehört, noch behauptet.
Lediglich die 4000´er zu ihrem 3000´er Äquivalent (4070 = 3090).
Aber genau deswegen ist ja Interpretationsspielraum da, um etwas hinein zu interpretieren ... :-P

MfG Föhn.
Ja dann bin ich ja froh.... ich interpretiere dann mal dass die 4080 so schnell sein wird wie ne 3090Ti..... Danke ;)
 
Nee.. nur in deiner Fantasie... Ich habe meine 3090 für den Preis Deiner 3080 gekauft... ganz am Anfang. und die 3090 ist meistens 2 stellig schneller.... bitte nicht zu sehr träumen... 3080 Nutzer ;) Und um genau dies zu verhindern wird die 4090 so viel schneller als die 4080 dass nicht einer es wagen wird die 4080 mit ner 4090 zu vergleichen ;)
Hab meine 3080 eine Woche nach Release in den Händen gehalten zur UVP + 20€ on top als Trinkgeld.
Merke; was eine 3080 nicht schafft, schafft auch 3090 nicht :)
 
Fällt den Verfassern nicht auf, das es keinen Sinn ergibt?

Die 4080 soll 420W TGP haben und damit die Leistung der 3090 erreichen? Soll Nvidia eine Zeit- Maschine gebaut haben und dann keine bessere Idee gehabt haben, als damit in die Vergangenheit zu reisen.

Die 3090 Leistung gab es bei der 3090 schon mit 350W. Ich lege mich mal soweit fest, das RTX4000 für RTX3090 Leistung, sicher weniger verbrauchen wird, als RTX3000.
Ich würde den Stand der Gerüchte dann mal so zusammenfassen:

Falls es stimmt, dass die 4080 mit einem AD103 tatsächlich 420W TGP zieht, dann sind es beim AD102 der 4090 mit an Sicherheit grenzender Wahrscheinlichkeit nicht die kolportierten 450W TGP sondern wohl eher die 600W die im März diskutiert wurden.

Alles andere kommt ja nicht hin.
Was nicht hinkommen wird, ist Leistungsangabe in diesem Artikel. Die 4080 wird, wenn 420W TGP wohl schon deutlich schneller, als die 3090 sein ;)
Merke : das stimmt nicht ;) und was eine 3080 kann.. kann eine 3090 noch viel besser ;)
In Einzelfällen helfen einem die 24GB schon mal weiter, aber unterm Strich aller Spiele ist das halt vernachlässigbar.

Die ist auch heute in 4k im SCHNITT nicht wirklich viel schneller.
 
Zuletzt bearbeitet:
Das war doch von vornherein klar, jede Serie rutscht einen runter.
3090=4080
3080=4070
3070=4060 .... etc.
Preise bleiben gleich, somit Stillstand im Technischen Fortschritt.
Die 3090 wird nur durch noch mehr Verbrauch geschlagen.
 
Es war aber nie wirklich groß anders.

Warum sollte Nvidia das ändern ?
Weil
1.) AMD dieses Mal mächtig Druck macht statt völlig abgeschlagen zu sein
2.) Ein "anderthalber" Node zwischen Samsung 10nm ("N8") und TSMC 5nm ("4N") liegt

Die 4080 wird nach allem was bisher bekannt ist SEHR viel schneller sein als eine 3090.
Der letzte Satz des Artikels ist, sorry, einfach falsch und kommt auch in keiner Quelle vor.

Die Quelle sagt lediglich das hier:
"Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103."

Die Mutmaßungen zur Performance dieser Karte liegen je nach Seite/Berechnung/Annahmen zwischen dem 1,6-fachen und dem 2-fachen einer RTX3080 - und damit WEIT vor einer 3090. Sehts mal so - eine 4080 hat im vorsichtigen Fall (AD103 statt 102salvage) etwa genau so viele SM-Einheiten wie ne 3090. Nur, dass die neuen Shadereinheiten verbessert wurden, ne Tonne mehr an L2-Cahce haben und gefühlt ein GHz höher takten können. Es wäre ein mittleres Wunder wenn das nicht viel schneller als ne 3090 wäre.
 
Zuletzt bearbeitet:
Wird es in Zukunft auch bessere Leistung geben ohne das der Stromverbrauch immer höher wird das wäre mal Innovation. In ein paar Jahren haben die meisten dann was 2000watt Netzteil weil sie 1500watt verbrauchen ? Pc gaming sollte besser optimiert werden und nicht immer mehr Strom verbrauchen.... ist nur meine Meinung.
 
Wird es in Zukunft auch bessere Leistung geben ohne das der Stromverbrauch immer höher wird das wäre mal Innovation.
Das gibts, aber nur wenn man in den GPU-Klassen runter kann und etwas länger wartet. Also beispielsweise von RTX2080 auf RTX4060. Blöd wirds erst wenn man schon ganz unten angekommen ist...

In ein paar Jahren haben die meisten dann was 2000watt Netzteil weil sie 1500watt verbrauchen
Nö. Die Grenzen der Physik sind vorher. Nicht, weil man keine 2000W in eine Karte schieben könnte sondern weil das einfach nicht mehr sinnvoll zu Hause kühlbar ist, das sind 500W schon nicht mehr wirklich.
Wenn da nicht die große Wasserkühlungsrevolution samt externer Radiatoren kommt (und die sehe ich in der breiten Masse nun wirklich nicht kommen) dürfte die jetzt kommende Generation so ziemlich die Oberkante von dem sein was realistisch machbar ist.
 
Wird es in Zukunft auch bessere Leistung geben ohne das der Stromverbrauch immer höher wird das wäre mal Innovation. In ein paar Jahren haben die meisten dann was 2000watt Netzteil weil sie 1500watt verbrauchen ? Pc gaming sollte besser optimiert werden und nicht immer mehr Strom verbrauchen.... ist nur meine Meinung.
Zumal man ja bei allem auch noch selber was machen kann, meine GPU läuft in meiner Dachgeschosswohnung im Sommer aber sowas von mit angezogener Handbremse, ~200W ist dann das höchste der Gefühle, da werden die Karten auch ganz schnell extrem effizient.
Wichtig ist daher auch, nicht nur auf die Maximalverbräuche zu gucken, sondern was bei der Effizienz, also Leistung/Verbrauch im Vergleich zur vorherigen Gen so passiert ist.
Wer seine Ansprüche nicht erhöht, der verbraucht mit jeder neuen Gen weniger Strom, nur wollen die Leute halt nun mal immer mehr.
Die Grenzen der Physik sind vorher. Nicht, weil man keine 2000W in eine Karte schieben könnte sondern weil das einfach nicht mehr sinnvoll zu Hause kühlbar ist, das sind 500W schon nicht mehr wirklich.
Wenn da nicht die große Wasserkühlungsrevolution samt externer Radiatoren kommt (und die sehe ich in der breiten Masse nun wirklich nicht kommen) dürfte die jetzt kommende Generation so ziemlich die Oberkante von dem sein was realistisch machbar ist.
Keine Ahnung in welchen Kathedralen die Leute so leben, aber 500W nahezu effektive Abwärme nur von der GPU könnte ich 2/3 des Jahres niemals nutzen ohne den sofortigen Hitzetod zu sterben. Da ist es auch egal wie viele Radiatoren ich mir in mein Gehäuse reinknalle, die Energie muss ja irgendwo hin und das Wasser verzögert letztlich nur etwas die Zeit, bis sich der Raum aufheizt.
600W beim Topmodell würde für mich wohl allein dadurch schon den Ausstieg aus dem (absoluten) Highend bedeuten, denn selbst 300W sind mir eigentlich in den meisten Jahreszeiten schon zu viel und es ist da sowieso fraglich, ob die Karten mit ~50% PT überhaupt stabil laufen.
Ich kann den PC dann halt höchstens in nen anderen Raum stellen, nach einer Lösung hört sich das aber nicht an.
 
Heizung aus, PC an. Was du im Jahr an Heizkosten sparst, das bekommst du beim Strom oben drauf.
Der Poweruser und Langzeit-Gamer wir sich über die neue Stromrechnung freuen. Schön 6-8std unter Volllast bei 1000w....
 
So ganz alle in der richtigen Reihenfolge haben es die Grafikkartenhersteller nicht mehr.

Leistung um jeden Preis, koste es , was es wolle.
Meine RX 6700 frißt alleine schon so viel, wie früher ein ganzer PC.

Aber die Zahlen sind völlig irre und gegen alle Vernunft.

Gut, wir haben hier alle einen weg, aber so schlimm muß es nicht sein.
 
Das hier ist der Tiefpunkt des "journalistischen" Wirkens auf PCGH. Holy Shit...

@PCGH_Thilo Das kann so nicht weitergehen. :-S Ihr macht euch komplett Euren Ruf damit kaputt.
Muss ich mich leider dranhängen.

Bin seit über 14 Jahren hier, aber das hier schiesst echt den Vogel ab.

Wenn man keinen Bock auf seinen Job hat, ok kommt vor, aber so ein Artikel muss doch irgendjemand bei PCGH wirklich restlos peinlich sein!
Zumal man ja bei allem auch noch selber was machen kann, meine GPU läuft in meiner Dachgeschosswohnung im Sommer aber sowas von mit angezogener Handbremse, ~200W ist dann das höchste der Gefühle, da werden die Karten auch ganz schnell extrem effizient.
Wichtig ist daher auch, nicht nur auf die Maximalverbräuche zu gucken, sondern was bei der Effizienz, also Leistung/Verbrauch im Vergleich zur vorherigen Gen so passiert ist.
Wer seine Ansprüche nicht erhöht, der verbraucht mit jeder neuen Gen weniger Strom, nur wollen die Leute halt nun mal immer mehr.

Keine Ahnung in welchen Kathedralen die Leute so leben, aber 500W nahezu effektive Abwärme nur von der GPU könnte ich 2/3 des Jahres niemals nutzen ohne den sofortigen Hitzetod zu sterben. Da ist es auch egal wie viele Radiatoren ich mir in mein Gehäuse reinknalle, die Energie muss ja irgendwo hin und das Wasser verzögert letztlich nur etwas die Zeit, bis sich der Raum aufheizt.
600W beim Topmodell würde für mich wohl allein dadurch schon den Ausstieg aus dem (absoluten) Highend bedeuten, denn selbst 300W sind mir eigentlich in den meisten Jahreszeiten schon zu viel und es ist da sowieso fraglich, ob die Karten mit ~50% PT überhaupt stabil laufen.
Ich kann den PC dann halt höchstens in nen anderen Raum stellen, nach einer Lösung hört sich das aber nicht an.
Doofe Frage: habt Ihr keine Trockner? Wenn ja, wo steht der und wie entlüftet ihr dessen Abwärme?

Wohne selbst in ner Dachgeschosswohnung, aber dann ist halt auch klar, dass heutzutage eine ordentliche Klimaanlage Pflicht ist. Wärmetauscher hängen an der Außenwand, und presto. So schwer ist das nicht und etwas südlicher seit Jahrzehnten Usus.

Alternativ: häng nen MoRa an die Außenwand. Ich benutze selbst zwei, einer ist innen und aktiv belüftet, einer ist draußen. Klappt prima.
 
Zuletzt bearbeitet:
Dachte die 4050/4060 sollte leistungsmäßig schon auf dem Niveau sein? Ich glaube das AMD diesmal die Nase vorne haben wird, aber warten wir es ab.
 
Das war doch von vornherein klar, jede Serie rutscht einen runter.
3090=4080
3080=4070
3070=4060 .... etc.
Preise bleiben gleich, somit Stillstand im Technischen Fortschritt.
Die 3090 wird nur durch noch mehr Verbrauch geschlagen.
Mein Gott, so schwer ist das doch nun wirklich nicht! Schlag einfach auf alle Ampere-Modelle eher konservative 30 bis 40 Prozent Leistung drauf und die du hast einen groben Anhaltspunkt für die Leistung der Nachfolgemodelle.

Und wenn eine 3090 gerade mal - je nach Auflösung - 15% vor einer 3080 liegt, bedeutet das logischerweise, dass eine 4080 vergleichsweise deutlich vor einer 3090 liegen sollte und das auch tun wird, es sei denn, du glaubst tatsächlich an eine 4080, die nur 15 bis 20 Prozent schneller ist als eine 3080.

Abgesehen davon, wurde ja bereits darauf hingewiesen, dass eine 4080, die trotz neuer Fertigungstechnik mehr Strom verbraucht als eine 3090, auch entsprechend Mehrleistung haben wird. Alles andere wäre ja grober Unfug.

Ich werde ja ungerne persönlich, aber es ist wirklich an der Zeit, dass ein verantwortlicher Redakteur endlich mal die Beiträge von Herrn Link korrekturliest bevor sie online gehen. So ein Schwachsinn müsste doch eigentlich schon beim Schreiben weh tun. :rollen:
 
Zuletzt bearbeitet:
Is das n' Witz? :confused:

Erinnert mich mal... Die 3080 verballert 320W TGP, die 3090 ist ca. 10-15% schneller.
Jetzt sagt man mir dass die 4080, was? 420W schlucken soll und dafür die Leistung einer
3090 liefert, die Überraschung 350W wegnagelt...
Bei feinerem Fertigungsprozess und neuer Architektur????

Hab ich in Mathe nicht aufgepasst oder was???? Das wäre ja ne Effizienz-Verschlechtuerung!

Selbst wenn es nicht 3090 sondern 3090Ti heißen sollte, wäre das ein Armutszeugnis.

31% mehr Strom für 15% Leistungsplus? :what:

:haeh: Erm... Hä?
 
Zuletzt bearbeitet:
Zurück