Nvidia Geforce RTX 4070 und 4080 mit Einschätzungen zum 3D Mark [Gerücht]

4thVariety

BIOS-Overclocker(in)
Laut PCGH ist der Leistungsindex wie folgt, Normierungspunkt ist die 3060-12G:

3060 = 100%
3060Ti = 130%
3070 = 149%
3070Ti = 162%
3080 = 186%
3080Ti = 201%
3090 = 209%

Laut UVP ist das die Preisstruktur

3060 $330 -> 100%
3060Ti $399 -> 120%
3070 $499 -> 151%
3070Ti $599 -> 181%
3080 $699 -> 211%
3080Ti $1199 -> 363%
3090 $1499 -> 454%

Wo eine 3070 noch im Rahmen liegt mit 150% mehr Leistung für 150% mehr Geld ist alles oberhalb der 3080-10G stark über das Ziel hinausgeschossen. Um die 3090 herum hat Nvidia fast einen Kult aufgebaut, damit die Leistung fast mythisch wirkt, aber der PCGH Leistungsindex sieht das ganz nüchtern. Solange beide Karten nicht in ein Limit rauschen hat eine 3090 hat einfach nur die doppelte Leistung einer 3060. Das sagt uns der 1080p PCGH Leistungsindex. Und auch wenn bei 4k die 3090 ihren Vorsprung auf den Faktor 2,4 ausbauen kann, die 450% Preisdifferenz rechtfertigt das nicht.

Gerade im Cryptochaos der RTX30 Generation hat es Nvidia verstanden aus minimalen Leistungsdifferenzen maximal Profit zu schlagen. Damit war der relative Absturz der 3090 vorprogrammiert. Wir hätten immer erwartet, dass eine 4070 die Leistung einer 3080 bietet. Der PCGH Index zeigt ja, dass eine 3090 eben nicht eine ganze Klasse über der 3080 thront (wie eine 3070 über der 3060 mit 150%), sondern eine 3090 nur knapp über der 3080 liegt mit 116%. Das allein bringst sie in Gefahr von der 4070 geschluckt zu werden und zwar seit Release. Denn laut PCGH muss die 4070 nur bei 140% einer 3070 liegen und schon wäre die 3090 eingeholt. 130% würden wir ohnehin erwarten von einem Generationensprung, 140% ist da nicht unrealistisch bei so viel Druck von AMD.

Vielleicht war die 3090 einfach schon leicht über dem Optimum was mit Samsung möglich war und man hat einfach nicht mehr rausbekommen, bzw. die Hitze eben nicht mehr herausbekommen. Nvidia hatte sich ja gar nicht zunächst getraut die Karte als Gaming-Karte zu vermarkten, ganz untypisch sehr viel Speicher draufgepackt und sie als Karte für Medienproduktion bezeichnet. Was damals eher komisch wirkte, weil ohne professionelle Features wie SR-IOV Unterstützung ist es schwer die 3090 als wirkliche Karte für den professionellen Markt zu bezeichnen.

In einem Satz: die Leistungssprünge von Generation zu Generation sind zu groß und die Abstände innerhalb einer Generation von Chip zu Chip sind zu klein, als dass man damit eine Preisschere von 450% rechtfertigen könnte. Auf Dauer wird das den Kunden immer schwer im Magen liegen wie drastisch der Werteverfall bei einer solchen Struktur ist.
 

Birdy84

Lötkolbengott/-göttin
Aus dem PCGH Leistungsindex für GPUs wissen wir jedoch, dass genau das nicht der Fall ist und nicht jedes Spiel linear mitskaliert. Die 3070 hat zudem das Problem mit hohen Auflösungen. Bei 1080p liegt eine 3090 laut PCGH bei 140% einer 3070, bei 4k sind es 157%.
Deine Ausführungt ist interessant, bei der zitierten Stelle hat deine Beobachtung aber eine andere Ursache. Es ist nicht die 3070, die vergleichsweise einbricht, sondern die 3090, die in FHD nicht richtig ausgelastet wird.
 

4thVariety

BIOS-Overclocker(in)
Deine Ausführungt ist interessant, bei der zitierten Stelle hat deine Beobachtung aber eine andere Ursache. Es ist nicht die 3070, die vergleichsweise einbricht, sondern die 3090, die in FHD nicht richtig ausgelastet wird.
geb ich Dir Recht, das kann genau so passieren und dazu führen, dass das Urteil über die 4070 lauten wird, dass die 3090 bei 4k Auflösungen die Nase um 5% vorne hat, aber Nvidia oder die Leaks nicht "gelogen" haben, weil die 4070 bei manchen 1080p Benchmarks gleichauf liegt, weil sie schlicht in das gleiche Limit rennt.

Das sagt aber mehr darüber aus wie wenig verlässlich 1080p Tests in dieser Leistungsklasse sind und wie bereit die Leute sein werden auf den Hypetrain zu springen, wenn das Marketing die 4070 mit dem Spruch "eine 3090 für 600€" bewirbt. So dumm das letztlich ist und so sehr das eine versteckte Preiserhöhung der 70er Serie von 500€ auf 600€ ist.
 

shaboo

Software-Overclocker(in)
geb ich Dir Recht, das kann genau so passieren und dazu führen, dass das Urteil über die 4070 lauten wird, dass die 3090 bei 4k Auflösungen die Nase um 5% vorne hat, aber Nvidia oder die Leaks nicht "gelogen" haben, weil die 4070 bei manchen 1080p Benchmarks gleichauf liegt, weil sie schlicht in das gleiche Limit rennt.

Das sagt aber mehr darüber aus wie wenig verlässlich 1080p Tests in dieser Leistungsklasse sind und wie bereit die Leute sein werden auf den Hypetrain zu springen, wenn das Marketing die 4070 mit dem Spruch "eine 3090 für 600€" bewirbt. So dumm das letztlich ist und so sehr das eine versteckte Preiserhöhung der 70er Serie von 500€ auf 600€ ist.
Wenn eine 4070 grob die Leistung einer 3090 liefern wird, dann wird sie das insbesondere auch in 4k tun; keine Ahnung, was das damit zu tun haben soll, dass beide Karten bei 1080p potentiell in ein ähnliches Limit laufen und damit leistungsmäßig (noch) näher zusammenrücken.

Am Ende wird es sowieso niemanden kümmern, ob eine 4070 nun exakt auf 3090-Niveau performt, oder ob sie 5% darüber oder darunter liegt. In jedem Fall ergäbe sich ein Leistungsplus von 40 bis 50 Prozent gegenüber einer 3070, was vielleicht nicht superspektakulär wäre, für die allermeisten aber wohl im grünen Bereich läge. Viel interessanter dürfte sein, wie es darüber hinaus mit Speicher, Stromverbrauch und Preis ausschaut.
 

4thVariety

BIOS-Overclocker(in)
Viel interessanter dürfte sein, wie es darüber hinaus mit Speicher, Stromverbrauch und Preis ausschaut.

Das ist jetzt ein hypothetisches Beispiel mit beliebig gewählten Zahlen. Aber wenn man seine Herstellung von TSMC 12nm auf TSMC 6nm umzieht, dann würde TSMC eine Zahl bereitstellen die angibt wieviel Strom man sparen kann und dennoch die gleiche Leistung erhält. Dann wäre es sehr einfach Nvidia vorherzusagen. Man würde die 350W einer 3090 nehmen, die Ersparnis in Prozent drüber laufen lassen und könnte sagen, fertig, mit dieser TDP ist bei einer 4070 zu rechnen, sofern sie die Leistung einer 3090 haben soll.

Weil Nvidia allerdings von Samsung auf TSMC wechselt, ist das nicht so leicht einzuschätzen. Unter der Annahme, dass Samsung nicht ganz dumm ist, der neue TSMC Prozess aber mindestens einen Schritt weiter, kann ich mir schon 15%-20% weniger Verbrauch bei gleicher Leistung vorstellen. Damit wäre die Karte im Dunstkreis von 280W-300W. Das deckt sich wiederum mit den Gerüchten.

Beim Speicher sollte man das Layout des Chips betrachten. Die Speicherinterfaces bilden bei Nvidia den Rand des eigentlichen Chips. Hier ist die Frage wieviel Segmente bringt man unter und wieviel Segmente sind kaputt. So sind bei der 3080 immer irgendwelche Segmente kaputt, deswegen sind von den 12 möglichen RAM Slots einer 3080 immer nur 10 Stück bestückt und welche das bei einer einzelnen Karte sind ist Zufall.

Der Chip der 3090 ist der GA102 mit 12 "Slots" für RAM, daher 24GB Max auf der 3090. Die 4070 ist vermutlich der AD104. Gleiche Anzahl von SM Einheiten, gleiche Anzahl von Cuda Cores, da kann man annehmen, dass es die gleiche Anzahl von Speicher-Interfaces ist und der Chip ein relativ direkter Shrink ist (so direkt wie es halt geht, wenn man von Samsung auf TSMC wechselt). Maximal 12GB bei Bestückung mit 1GB GDDR6 Modulen, 24GB bei Bestückung mit 2GB GDDR6 Modulen. Wenn das Binning einzelne RAM Slots deaktivieren muss, dann sind auch 10/20, oder 8/16 möglich. Ich nehme an wir werden sehr viele Varianten des AD104 von Nvidia sehen, wie 3060, 3060Ti, 3060 Super, und dazu auch 3070 Modelle mit unterschiedlich viel RAM.

Ich persönlich glaube die 3070 wird nicht über 12GB gehen. Zu wenig Spiele brauchen es jetzt und Nvidia denkt immer nur an das jetzt bei diesen Produkten. Das mit 16GB sind zukunftssicherer Argument ist eher der Versuch von Nvidia, dass man auf eine 3080 schielt.
 

kratos30

Komplett-PC-Käufer(in)
Ja wenn die so schnell ist...dann leg ich mir die 3090 auf Halde....wenn der nächste cryptoboom kommt gibt's dafür gutes Geld.

Aber mal ehrlich: rtx4000 und RDN3 sind momentan für mich uninteressant. Interessant wird rtx5000 und RDNA4(?). AMD Experimentiert mit chiplets und wird es im Nachfolger perfektionieren. Nvidia wird bei rtx5000 auch auf chiplets setzen (müssen). Das wird die richtigen Performance Sprünge geben.
Erstmal abwarten wie die chiplets performen bevor man sagt das es damit diese Sprünge damit geben wird

Mcm muss sich in der Praxis erst noch beweisen
 

Cleriker999

Freizeitschrauber(in)
Also bzgl der Leistung orientiere ich mich da an "moore law is dead" muss auch dazu sagen das bevor apere draussen war ich bis zuletzt nicht daran geglaubt hatte wie groß der Leistungssprung ist.
War auch der Meinung es werden wieder nur max 35% aber er und seine Quellen bei den Boardpartnern und NVIDIA selbst waren goldrichtig.

Darum könnt ihr euch schonmal darauf einstellen das es mind 70% bis 100% leistungssteigerung geben wird , Nvidia wartet nur mehr darauf was AMD so bringen wird und wieviel strom Sie schlussendlich der 4090 geben werden und ob SIe es überahaupt schaffen dieses Jahr die Leistungskrone zu erlangen vs AMD.
 

kratos30

Komplett-PC-Käufer(in)
es wird am Ende schon grob stimmen was bei raus kommt mit paar abstrichen aber ganz ehrlich ich kaufe keine Grafikarte über 250 watt Verbrauch. Mein max. Stromlimit war bei der letzten Generation bereits erreicht. Man bekommt bei uns ( Sachsen) kaum ein Job bei dem man mehr als Mindestlohn verdient, als gelernter Angestellter mit wenigen ausnahmen. Wir zahlen in Deutschland Rekordstrompreise das werden auch bald die besser verdienenden zu spüren bekommen. Spätestens bei der Abrechnung wenn klar wird das Junior im Jahr mit seiner RTX 4090er 3000 Euro mehr verbrät..... wuaaaa...
mal im ernst wer sich eine 3090 leisten kann/hat der muss sich keine gedanken wegen dem strompreis machen (auch nicht später)
ich habs selber nicht spürbar gemerkt jetzt bei meinem verbrauch....
zahl gerade mal 80 bis 100 im jahr mehr als vorher
auch wenn der strompreis nach oben geht werden die leute daran nicht arm werden....
Wenn man sich den Emoji in meinen Post ansieht sollte klar sein, dass der nicht ganz ernst gemeint war.
Ich glaube trotzdem nicht, dass sich die 4000er so krass absetzen werden ohne dass es rein über die Leistungsaufnahme geht. Im Grunde gibt es nur mehr von allem, mehr Shader, mehr Takt und vor allem mehr Verbrauch. An der Architektur ändert sich ja nicht viel.
Ist mir aber auch egal, ich werde mir keine neue GraKa kaufen.
aha und das weißt du woher?
alles was derzeit kursiert sind nur gerüchte und nicht mehr...
und woher weißt du das die architektur nicht wirklich verändert wird/wurde....
 

TriadFish

Freizeitschrauber(in)
es wird am Ende schon grob stimmen was bei raus kommt mit paar abstrichen aber ganz ehrlich ich kaufe keine Grafikarte über 250 watt Verbrauch. Mein max. Stromlimit war bei der letzten Generation bereits erreicht. Man bekommt bei uns ( Sachsen) kaum ein Job bei dem man mehr als Mindestlohn verdient, als gelernter Angestellter mit wenigen ausnahmen. Wir zahlen in Deutschland Rekordstrompreise das werden auch bald die besser verdienenden zu spüren bekommen. Spätestens bei der Abrechnung wenn klar wird das Junior im Jahr mit seiner RTX 4090er 3000 Euro mehr verbrät..... wuaaaa...

Wie kommst Du auf 3000 Euro?

Selbst wenn man von 40 Cents die KWh ausgeht und einem durchschnittlichen Verbrauch von 600 Watt der 4090 unterstellt, sind das bei 6 Stunden zocken an 365 Tagen im Jahr Stromkosten in Höhe von 526 Euro jährlich.

Und das wie gesagt nur, wenn man an absolut jedem Tag im Jahr 6 Stunden spielt.

Bei eher moderatem Zockenverhalten (3 Stunden spielen an 5 Tagen die Woche) kommt man auf 188 Euro.

Wenn man nun von einer GPU ausgeht, die halb so viel (300 Watt) im Durchschnitt verbraucht, sind es noch 94 Euro im Jahr. Und ich finde 3 Stunden an 5 Tagen die Woche für jemanden, der Vollzeit berufstätig ist und ein Privatleben hat noch eher zu hoch als zu niedrig angesetzt.

Ich bin auch kein Fan von diesen Monster GPUs, aber man muss das Problem auch nicht künstlich aufbauschen.

Leute, die keine Zeit haben den ganzen Tag am PC zu sitzen, werden an einer 300 Watt GPU garantiert nicht verarmen, auch nicht bei steigenden Strompreisen.
 
Zuletzt bearbeitet:

Schori

BIOS-Overclocker(in)
aha und das weißt du woher?
alles was derzeit kursiert sind nur gerüchte und nicht mehr...
und woher weißt du das die architektur nicht wirklich verändert wird/wurde....
Ich habe nirgends geschrieben, dass ich was weiß.
Was die Architektur angeht, da haben mehrere Seiten, u.a. die PCGH, im Februar schon geschrieben, dass sich die diese kaum ändert. Ob dem noch so ist, KP, ist mir auch egal.
 

kratos30

Komplett-PC-Käufer(in)
Ich habe nirgends geschrieben, dass ich was weiß.
Was die Architektur angeht, da haben mehrere Seiten, u.a. die PCGH, im Februar schon geschrieben, dass sich die diese kaum ändert. Ob dem noch so ist, KP, ist mir auch egal.
Doch hast gemeint das sich daran nicht viel ändert....
Demzufolge tust du so als wüsstest du bescheid...

Wenn man kein kp hat dann sollte man es lassen...

Wenn es einem egal is muss man dann unbedingt seinen Senf dazugeben....
 

shaboo

Software-Overclocker(in)
Wie kommst Du auf 3000 Euro?

Selbst wenn man von 40 Cents die KWh ausgeht und einem durchschnittlichen Verbrauch von 600 Watt der 4090 unterstellt, sind das bei 6 Stunden zocken an 365 Tagen im Jahr Stromkosten in Höhe von 526 Euro jährlich.
Ich denke auch, dass man von der Stromrechnung durch Zocken im Normalfall nicht so schnell arm werden wird.

Bedenklich ist die Entwicklung bei den Strompreisen allerdings schon. Auch wenn die vielleicht nicht in dem Maße explodieren werden, wie die Gaspreise, wird es sicher auch beim Strom steil nach oben gehen.

Nachdem mir mein alter Stromversorger Montana Ende vergangenen Jahres den Preis auf stolze 41 Cent pro kWh erhöhen wollte, bin ich zu unseren örtlichen Stadtwerken zurückgewechselt, wo ich derzeit erträgliche 28 Cent zahle und Preisgarantie bis Anfang 2024 habe. Allerdings ist der Strompreis auch hier für Neukunden mittlerweile auf 36 Cent gestiegen, bei Montana sind's gar 60. Von daher könnten auch 40 Cent für viele schon bald der Vergangenheit angehören :(
 

TriadFish

Freizeitschrauber(in)
Ich denke auch, dass man von der Stromrechnung durch Zocken im Normalfall nicht so schnell arm werden wird.

Bedenklich ist die Entwicklung bei den Strompreisen allerdings schon. Auch wenn die vielleicht nicht in dem Maße explodieren werden, wie die Gaspreise, wird es sicher auch beim Strom steil nach oben gehen.

Nachdem mir mein alter Stromversorger Montana Ende vergangenen Jahres den Preis auf stolze 41 Cent pro kWh erhöhen wollte, bin ich zu unseren örtlichen Stadtwerken zurückgewechselt, wo ich derzeit erträgliche 28 Cent zahle und Preisgarantie bis Anfang 2024 habe. Allerdings ist der Strompreis auch hier für Neukunden mittlerweile auf 36 Cent gestiegen, bei Montana sind's gar 60. Von daher könnten auch 40 Cent für viele schon bald der Vergangenheit angehören :(

Da hast Du nen guten Deal abgeschlossen. Ich hab immerhin 30 Cents bis glaube Oktober 2023 fest geschrieben.

Was mich aber bei der Leistungsaufnahme moderner GPUs am meisten stört sind garnicht mal unbedingt die Stromkosten, sondern die Hitzeentwicklung. Ich merke es jetzt schon mit meiner 2060 Super, dass es in meinem kleinen PC-Zimmer im Hochsommer spürbar wärmer wird, wenn ich spiele. Die Karte zieht unter Volllast gerade mal 175 Watt, meine Rocket Lake CPU in etwa genau so viel.

Da ich aber fast immer im GPU-Limit bin, dümpelt die CPU meistens vor sich hin und verbraucht deutlich weniger. Dazu ein 27 Zoll Hauptmonitor und ein alter 22 Zoll Zweitmonitor, der von der Helligeit schon auf 15% runter geregelt ist. Das reicht aus um das Zimmer deutlich zu erwärmen. Ich frag mich, wie das mit einer GPU aussehen soll, die 350 Watt oder mehr zieht. Ich will da im Sommer nicht wegschmelzen.
 
Oben Unten