News Voraussichtlicher Preis der RTX 4070: Weitere Kritik am Preis-Leistungs-Verhältnis

Maybe just me, but: Die 4080 16 GB ist von der Ausstattung an CUDA Cores pp. her eher eine xx70Ti GPU, wenn man die Anzahl der CUDA Cores pp. ins Verhältnis zum Halo Produkt setzt. Ich meine, die 4080 ist nur eine 60% 4090, was m.E. schon ziemlich krass ist - der Gap zwischen 4080 und 4090 ist heftig und lässt sich so nicht erklären. In dem Sinne ist die 4070 auch eher eine xx60Ti, wobei die 4060 (Ti) bei dem beschnittenen Speicher, Speicherschnittstelle und PCIe-Anbindung auch eher xx50 (Ti) Karten sind. Irgendwie fühlt's sich so an, als wolle Nvidia uns allesamt bamboozlen.
Cuda-Kerne sind in der Praxis aber nicht als Leistungsmetric beim Gaming nicht mehr 1:1 einsetzbar.
Die 4090 hat >60% mehr Cuda-Kerne, aber nicht 60% mehr Leistung als die 4080.
Eine 4070Ti hat 25% weniger Cuda-Kerne als eine 3090, ist aber etwa gleich schnell.
Von RTX2000 auf 3000 hat Nvidia die Zahl auch verdoppelt, die Leistung ist aber nicht 1:1 verdoppelt worden.
Nur 3 Beispiele, warum man das nicht mehr machen kann.

Die 4090 hat aber mal eben 50% mehr DIE Fläche als die 4080...ist aber NICHT 50% schneller...wobei das liegt daran das die auch gedrosselt / power limitiert ist.
Man sah ja im 4090 O(C)ster Test vom 1. April, das man die Karte ohne Limit durchaus auf 50% mehr als die 4080 prügeln kann. Aber hier sieht man auch die Limits vom Silicon, denn die Leistung gab es nicht mit 50% mehr Power, sondern eher 100% mit knapp über 600W.

Bei 599$ würde ich hierzulande 649€ tippen.
Der Euro wird stärker, bzw der Dollar aktuell schwächer. Aber NV könnte das letzte hoch als Maß nehmen und 679€ draus machen. Und noch haben wir nicht den Kurs von 2020 wieder erreicht... wo man 1:1 rechnen konnte.
Die Karten abwärts sind sowieso schon jetzt auch als Einstiegskarten aufgrund ihres arg knappen VRAM und weiter beschnittenen Speicherinterface eine Frechheit (zu wahrscheinlich auch gepfefferten Preisen).
Ja das 8GB VRAM bisher ein paar mal nicht ausreichte, das müssten die SPIELE-ENTWICKLER mal beheben. 8GB war lange Zeit die Norm, man nehme z.b. GTX 1080 oder 5700XT, die noch in vielen PCs sind oder neue 6600XTs und 3060Tis
Für 1080p muss man den VRAM Verbrauch einfach noch unter 8GB halten...oder bestimmte Grafikeinstellungen dafür anbieten.
Eine aktuelle Konsole hat 16GB SHARED RAM, also RAM und VRAM zusammen, da funktioniert das auch, aber beim PC will man nicht nur über 8GB VRAM, sondern auch 16-32 GB RAM?

Das Speicherinterface ist doof von Nvidia, da stimme ich voll zu. Der große Cache hilft aber zumindest, solange es kein 4k ist. Die 4070 ist zumindest aber maximal entry level 4k.
Mal sehen wie sehr 1440p bei der 4060Ti ausgebremst wird mit dem noch kleineren Interface und Cache...
Dann hat man NOCH einen Grund, neben dem VRAM, die nicht zu kaufen.
AMD könnte sich das am Low End satt fressen, wenn sie was vernünftiges liefern....
 
Genau das sag ich doch^^


Das soll jetzt keine Philosophiestunde werden (und keinesfalls persönlich sein) - aber wer ernsthaft der Meinung ist, außer Gaming gäbe es nichts im Leben was sich lohnt zu tun und wer zusätzlich noch Erfüllung mit Preis in ein direktes Verhältnis setzt, hat vermutlich wesentlich größere Probleme als zu teure Grafikkarten.
Oder er hat eine Konsole die in der Regel ohne richtig schlechte oder dank Kompatibilitätsproblemen aller Art teils gar unspielbare Games zu release auskommt. Bei den aktuellen HW Preisen kommt dazu noch das eindeutig bessere P/L Verhältniss.
 
Ja das 8GB VRAM bisher ein paar mal nicht ausreichte, das müssten die SPIELE-ENTWICKLER mal beheben. 8GB war lange Zeit die Norm, man nehme z.b. GTX 1080 oder 5700XT, die noch in vielen PCs sind oder neue 6600XTs und 3060Tis
Für 1080p muss man den VRAM Verbrauch einfach noch unter 8GB halten...oder bestimmte Grafikeinstellungen dafür anbieten.
Eine aktuelle Konsole hat 16GB SHARED RAM, also RAM und VRAM zusammen, da funktioniert das auch, aber beim PC will man nicht nur über 8GB VRAM, sondern auch 16-32 GB RAM?
Warum sollen sich Spieleentwickler auf das dumme Verhalten von GPU-Hersteller einstellen? 12 GB der Shared Memory von PS5/XBOXWhatever sind für die Grafikeinheit reserviert. 12 GB sollten daher bei neuen GPUs der Standard sein. Es ist doch absurd, dass PC-Spielern Konsolen vorwerfen, das System PC ausbremsen, während hier GPU-Hersteller das System PC ausbremsen.
 

Anhänge

  • UVP 799 USD.jpg
    UVP 799 USD.jpg
    514,9 KB · Aufrufe: 3
  • fascher Text.jpg
    fascher Text.jpg
    466,6 KB · Aufrufe: 3
Zuletzt bearbeitet von einem Moderator:
Wovon wird hier erzählt ?

64Gb DDr5 6000 CL36 für 229 EUR gekauft, Board Gigabyte x670 lag bei 220 Euro. Teuer ist sehr pauschal.
Teuer ist bei jedem anders festgelegt. Wenn man sich gute Boards bei Intel anschaute, war das kein Problem, dass die Teile 300+ gekostet haben.
Teuer ist wenn ein Board/Bauteil dass vor 1 Jahr noch 130€ gekostet hat plötzlich 260€ kostet. Mein Intel Board Asrocl gaming4 h470 hat 90€ gekostet und ist definitiv ein akzeptables Einsteigerboard. Das aktuell günstigste B650 Board mit gleicher Ausstattung kostet 210€. Das ist für mich teuer. Ich hab bei Intel für 32gb Ram+Board+I5 10400f zusammen 300€ bezahlt. Mit dem Ryzen 7600x, was das aktuelle Gegenstück zum Intel I5 1x400f ist wird dies nicht möglich sein.
 
Teuer ist wenn ein Board/Bauteil dass vor 1 Jahr noch 130€ gekostet hat plötzlich 260€ kostet. Mein Intel Board Asrocl gaming4 h470 hat 90€ gekostet und ist definitiv ein akzeptables Einsteigerboard. Das aktuell günstigste B650 Board mit gleicher Ausstattung kostet 210€. Das ist für mich teuer. Ich hab bei Intel für 32gb Ram+Board+I5 10400f zusammen 300€ bezahlt. Mit dem Ryzen 7600x, was das aktuelle Gegenstück zum Intel I5 1x400f ist wird dies nicht möglich sein.

Früher war das Wohnen in der Höhle auch viel günstiger als heute.

Qualität zieht an. Preis auch. So läuft der Hase und nicht was wir uns gerne wünschen.

Ist der Markt gesättigt, gehen auch die Preise runter. War beim AM4 auch nicht anders war beim Sockel 1200/1700 nicht anders.

Das Einzige was von Nöten wäre, ist Geduld beim Endkunden.

Hätte ich jetzt aufgerüstet, hätte ich im Vergleich zum Dezember 2022 ca 150 bis 200 Euro weniger gezahlt.

Tja, hab aber nach 6 Jahren Ryzen AM4 lust gehabt auf AM5 und DDR5.

Nun ist die Aufrüstkriegskasse erstmal geleert und muss wieder aufgefüllt werden, bis zum nächsten Upgrade irgend wann 2028.

Die aktuellen Boards AM5 Boards kann man mit den Dingern von AM4 nicht vergleichen. Selbst die x570 sehen gegen ein x670 alt aus.

Nach untenhin fehlen Boards, die auch nicht so extrem ausgestattet sind. Da würde ich ansetzen.

Bei meinem Board könnte man Wife, die 4 Vier USB 2.0 Schnittstellen weglassen. Hab allein 4 Slots für eine MVE.

DIe Hersteller merken bereits, das der Absatz zurückgeht, weil nicht alle bereit sind viel Geld in manche Komponenten zu stecken, und das kannn ich voll und Ganz nachvollziehen.

Auf der anderen Seite muss man halt festhalten, das nur durch hochpreisige Produkte, hohe Gehälter, Produkte, Weiterentwicklung möglich sind. Und vielleicht auch ein Grund warum wir in Deutschland zum niedriglohn Land mutiert sind.
 
Zuletzt bearbeitet:
Früher war das Wohnen in der Höhle auch viel günstiger als heute.

Qualität zieht an. Preis auch. So läuft der Hase und nicht was wir uns gerne wünschen.

Ist der Markt gesättigt, gehen auch die Preise runter. War beim AM4 auch nicht anders war beim Sockel 1200/1700 nicht anders.

Das Einzige was von Nöten wäre, ist Geduld beim Endkunden.

Hätte ich jetzt aufgerüstet, hätte ich im Vergleich zum Dezember 2022 ca 150 bis 200 Euro weniger gezahlt.

Tja, hab aber nach 6 Jahren Ryzen AM4 lust gehabt auf AM5 und DDR5.

Nun ist die Aufrüstkriegskasse erstmal geleert und muss wieder aufgefüllt werden, bis zum nächsten Upgrade irgend wann 2028.

Die aktuellen Boards AM5 Boards kann man mit den Dingern von AM4 nicht vergleichen. Selbst die x570 sehen gegen ein x670 alt aus.

Nach untenhin fehlen Boards, die auch nicht so extrem ausgestattet sind. Da würde ich ansetzen.

Bei meinem Board könnte man Wife, die 4 Vier USB 2.0 Schnittstellen weglassen. Hab allein 4 Slots für eine MVE.

DIe Hersteller merken bereits, das der Absatz zurückgeht, weil nicht alle bereit sind viel Geld in manche Komponenten zu stecken, und das kannn ich voll und Ganz nachvollziehen.

Auf der anderen Seite muss man halt festhalten, das nur durch hochpreisige Produkte, hohe Gehälter, Produkte, Weiterentwicklung möglich sind. Und vielleicht auch ein Grund warum wir in Deutschland zum niedriglohn Land mutiert sind.
Stimmt natürlich schon, wobei man bei Intel bereits für vernünftige € B660 Boards gibt. Und die Dinger machen exakt das was sie sollen, die cpu läuft perfekt.
Ich übertakte nicht, hab nur Maus+Tastatur am USB und hab ein Headset mit integriertem Soundchip. Für mich persönlich sind daher diese Einsteigerboards die beste Wahl, >200€ würde ich bei Amd aber auch nicht für solche einfachen Bretter löhnen.
Aktuell ist da Intel besser aufgestellt wenns um P/L geht. Im High-End-Segment wonder Preis nicht so wichtig ist siehts anders aus.
 
Früher war das Wohnen in der Höhle auch viel günstiger als heute.

Qualität zieht an. Preis auch. So läuft der Hase und nicht was wir uns gerne wünschen.

Ist der Markt gesättigt, gehen auch die Preise runter. War beim AM4 auch nicht anders war beim Sockel 1200/1700 nicht anders.

Das Einzige was von Nöten wäre, ist Geduld beim Endkunden.

Hätte ich jetzt aufgerüstet, hätte ich im Vergleich zum Dezember 2022 ca 150 bis 200 Euro weniger gezahlt.

Tja, hab aber nach 6 Jahren Ryzen AM4 lust gehabt auf AM5 und DDR5.

Nun ist die Aufrüstkriegskasse erstmal geleert und muss wieder aufgefüllt werden, bis zum nächsten Upgrade irgend wann 2028.

Die aktuellen Boards AM5 Boards kann man mit den Dingern von AM4 nicht vergleichen. Selbst die x570 sehen gegen ein x670 alt aus.

Nach untenhin fehlen Boards, die auch nicht so extrem ausgestattet sind. Da würde ich ansetzen.

Bei meinem Board könnte man Wife, die 4 Vier USB 2.0 Schnittstellen weglassen. Hab allein 4 Slots für eine MVE.

DIe Hersteller merken bereits, das der Absatz zurückgeht, weil nicht alle bereit sind viel Geld in manche Komponenten zu stecken, und das kannn ich voll und Ganz nachvollziehen.

Auf der anderen Seite muss man halt festhalten, das nur durch hochpreisige Produkte, hohe Gehälter, Produkte, Weiterentwicklung möglich sind. Und vielleicht auch ein Grund warum wir in Deutschland zum niedriglohn Land mutiert sind.
Glaube, es liegt eher an der geringen Konkurrenz, ja Nvidia bietet Qualität, gerade wenn es um bestimmte Technik wie DLSS geht. AMD kann da nicht wirklich mithalten, da selbst DLSS Stufe: Leistung, eine bessere Optik bietet wie FSR. 2.0 Qualität. Die Preise sind einfach unverschämt, wenn ich mir überlege, was ein Mittelklasse-PC kostet. Sagen wir mal Anforderung WQHD mit mittleren Settings und min. 90 fps, da wird man schon gut ne Stange Geld los.
 
Irgendwie fühlt's sich so an, als wolle Nvidia uns allesamt bamboozlen.
Fühlt sich so an, aber die Realität ist, dass AMD einfach mit ihrem Chiplet Ansatz verschissen hat und Nvidia deshalb beschnittene GPUs auflegt, um das Maximum an Marge herauszupressen.
Und seien wir doch mal ehrlich. Mehr als eine 4070 wird es nicht brauchen um mit der 7800XT mitzuhalten, bei fast 100 Watt Verbrauchsunterschied.

Und genauso wenig wie mit der 7900XT oder 7900XT wird AMD die 7800XT verschenken.
Von daher kann man jetzt noch günstig die 6800XT und 6950XT abgreifen, bevor dann der Pipecleaner aka RTX 4070 kommt, der die Karten dann entweder noch stärker im Preis drückt, oder AMD die Produktion einstellt.
Mal sehen wie sehr 1440p bei der 4060Ti ausgebremst wird mit dem noch kleineren Interface und Cache...
Dann hat man NOCH einen Grund, neben dem VRAM, die nicht zu kaufen.
Das Interface oder der Cache spielen doch gar keine Rolle. Was am Ende zählt ist die Leistung und das ganz bestimmt nicht in dem albernen 4K. Nvidia hat übrigens auf Nachfrage bestätigt, dass die 4060Ti und 4060 auch als 16GB Modelle aufgelegt werden.
 
Glaube, es liegt eher an der geringen Konkurrenz, ja Nvidia bietet Qualität, gerade wenn es um bestimmte Technik wie DLSS geht. AMD kann da nicht wirklich mithalten, da selbst DLSS Stufe: Leistung, eine bessere Optik bietet wie FSR. 2.0 Qualität. Die Preise sind einfach unverschämt, wenn ich mir überlege, was ein Mittelklasse-PC kostet. Sagen wir mal Anforderung WQHD mit mittleren Settings und min. 90 fps, da wird man schon gut ne Stange Geld los.

Unverschämt ist manche Optimierung bei manchen Spielen. Ich schätze Entwickler machen bei dem SPiel mit, war ja nie anderes, aber auch nicht so extrem. CD Project Red ist ja als Intel/Nvidia Fan boy bekannt, würde ich behaupten.

Nvidia geizt auch extrem mit dem Vram.

FSR 2.0 fand ich echt gut, aber das ist auch nur eine zwischenlösung bis man entweder irgendwann komplett auf Raytracing gesetzt oder die Performance signifikant erhöhen konnte. Eigentlich ein Armutszeugnis, dass man nicht mehr Leistung bereitstellen will oder kann.

Die andere Sache die man bemängeln kann sind die Spiele selbst, da wird für manchen Titel eine Hardware angesetzt, bei der man sich fragt warum eigentlich.

Ein positives Beispiel: Ni No kuni 2 Schicksal eines Königreichs hab ich 2018 auf der Ps4 in 1080p @30Fps gezockt später auf der PS4 pro in 4K @30Fps.

Am PC zock ich es in 2K mit meiner Reservekarte GTX 1070 und hab ca 140Fps bei maximalen EInstellungen, dies ist nochmal ein anderes Spielgefühl wie auf der PS4.

PC Games sollte man vielleicht erst auf PS5/XSX optimieren entwickeln und dann auf PC portieren, dann bleiben die Optik und Anforderungen in einem gesunden Verhältnis.
Fühlt sich so an, aber die Realität ist, dass AMD einfach mit ihrem Chiplet Ansatz verschissen hat und Nvidia deshalb beschnittene GPUs auflegt, um das Maximum an Marge herauszupressen.
Und seien wir doch mal ehrlich. Mehr als eine 4070 wird es nicht brauchen um mit der 7800XT mitzuhalten, bei fast 100 Watt Verbrauchsunterschied.

Und genauso wenig wie mit der 7900XT oder 7900XT wird AMD die 7800XT verschenken.
Von daher kann man jetzt noch günstig die 6800XT und 6950XT abgreifen, bevor dann der Pipecleaner aka RTX 4070 kommt, der die Karten dann entweder noch stärker im Preis drückt, oder AMD die Produktion einstellt.

Das Interface oder der Cache spielen doch gar keine Rolle. Was am Ende zählt ist die Leistung und das ganz bestimmt nicht in dem albernen 4K. Nvidia hat übrigens auf Nachfrage bestätigt, dass die 4060Ti und 4060 auch als 16GB Modelle aufgelegt werden.


Das Problem ist eher, warum sollte AMD im HIGH END Hardware investieren, wenn die Leute so oder so Nvidia kaufen. Nur damit Nvidia die Preise senkt? Wir brauchen tatsächlich Intel um das Problem zu lösen.
 
Zuletzt bearbeitet:
Nvidia hat übrigens auf Nachfrage bestätigt, dass die 4060Ti und 4060 auch als 16GB Modelle aufgelegt werden.
Wirklich? Gibt es 4GB VRAM Chips auf dem Markt? Wäre aber mal wieder komisch wegen der 4070 und co, die nur 12GB VRAM haben.. :D
Das Problem ist eher, warum sollte AMD im HIGH END Hardware investieren, wenn die Leute so oder so Nvidia kaufen. Nur damit Nvidia die Preise senkt? Wir brauchen tatsächlich Intel um das Problem zu lösen.
Warum sollte Intel in HIGH END Hardware investieren, wenn die Leute so oder so Nvidia kaufen...
 
Wirklich? Gibt es 4GB VRAM Chips auf dem Markt? Wäre aber mal wieder komisch wegen der 4070 und co, die nur 12GB VRAM haben.. :D

Warum sollte Intel in HIGH END Hardware investieren, wenn die Leute so oder so Nvidia kaufen...
Die haben den Pat Gelsinger der hat EGO genug, dass er Intel auch im GPU Markt gerne vorne sehen würde.

Genug MRD zum Verbrennen sind auch vorhanden. Abgesehen davon, wer Intel kauft wäre eher geneigt eine schnelle Intel GPu zu kaufen, statt Nvidia oder AMD, den Synergieeffekt würde ich nicht unterstätzen.

Und Intel würde gerne den gleichen Reibach mit GPU´s machen wie Nvidia potenzial wäre vorhanden.

Raytracing ist brauchbar auf den Karten, mit Vram geizt man nicht.
 
Zurück