News Nvidia Geforce RTX 4070: Erste GPU-Z-Validierung aufgetaucht

Genau dies tut mir momentan richtig weh.
Ich spiel zu ca. 40-50% heutzutage VR und die Probleme der 7000er Serie sind jetzt schon einige Monate bekannt... Aber nicht behoben. Und dann auch noch so unterschiedlich.
Zudem gibt es nur sehr wenige Tester....
Ich denke erstmal auf den 7800x3d aufrüsten zieht mir wenigstens die Frametimes glatt. (Nischen VR Spiel, was aber vom Cache extremst Profitiert).

@Topic: Machen wir uns hier nichts vor. Dies ist eigendlich eine 4060 non Ti....
Ich hatte mir nach dem Release eine 7900xtx gekauft. Ging nach 1 Woche wieder zurück. Einige VR Games starteten nicht mal. Die anderen waren teilweise langsamer als auf meiner 6900xt. Hat sich bis heute auch nichts getan, AMD halt.
 
Das ist halt ein AD-104 mit 25% der Cuda Cores abgeschalten wegen Defekten bei der Herstellung. Effektiv sind da 220mm² von dem Die aktiv. Das ist die gleiche aktive DieSize wie eine 3050! (276mm² im 3060 Vollausbau des GA-106 und dann die 3050 mit 2560 Cuda Cores)

Mit 5888 Cores ist die 4070 effektiv eine 3070 mit extreme Overclocking und Zugang zur großen DLSS 3.0 Paywall.

Die Karte reiht sich in die Serie der Konsolen-Nieten ein. Das sind aktuell alle 8GB Karten die zwar mehr Frames als eine PS5 auf den Schirm bringen, dann aber an der Speichergröße scheitern und effektiv matschigere Texturen haben. Das biegt man imo auch nicht mit Raytracing wieder gerade, die Karten sind jetzt schon Müll. Einmal Returnal starten, RTX on, dann vom Spiel wegen 8GB VRAM ausgelacht werden und das war es dann. Das wäre noch aktzeptabel, wenn man auf einer 20er Serie sitzt, aber für RTX40 Neuware die teurer ist als eine PS5 ist das komplett inakzeptabel. Gibt man sich dann selbst mit 12GB zufrieden, weil es für den Moment gerade so akzeptabel ist? Nvidia spekuliert darauf, dass das die Überlegung ist, damit die Leute für eine 4080 den Geldbeutel aufmachen, ich sage, die RTX40 Serie ist für traditionelle Preisstrukturen ein Komplettverlust.
 
[...]
Grundsätzlich nicht falsch, Nvidia betreibt definitiv Gewinnoptimierung über den verbauten Vram, aber "Sollbruchstelle" und "Ablaufdatum" ist einfach nicht korrekt und völlig überzogen. Man wird alles problemlos Spielen können, dagegen sind die 4Gb einer 6500XT eine "Sollbruchstelle", weil hier wirklich die Gefahr besteht, das aktuelle Titel einfach gar nicht mehr gestartet werden können. Nur weil ich die Texturen ggf. eine Stufe runterstellen muss, ist das kein vorprogrammiertes Ablaufdatum.

Wenn dann sind 8Gb die neuen 6Gb der 1060. Wobei auch das nicht wirklich passt, denn die 1060 6Gb war während seiner Lebenszeit durchaus empfehlenswert (ganz anders natürlich als die 3Gb Version, auch eine 8Gb 4070 wäre heute nicht zu empfehlen), die Karte hat immerhin fast 7 Jahre auf dem Buckel und ist für ihren Einsatzzweck FHD auch immer noch geeignet, wenn auch sicherlich nicht bei Ultra-Settings in aktuellsten Spielen.

Es liest sich hier oft so, als wäre eine 12Gb 4070 spätestens in nem Jahr absolut unbrauchbar/obsolet und das ist einfach nicht wahr. Mag sein, dass in WQHD nicht immer Ultra-Texturen möglich sind (was man für 650€ auch kritisieren kann), aber genau dafür gibt es ja solche Einstellungen auf dem PC. Auch besagte 6Gb einer 1060 reichen noch in so gut wie jedem Spiel, muss man halt bei FHD bleiben und Texturen ggf. auf Mittel runterschrauben.
[...]

Nun ja, Nvidia könnte das schon recht gut steuern.
Viel der aktuellen Features und Verkaufsargumente sind bei Nvidia ja quasi nur Software.
Wenn ich mich nicht irre, läuft doch DLSS 3 auch nur exklusiv auf der 4000er Serie. Dazu gibt es eigentlich von der Hardware-Seite keinen Grund, außer dass Nvidia das so will. Und ist nicht Frame Insertion sehr Vram lasting?

Natürlich wird Nvidia die 4070(ti) nicht komplett per Killswitch abschalten, aber die zukünftigen, tollen Features könnten zufälligerweise ganz knapp nicht mehr in die 12GB Vram passen.

Ja, klar kann man dann immer noch darauf verzichten und die Games ohne spielen, aber der Leistungsabstand wird dann zur 4080 immer größer.

Mit reduzieren Texturen, verzicht auf Bildschärfung, geringerer Auflösung usw. wird man dann immer noch eine flüssige Bildrate bekommen. Die GPU an sich wäre aber zu deutlich mehr fähig, popelt beim zocken aber in der Nase, nur weil der Vram ausgelastet ist.

Bei der 4070(ti) könnte das Verhältnis von reiner GPU-Rechenleistung zu Speicherausbau sehr bald schon zum Problem werden. Vor allem wenn AMD jetzt tatsächlich die 16GB in der Mittelklasse ankommen lässt.
Das der Bedarf daran bei den Spieleentwicklern durchaus da ist, zeigt sich ja an den aktuellen Titel sehr gut.
 
Ich hatte mir nach dem Release eine 7900xtx gekauft. Ging nach 1 Woche wieder zurück. Einige VR Games starteten nicht mal. Die anderen waren teilweise langsamer als auf meiner 6900xt. Hat sich bis heute auch nichts getan, AMD halt.
Hat amd überhaupt mal die Initiative ergriffen und was vorreitermäßiges gemacht? Ich hab den Eindruck das AMD seine Zeit wie auf der Schulbank einfach nur absitzt. Hauptsache es läuft halt irgendwie. Ist halt schade für uns
 
Irgendwie machen mich die Nvidia Karten aktuell einfach nicht an. Können P/L technisch nicht im Ansatz mit AMD mithalten + bieten für so viel Geld einfach zu wenig Speicher. Eine rtx4080 wäre ok...für max 700-800 €. Und das ist für eine gpu auch schon viel Geld.
 
Ich hatte mir nach dem Release eine 7900xtx gekauft. Ging nach 1 Woche wieder zurück. Einige VR Games starteten nicht mal. Die anderen waren teilweise langsamer als auf meiner 6900xt. Hat sich bis heute auch nichts getan, AMD halt.

Evtl. lags ja nicht an der Hardware...?
Weißt schon, Problem sitzt vor der Tastatur und so...

Habs nämlich nach mehr als 20 Jahren NVidia (ja, angefangen mit der GeForce 256)
dann mal mit Radeon versucht und bin bisher mehr als zufrieden...

P.S. das mit der Tastatur war nicht bös gemeint, kann die Tastatur ja nix für.....

Click Bait is ja schon wichtig für ein Onlinemedium, aber die drölfzigste "News" zu irgendeinem
NVidia Furz wird langsam echt fad...

Wenns wenigstens mal eine "News" wäre....
 
Schätze mal die "Wunsch" 650 Euro wird es nicht geben und 700+ Euro schon und dass ist einfach zu viel.

Wenn ich daran denke dass meine 1070Ti wohl gemerkt in abverkauf und in outlat ca.. 550 euro gekostet hat und ich das als viel an gesehen habe ist dass eigentlich viel.

Andere Youtuber meinen ja auch dass es das einzige logische wäre den 500-700 euro markt zu positionieren. Darunter machen sie den 60ziger und 50zigern konkurenz aber die haben zwischen 350-500 euro ehe nix zu suchen die sollten eher so um die 200-350/400 liegen dass wäre viel besser.

Aber Nvidias preis gefüge ist einfach nur noch für die katz. Für den Aktuellen magt sei es da hin gestellt "Okay" aber wenn wir auf die vergangenheit schauen gerade die GTX 10ner karten da wahr wie ich finde es deutlich besser.
Mit RTX20zier wurde es einfach schon schräg dazu kamm immer wieder diese miner u.s.w jetzt die inflation irgend was gibt es immer um die preise zu rechtertigen. Vor allem das Problem ist der magere Vram. Da ist die 12, 16 GB von RX karten von Amd Deutlich besser.
 
Der idle Bug wurde doch längst gefixt.
Nur der altbekannte höhere Verbrauch ist noch vorhanden.
Was ich meinte ist der extrem hohe Verbrauch bei der (Idle-)Nutzung von mehreren Monitoren, da wurde gar nichts gefixt, dass steht weiterhin unter den "Known Issues" beim aktuellsten Adrenalin Treiber 23.4.1
  • High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
Nun ja, Nvidia könnte das schon recht gut steuern.
Viel der aktuellen Features und Verkaufsargumente sind bei Nvidia ja quasi nur Software.
Wenn ich mich nicht irre, läuft doch DLSS 3 auch nur exklusiv auf der 4000er Serie. Dazu gibt es eigentlich von der Hardware-Seite keinen Grund, außer dass Nvidia das so will. Und ist nicht Frame Insertion sehr Vram lasting?

Natürlich wird Nvidia die 4070(ti) nicht komplett per Killswitch abschalten, aber die zukünftigen, tollen Features könnten zufälligerweise ganz knapp nicht mehr in die 12GB Vram passen.
Ich will gar nicht die Produktsegmentierung von Nvidia verteidigen, aber da brauchen die doch keinen Vorwand für. Wie du ja richtig gesagt hast, Frame Generation läuft nur auf RTX 4000, warum? Weil Nvidia sagt, dass es nur da läuft und Punkt. Auch die 24Gb einer 3090 haben nicht geholfen irgendwas zu retten, wenn Nvidia "Kaufanreize" setzen will schneiden sie einfach kompromisslos die alten Zöpfe ab, aber das hat rein gar nichts mit einer künstlich einprogrammierten Sollbruchstelle zu tun. Das macht Nvidia einfach weil sie Nvidia sind.
Ansonsten wird FrameGeneration ja eher als Kombi in DLSS3 verwendet, da dürfte die Vram-Belastung durch eine reduzierte Renderauflösung eher sinken als steigen.
Mit reduzieren Texturen, verzicht auf Bildschärfung, geringerer Auflösung usw. wird man dann immer noch eine flüssige Bildrate bekommen. Die GPU an sich wäre aber zu deutlich mehr fähig, popelt beim zocken aber in der Nase, nur weil der Vram ausgelastet ist.

Bei der 4070(ti) könnte das Verhältnis von reiner GPU-Rechenleistung zu Speicherausbau sehr bald schon zum Problem werden. Vor allem wenn AMD jetzt tatsächlich die 16GB in der Mittelklasse ankommen lässt.
Das der Bedarf daran bei den Spieleentwicklern durchaus da ist, zeigt sich ja an den aktuellen Titel sehr gut.
Die GPU langweilt sich wenn überhaupt nur, wenn man absichtlich die Texturen deutlich zu hoch einstellt und es zu massiven Nachladeproblemen kommt. Ansonsten sieht das ganze vielleicht objektiv schlechter aus (weil man halt die Texturen runterstellen muss), aber die GPU wird trotzdem ganz normal bei 100% Auslastung, 100% Powertarget und guten Frametimes laufen. Wie sehr im gewählten Beispiel dann "High" schlechter aussieht als "Ultra" muss man sehen, größere Einschränkungen werden es auf absehbare Zeit sicher nicht sein (ggf. wird alternativ auch einfach nur FSR oder DLSS eingeschaltet). Nur weil jetzt gerade einige Titel mit massig Vram-Problemen kommen muss man nicht gleich den Kopf in den Sand stecken und alles unter 16Gb verteufeln. Weder die Konsolen noch der etablierte PC-Markt kann mit so viel Vram aufkreuzen, nur weil es möglich ist wird ja nicht plötzlich komplett an der Hardware vorbei entwickelt (Gerade im Hinblick auf die Konsolen dürften 12Gb noch über längere Zeit der Sweetspot sein, solange man sich in ähnlichen Auflösungen bewegt, sprich irgendwo zwischen WQHD und 4k). Negativbeispiele gibt es schon immer, siehe Redfall oder Farcry mit Highres-Texturepack, damit wird man leben müssen.

Bei GPU-Rechenleistung/Speicherausbau bin ich bei dir was die 4070ti betrifft. Die könnte eigentlich 4K, hat aber weder das Interface noch die Kapazitätsbestückung dazu und ist dafür dann auch noch zu teuer. Es ist mir ein absolutes Rätsel, warum sich die Karte noch verhältnismäßig gut verkauft.
Bei der hier besprochenen 4070 ist das mMn deutlich runder, für 650€ bekommt man angemessen viel Vram, nicht mehr und nicht weniger.
AMD kommt nach aktuellen Gerüchten nicht vor Q3 mit der 7800XT (sollte preislich ähnlich liegen, je nachdem wie aggressiv AMD sein will) und alles darunter hat auch keine 16Gb Vram mehr. Besagte Karte kann man aber quasi jetzt schon kaufen, die 7800XT soll etwa die Leistung einer 6950XT erreichen, die bekomme ich auch jetzt schon für 650€ (natürlich mit höherem Stromverbrauch). Keine Ahnung was du mit Mittelklasse meinst, die 6800 wird das günstigste Modell mit 16Gb von AMD bleiben (~530€, günstiger wird die 7800XT keinesfalls), da ändert sich preislich nichts mehr nach unten, höchstens kurzfristig im letzten Abverkauf, man ist also schon längst "angekommen".
 
Zuletzt bearbeitet:
Ich träume von einem zukünftigen Thunderbolt Anschluss an einer Nvidia Grafikkarte. Dann könnte der Speicher einfach extern angekoppelt werden. Das würde mir gefallen. Müsste dann aber Thunderbolt 7,8 oder 9 sein.
 
Na da kann ich mir aber besser eine Custom RX6950XT holen, die es aktuell neu für 650 Euro gibt. Schneller und mit mehr VRAM ausgestattet.
Hier übersiehst du gleich mehrere Punkte, die nicht für die ältere Radeon Karte sprechen.

Effizienz >+++
Raytracing Leistung >++
DLSS3 > ++
DLSS2 > +

V-RAM ist ein Pluspunkt für die Radeon Karte, aber auch der einzige.
Welche Karte schneller ist, ist abhängig vom Nutzerverhalten.
 
Ich träume von einem zukünftigen Thunderbolt Anschluss an einer Nvidia Grafikkarte. Dann könnte der Speicher einfach extern angekoppelt werden. Das würde mir gefallen. Müsste dann aber Thunderbolt 7,8 oder 9 sein.

:haha:
Ja genau, 1.500 € für eine Grafikkarte mit zu wenig Speicher zahlen,
dann in Zukunft eine externe NVidia Speicherbank für 1.000 €
und dann am Besten noch Speicher von NVidia,
weil ja nur der kompatibel ist für 2.000 €....

Junge, Junge, Euch ist echt nicht mehr zu helfen.

Oder bist Du das wieder Jen-Hsun?
Versuchst wieder unter falschem Nick neue "Geschäftspraktiken"
gesellschaftsfähig zu machen?

Ich hoffe das das mit dem Speicher Ironie war...
 
Raytracing Leistung >++
Hallo?
Er sprach von einer 6950 XT für 650 €!!!!
Die NVidia Karten mit genügend Rohleistung für RT fangen gerade mal bei
bei 1.000 € an, also unhaltbarer Kritikpunkt?
In der 650 € Liga ist die 6950 XT aktuell ungeschlagen.

1. Hallo? DLSS ist NVidia exklusiv? Was sollte eine Radeon (älter oder nicht spielt keine Rolle) damit?
2. BTW, bei einer 6950 XT brauchst Du Dir über DLSS keine Sorgen machen,
die hat Leistung satt für native Auflösung und Upscaling
Nein, nicht wirklich. Nur eine technische Machbarkeitserwägung. Externer Speicher an einen sehr schnellen Thunderbolt Speicher als VRAM Ersatz.

Ok, klingt nach Innovation....

Aber wie wärs, wenn Jen-Hsun sich eine Lederjacke weniger kauft und
bei einer 700 € Karte !!!! wenigstens 4GB Speicher oben drauf legt?
So geizig und gierig ist ja nicht mal Dagobert Duck...

Die Diskussionen hier im Forum drehen sich aktuell ja gar nicht um,
wie kann man der Gier von NVidia noch entgegenkommen,
sondern um den Punktm wie kann man nur so gierig sein?
 
Zuletzt bearbeitet:
Das ist halt ein AD-104 mit 25% der Cuda Cores abgeschalten wegen Defekten bei der Herstellung. Effektiv sind da 220mm² von dem Die aktiv. Das ist die gleiche aktive DieSize wie eine 3050!
2,5x AMD Ryzen 7950X 5nm Die size.
Nvidias RTX 3050 wurde in einem spottbilligen 10 nm Samsung Prozess gefertigt.

Die Kostenstrukturen alter Prozesse sind nur bedingt mit aktuellen zu vergleichen. Die Kosten explodieren und die müssen die Konsumer tragen.
Mit 5888 Cores ist die 4070 effektiv eine 3070 mit extreme Overclocking und Zugang zur großen DLSS 3.0 Paywall.
Hast du bezüglich DLSS 3.0 Quellen, die eine Pay Wall nahelegen?

So viel ich gelesen habe, nutzt Nvidia einen Zusatzchip um die Differenzbilder mit möglichst geringer Verzögerung zwischen zwei Frames einzufügen.

Gibt man sich dann selbst mit 12GB zufrieden, weil es für den Moment gerade so akzeptabel ist?
Speichermangel wird mit 12 GB früher oder später auftreten. Das kann in 6 Monaten oder auch erst in 3 Jahren der Fall sein.

Der Käufer wird vor die Wahl gestellt.
 
Zuletzt bearbeitet:

AMD Software: Adrenalin Edition 23.4.1 Release Notes

Fixed Issues

  • Video playback in browsers using hardware acceleration may appear blurry on some AMD Graphics Products, such as the Radeon™ RX 7900 XT.
  • Mouse cursor may appear invisible in Citrix Workspace™.
  • Performance Metrics Overlay may intermittently disappear when playing full-screen videos from STEAM™.

Known Issues

  • High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
  • Video stuttering or performance drop may be observed during gameplay plus video playback with some extended display configurations on Radeon™ RX 7000 series GPUs.
  • Some virtual reality games or apps may experience lower-than-expected performance on Radeon™ RX 7000 series GPUs.
  • Brief display corruption may occur when switching between video and game windows on some AMD Graphics Products, such as the Radeon™ RX 6700 XT.
  • Water corruption in Hogwarts Legacy™ may occur on some AMD Graphics Products, such as the Radeon™ RX 580.
  • Blocky water corruption in Red Dead Redemption 2™ may occur using Vulkan® API.
Bei mir ist es aktuell so, dass ich im Spiel öfters mal ein kurzen Freeze habe, den ich aber mit einem Kniff lösen kann. Manchmal hilft mir auch im Randlos oder Fenstermodus zu spielen. In den meisten SPielen habe ich allerdings aktuell keine Probleme. Die letzten Adrenalin Treiber liefen bei mir problemlos.

Aber die Probleme gibt ja AMD hier auch sauber weiter. Thema VR steht leider auch in den "Known Issues". Geduld ist gefragt.
 
Die vram Diskussion ist echt langsam ?.

Da wo 12 net reichen wird 16 auch keine Bäume mehr rausreißen . Die rohleistung wird zu wenig sein egal ob mit 12 16 oder 20gb.

Damals bei der gtx780 3GB die gleiche Diskussion da, und bis heute war die Anwendungsdauer absolut ok der 780gtx . Da hat die 3GB keinen Abbruch getan. Und so wird das bei der auch.

Was mich eher nervt ist der 192 Bit Speicherinterface !! Für eine 70(ti) ein nogo
Die Rohleistung hat nichts, aber auch nun wirklich nichts mit dem Vram Problem zutun. Raytracing und Texturen, die können dir den Vram auch in Full HD volllaufen lassen.
Evtl. lags ja nicht an der Hardware...?
Weißt schon, Problem sitzt vor der Tastatur und so...

Habs nämlich nach mehr als 20 Jahren NVidia (ja, angefangen mit der GeForce 256)
dann mal mit Radeon versucht und bin bisher mehr als zufrieden...

P.S. das mit der Tastatur war nicht bös gemeint, kann die Tastatur ja nix für.....

Click Bait is ja schon wichtig für ein Onlinemedium, aber die drölfzigste "News" zu irgendeinem
NVidia Furz wird langsam echt fad...

Wenns wenigstens mal eine "News" wäre....
AMD ist scheißse, was VR angeht. Und das sag ich, der eine AMD hat.
 
Hast du bezüglich DLSS 3.0 Quellen, die eine Pay Wall nahelegen?

Wenn du keine RTX4000 hast, sondern nur eine RTX20 oder RTX30, dann gibt es für dich kein DLSS3.0
Das ist eine klassische Paywall. Ein Feature von dem die Firma ausgeht, dass es der Kunde haben will, wird mit einem Kauf verknüpft. Auf einer Plattform auf der alle Software auch auf 10 Jahre alter Hardware läuft (zugegeben, wie halt), ist es schon ein wenig dreist Software zu entwickeln die auf 2 Jahre alter Hardware nicht läuft.
 
Ob DLSS 3/FG wirklich performant auf der 3000er laufen würde wissen wir ja nicht.

DXR ist ja auch auf einer Pascal möglich...nur performant ist das nicht.

Metro.png

Selbst die Raytracing Einsteigerkarten drehen da Kreise um Pascal
Metro+.png

Wenn DLSS 3 also schlechter laufen würde wie ein optimiertes DLSS 2...was hätte das für einen Nutzen?
 
Ja, grüß dich Gott.
Die NVidia Karten mit genügend Rohleistung für RT fangen gerade mal bei
bei 1.000 € an.
Wer bestimmt den Punkt einer ausreichenden Rohleistung?
In der 650 € Liga ist die 6950 XT aktuell ungeschlagen.
Sobald die 4070 gelauncht ist, gibt es mehrere Disziplinen in denen die AMD Karte das nicht ist, und die habe ich kurz umrissen.
1.Hallo? DLSS ist NVidia exklusiv? Was sollte eine Radeon (älter oder nicht spielt keine Rolle) damit?
Erwartest du auf deinen unterkomplexen Versuch einer rhetorischen Frage wirklich eine Antwort?
2. BTW, bei einer 6950 XT brauchst Du Dir über DLSS keine Sorgen machen,
die hat Leistung satt für native Auflösung und Upscaling
Stimmt, denn DLSS ist Nvidia exclusiv und FSR überlegen und sicher meinst du genügend Leistung für Downsampling. Und warum Leistung satt? Woher soll die kommen?

Die 4070 stellt eine 6900XT oder 3080 12G in rasterbasierten Spielen.
Quelle? Rohleistung in TFLOPs.
 
Zuletzt bearbeitet:
Zurück