Der idle Bug wurde doch längst gefixt.
Nur der altbekannte höhere Verbrauch ist noch vorhanden.
Was ich meinte ist der extrem hohe Verbrauch bei der (Idle-)Nutzung von mehreren Monitoren, da wurde gar nichts gefixt, dass steht weiterhin unter den "Known Issues" beim aktuellsten Adrenalin Treiber 23.4.1
- High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
Nun ja, Nvidia könnte das schon recht gut steuern.
Viel der aktuellen Features und Verkaufsargumente sind bei Nvidia ja quasi nur Software.
Wenn ich mich nicht irre, läuft doch DLSS 3 auch nur exklusiv auf der 4000er Serie. Dazu gibt es eigentlich von der Hardware-Seite keinen Grund, außer dass Nvidia das so will. Und ist nicht Frame Insertion sehr Vram lasting?
Natürlich wird Nvidia die 4070(ti) nicht komplett per Killswitch abschalten, aber die zukünftigen, tollen Features könnten zufälligerweise ganz knapp nicht mehr in die 12GB Vram passen.
Ich will gar nicht die Produktsegmentierung von Nvidia verteidigen, aber da brauchen die doch keinen Vorwand für. Wie du ja richtig gesagt hast, Frame Generation läuft nur auf RTX 4000, warum? Weil Nvidia sagt, dass es nur da läuft und Punkt. Auch die 24Gb einer 3090 haben nicht geholfen irgendwas zu retten, wenn Nvidia "Kaufanreize" setzen will schneiden sie einfach kompromisslos die alten Zöpfe ab, aber das hat rein gar nichts mit einer künstlich einprogrammierten Sollbruchstelle zu tun. Das macht Nvidia einfach weil sie Nvidia sind.
Ansonsten wird FrameGeneration ja eher als Kombi in DLSS3 verwendet, da dürfte die Vram-Belastung durch eine reduzierte Renderauflösung eher sinken als steigen.
Mit reduzieren Texturen, verzicht auf Bildschärfung, geringerer Auflösung usw. wird man dann immer noch eine flüssige Bildrate bekommen. Die GPU an sich wäre aber zu deutlich mehr fähig, popelt beim zocken aber in der Nase, nur weil der Vram ausgelastet ist.
Bei der 4070(ti) könnte das Verhältnis von reiner GPU-Rechenleistung zu Speicherausbau sehr bald schon zum Problem werden. Vor allem wenn AMD jetzt tatsächlich die 16GB in der Mittelklasse ankommen lässt.
Das der Bedarf daran bei den Spieleentwicklern durchaus da ist, zeigt sich ja an den aktuellen Titel sehr gut.
Die GPU langweilt sich wenn überhaupt nur, wenn man absichtlich die Texturen deutlich zu hoch einstellt und es zu massiven Nachladeproblemen kommt. Ansonsten sieht das ganze vielleicht objektiv schlechter aus (weil man halt die Texturen runterstellen muss), aber die GPU wird trotzdem ganz normal bei 100% Auslastung, 100% Powertarget und guten Frametimes laufen. Wie sehr im gewählten Beispiel dann "High" schlechter aussieht als "Ultra" muss man sehen, größere Einschränkungen werden es auf absehbare Zeit sicher nicht sein (ggf. wird alternativ auch einfach nur FSR oder DLSS eingeschaltet). Nur weil jetzt gerade einige Titel mit massig Vram-Problemen kommen muss man nicht gleich den Kopf in den Sand stecken und alles unter 16Gb verteufeln. Weder die Konsolen noch der etablierte PC-Markt kann mit so viel Vram aufkreuzen, nur weil es möglich ist wird ja nicht plötzlich komplett an der Hardware vorbei entwickelt (Gerade im Hinblick auf die Konsolen dürften 12Gb noch über längere Zeit der Sweetspot sein, solange man sich in ähnlichen Auflösungen bewegt, sprich irgendwo zwischen WQHD und 4k). Negativbeispiele gibt es schon immer, siehe Redfall oder Farcry mit Highres-Texturepack, damit wird man leben müssen.
Bei GPU-Rechenleistung/Speicherausbau bin ich bei dir was die 4070ti betrifft. Die könnte eigentlich 4K, hat aber weder das Interface noch die Kapazitätsbestückung dazu und ist dafür dann auch noch zu teuer. Es ist mir ein absolutes Rätsel, warum sich die Karte noch verhältnismäßig gut verkauft.
Bei der hier besprochenen
4070 ist das mMn deutlich runder, für 650€ bekommt man angemessen viel Vram, nicht mehr und nicht weniger.
AMD kommt nach aktuellen Gerüchten nicht vor Q3 mit der 7800XT (sollte preislich ähnlich liegen, je nachdem wie aggressiv AMD sein will) und alles darunter hat auch keine 16Gb Vram mehr. Besagte Karte kann man aber quasi jetzt schon kaufen, die 7800XT soll etwa die Leistung einer 6950XT erreichen, die bekomme ich auch jetzt schon für 650€ (natürlich mit höherem Stromverbrauch). Keine Ahnung was du mit Mittelklasse meinst, die 6800 wird das günstigste Modell mit 16Gb von AMD bleiben (~530€, günstiger wird die 7800XT keinesfalls), da ändert sich preislich nichts mehr nach unten, höchstens kurzfristig im letzten Abverkauf, man ist also schon längst "angekommen".