Eigentlich haben es wir als Kunden in der Hand. Stellt euch mal vor, fast jeder würde eine Karte mit einer GPU der Klasse AD104 oder 106 kaufen, auch wenn es hier schwer vorstellbar ist.
Auf der anderen Seite gibt es aber 2 weitere Punkte: Solche Produkte sind Prestigeobjekte der Firmen selbst und die Kunden fordern es zum Teil auch. Da fragt es sich nur, ob es genug solcher Kunden geben wird...
Ähm, das passiert doch bereits!
Die 104er und 106er Chips sind in der Regel x70er, x60er und evtl kastrierte x50er Karten. Dort ist der Massenmarkt und Produkt verkaufen sich in diesem Bereich millionenfach.
Ein x90er Topmodell hingegen verkauft sich auf Produktlebenszeit höchsten im unteren zehntausender bis hundertausender Bereich.
Also wenn eine 4070 "nur" auf dem Niveau einer 3090 landen sollte, wäre ich schon etwas enttäuscht bei dem hochgelobten Leistungssprung der rumkursiert. Immerhin hat das eine 3070 auch schon im Vergleich zur 2080ti geschafft. Ich hoffe einfach, dass diese großen Sprünge durch die Bank durch für alle Chips gelten. Dem Schema nach sollte also schon eher die 4060 auf 3090 Niveau liegen was schon echt heftig wäre..
Das ist eine utopische Vorstellung.
Normalerweise ist einer x60er des Nachfolgers etwa auf Höhe einer x80er des Vorgängers. Alle x70er sind Pi x Daumen oftmals zwischen 80er bis 90er im selben Schema.
Würde die 4070er die jetzige Top-3090 erreichen, wäre das das eine Sensation. Das ganze noch für 600€ und lediglich 200-300W TDP und man hat eine regelrechte Wunderkarte. In der Wirklichkeit werden wahrscheinlich nicht alle diese Kriterien erreichbar sein und du willst noch mehr?
Eine Mainstream 4060 (Ti?) irgendwo auf 3080 Niveau hingegen ist ein guter Sprung. Vor allem falls die aufgebohrte Raytracingleistung jenseits der 3090 liegen wird wie in Gerüchten angedeutet. Sofern verfügbar werden die Käufer den Händlern die Karten regelrecht aus den Händen reißen!
Geht mir ganz schön auf den Keks, dass Leistung stets über mehr Verbrauch gesteigert wird... warum nicht mal den Ansatz verfolgen mit gleicher oder gar weniger Verbrauch mehr Leistung zu erzielen.
Ja, und die Rennfahrer beschweren sich auch immer über ihre Monster V8 und V12, die Benzin geradezu saufen. Ironischerweise hat die Industrie reagiert und baut bevorzugt Turbos in die Autos ein für kleinere Motoren und Kostenersparnis.
Bei Grafikkarten wird es einen ähnlichen Umschwung geben. Nicht diese Generation, aber sobald die Ersatztechnik vorhanden ist, findet auch der Umschwung in Sachen Verbrauch und Größe statt.
Dann hört man ständig, dass die neuen Karten effizienter sind, weil mehr FPS je Watt.... ist dennoch doof das mehr Watt am Ende verbraucht werden. Überall wird Strom gespart nur die Hardwareentwickler leben noch in einer Welt, wo es keine Klimaänderung gibt.
Halbleiter sind nun einmal an die Physik gebunden, nicht an utopischen Klimaterrorzielen. Jeder Transistor mehr möchte auch mit Energie versorgt werden. Das ändert auch nichts, wenn die Energiekosten pro Transistor durch Effizienz verringert werden.
Der Gesamtstromverbrauch wird trotzdem steigen.
Alle paar Architekturen gibt es dann wieder eine neue Technik, die die Verbräuche theoretisch um die Hälfte wieder senken.
Jetzt soll es gar in Richtung 600 W gehen. Gehts noch? Mein gesamtes System zieht weniger. Früher waren 300 bis 500 W Netzteile Standard, heute musste ja quasi schon 1000 W Netzteile haben.
Das gilt nicht für die Standardkarten, nicht für die überzüchteten Monstermodelle. Auf die Arbeit fährst du selbst wohl auch nicht mit dem Dragster oder dem Formel 1 Wagen.
Hier muss dringend mal ein Umdenken stattfinden!
Bei Entwicklungszeiträumen von vielen Jahren kann ein solches Umdenken immer nur verspätet erfolgen. Es könnte sogar der Fall sein, dass AMD und Nvidia bereits an der Wunderlösung für dieses Problem arbeiten.