Aber bedenke doch mal was aktuell in den Konsolen ist.
Da ist eine schwache AMD GPU drin und trotzdem zaubern die damit einiges auf den Bildschirm. Zusätzlich ist Nvidia aktuell effizienter unterwegs. Gleiche Leistung bei weniger Verbrauch und die Möglichkeiten mit DLSS.
Schwach? Zeig mir jemanden, der in dem Formfaktor mit integrierter Graphic vergleichbare Performance liefert.
In den Konsolen ist meist eben KEINE (dedizierte) GPU drin, sondern eine iGPU, bestenfalls ein SoC.
Formfaktor. Schau Dir mal mobile Nvidia GPUs in Laptops an. So effizient und stromsparend sind die garnicht.
(plus das, was
@4thVariety sagt: Node-Unterschied)
All die Punkte oben gelten für Nvidia nur im High-End-Bereich. Im Mid- zu Low-Ende dreht sich das oft.
Bei SoC und iGPU erst recht.
Die Möglichkeiten von Upscaling kommen leider erst bei höheren Quellauflösungen so richtig zum tragen.
z.B. QHD -> 4K
Bei niedrig auflösendem Quellmaterial ist das Ergebnis of ernüchternd.
Z.B. 720p -> HD
(Wahrnehmung auch abhängig von der Bildschirmgröße)
Daher hat sich die Hoffnung, aus Alterschwachen Graphiklösungen lebensverlängernd weiterhin gute Qualität in höheren Auflösungen/ ausreichend Performance bei gleichbleibender Auflösung zu ziehen, bisher kaum erfüllt.
DLSS kann im High End Punkten, im Low-End hilft es nicht, aus Silber Gold zu machen.
Das soll nicht heissen, dass die Konsolen davon keinen gebrauch machen werden. Sie werden ganz sicher Upscaling nutzen und 4k out-put anbieten.
Aber das können andere Lösungen auch (evtl. entwicklet SONY gar seine eigene Upscaling- und Raytracing-Prozesse). Ich wollte damit andeuten, dass DLSS derzeit oben im Torten-Bereich die Créme de la Créme darstellt, unten im Kuchen und Gebäcksektor aber viel von seinem Glanz einbüsst.
Und da bewegen sich Konsolen. State-of-the-art Mid-Range, das mit Systemintegration, Festverdrahtung und genau auf die Hardware abgestimmter Code-Optimierungen das maximum aus diesem herausholt.
D.h.: wie gut einem auch immer DLSS aus dem High-End-PC-Bereich erscheinen mag, das Argument verliert stark an Gewicht
Nvidia wäre sehr gut vorstellbar in Konsolen. Welche CPU dazu ist dann eher die knackige Frage:
AMD oder Intel? Hat ARM überhaupt was passendes, Abwärtskompatibel sollte es besser sein.
Nvidia "sehr gut" vorstellbar in Konsolen? Wie denn? So mit Nintendo-Switch-Leistung?
Was die CPU angeht braucht man in Konsolen eher Parallelität, nicht so sehr hohe Hz und sparsam/kühl.
Da dürfte AMD die Nase vorn haben. Zumal sie auch Erfahrung und jahrelangen Kundenbezug bei Custom-Lösungen haben.
Zudem dürfte AMD den Vorteil mitbringen, dass bei SoC die Komponenten Prozessing, Graphic, System-RAM und Kommunikation untereinander, bzw. geteilte Resourcen Datenaustausch, etc.
aus einer Hand kommen und besser miteinander verzahnt und aufeinander abgestimmt werden können.
Es ist der riesen Vorteil von AMD, dass sie CPU, als auch GPU machen.
Und der Grund, warum Nvidia unbedingt ARM wollte und warum Intel versucht, im GPU-Sektor Fuss zu fassen.
Nächste Frage: Würde Nvidia überhaupt rechtzeitig bereit sein für die nächste Generation? PS 6 ist bestimmt schon in Planung. Die Dev Kits müssen ja locker 1 Jahr (schätze ich mal) vorher fertig sein, damit Spiele dafür gemacht werden können.
Nein. Wenn sie jetzt erst in Richtung Custom schwenken.
Sondierungen und Gespräche mit den Kunden dürften schon länger dauern. Diese dann an Bord zu holen und von den Fähigkeiten des Produktes und den eigenen zu überzeugen. Dann mit ihnen in ein Entwicklungs-Kooperation zu gehen. Komplett neue Chip-Designs dauern i.d.R. 4 Jahre, Abwandlungen basierend auf bestehenden können 2 bis 1 Jahr (je nachdem, wieviel abgewandelt wird. Valve hatte z.B. Glück mit dem ersten SteamDeck-Chip, weil der schon für einen anderen Kunden vorlag, der dann nicht wollte und sich für den neuen geradezu Usecase anbot. Für einen ersten Testrun und First-of-a-kind natürlich glücklich; nach dem Erfolg kann man darauf aufbauend in die vollen gehen in der nächsten Runde).
Das dürfte auch ein Grund sein, warum Consolen-Entwickler nicht mal eben den Design-Partner wechseln - genauso wie Server.
Da steckt ein etablierter Markt und Kundenerwartungen dahiniter. Da geht man mit bewährtem und Planungssicherheit.
Da muss man schon über länger Zeiträume, signifikante Vorteile und Zuverlässigkeit beweisen. (Umso beeindruckender ist ja das Server-Wachstum von AMD in den letzten Jahren).
Selbst wenn jetzt Nvidia all sein Geld in den Ring schmeisst und komplett auf eigene Kosten den Kunden ein parallel entwickeltes Prototypen-Produkt zur trotzdem laufenden Entwicklung mit ihren langjährigen Partener offerierte - um dann am Ende zu sehen, welches Produkt besser abschneidet und sich dann dafür zu entscheiden ...
Selbst dann müssten die Produktionskapazitäten, in-time Massenfertigung und Auslieferung gewährleistet sein.
Und dann gibt es noch Veträge, geschätzte Abnahmemengen, Return of Inverst Mischkalkulationen, etc.
z.B. Sony müsste dann wahrscheinlich immer noch eine Mindestmenge an AMD-Chips abnehmen, da sie ja schon mit diesen parallel entwickelt hätten.
Also ich glaub nicht, dass man von heute auf morgen da was sehen wird.
Ich lass mich gerne überraschen. Vielleicht gibt es ja technische Prozesse und Möglichkeiten, die in meiner Vorstellung fehlen.
"Alan Weckel": Gib's zu,
@PCGH_Sven, der Name steht doch nie im Leben so in der Quelle, den musst du dir ausgedacht haben.
Eventuell ist der Gute auch das lebende Vorbild für Remedys zweites Wortspiel.
MfG
Raff
DOCH! Ich hab auch nicht schlecht gestaunt und dachte, die Rechtschreibkorrektur hat zugeschlagen und einen Frankenstein aus Alan Wake und was auch immer erzeugt.
Reuters schreibt tatsächlich von "
Alan Weckel"
Ich wäre dafür, wenn ihr von nun an in allen Alan-Wake-Artikeln als Runninig-Gag nur noch "Alan Wackel-Dackel" schreibt.