News Custom-Chips: Nvidia soll zukünftig auch Spielkonsolen mit "Custom Silicon" bedienen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Custom-Chips: Nvidia soll zukünftig auch Spielkonsolen mit "Custom Silicon" bedienen

Wie Reuters exklusiv berichtet, beabsichtigt Nvidia eine neuen Geschäftsbereich speziell für Custom-Chips aufzubauen und dafür mehrere Milliarden US-Dollar zu investieren. Bedient werden sollen unter anderem auch künftige Spielkonsolen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Custom-Chips: Nvidia soll zukünftig auch Spielkonsolen mit "Custom Silicon" bedienen
 
Für Industriekunden (wie Auto) wird es für Nvidia darum gehen ähnliche Produkte liefern zu können wie aktuelle AI-Startups. Denn wenn es darum geht den Office-Mainstream und einzelne Produkte (Autos) mit der nötigen KI-Leistung zu versehen, dann reden wir ganz schnell nicht mehr von 500W GPUs, sondern sind wieder bei kleinen M.2 Kärtchen.


Nvidia wird da sicherlich seine eigenen Lösungen für die Industrie präsentieren die sich zwischen 50W und 100W abspielen.


Ich sehe Nvidia vielleicht weiterhin als Lieferant für eine Switch2 mit 10W TDP Chip, aber als Konsolenchip mit 100W-200W TDP sehe ich Nvidia nicht. Das hat imo einen seltsamen Grund. Denn wenn wir bedenken, dass die ganze Konsole unter 200W bleiben sollte, dann kommt dafür maximal eine 4060Ti mit irgendeiner ARM CPU von Nvidia in Frage. Um mit den anderen Konsolen zu konkurrieren müsste Nvidia ihre Konsole auch aggressiv mit dem Attribut 4k vermarkten. Das untergräbt aber die PC Sparte, in der die 4060 als alles vermarktet wird aber bestimmt nicht als 4k.
 
@4thVariety
Aber bedenke doch mal was aktuell in den Konsolen ist.
Da ist eine schwache AMD GPU drin und trotzdem zaubern die damit einiges auf den Bildschirm. Zusätzlich ist Nvidia aktuell effizienter unterwegs. Gleiche Leistung bei weniger Verbrauch und die Möglichkeiten mit DLSS.

Nvidia wäre sehr gut vorstellbar in Konsolen. Welche CPU dazu ist dann eher die knackige Frage:
AMD oder Intel? Hat ARM überhaupt was passendes, Abwärtskompatibel sollte es besser sein.

Nächste Frage: Würde Nvidia überhaupt rechtzeitig bereit sein für die nächste Generation? PS 6 ist bestimmt schon in Planung. Die Dev Kits müssen ja locker 1 Jahr (schätze ich mal) vorher fertig sein, damit Spiele dafür gemacht werden können.
 
Das wird zu 90% and die HPC und AI Kunden gehen. Gaming und Automotive haben viel zu niedrige Margen um für Nvidia attraktiv zu sein. Wenn die Nachfrage so hoch bleibt, wird Nvidia sich weiterhin seine Kunden aussuchen können, da wird die Gaming Sparte dann eher zur Resteverwertung dienen.
 
Zuletzt bearbeitet:
"Alan Weckel": Gib's zu, @PCGH_Sven, der Name steht doch nie im Leben so in der Quelle, den musst du dir ausgedacht haben. :haha: ;) Eventuell ist der Gute auch das lebende Vorbild für Remedys zweites Wortspiel.

MfG
Raff
 
@4thVariety
Aber bedenke doch mal was aktuell in den Konsolen ist.
Da ist eine schwache AMD GPU drin und trotzdem zaubern die damit einiges auf den Bildschirm.
da steckt auch jede Menge Arbeit der Entwickler drin, aber eine Hürde wäre es in der Tat nicht.

Zusätzlich ist Nvidia aktuell effizienter unterwegs. Gleiche Leistung bei weniger Verbrauch und die Möglichkeiten mit DLSS.
Die Effizienz kommt von alleine mit immer besseren TSMC Prozessen. Aktuell produziert Nvidia auf dem 4N (einer 5nm Variante) und AMD ist noch auf zwei verschiedenen 7nm Varianten namens N5 und N6. Da sieht Nvidia natürlich effizienter aus, weil da ist aktuell keine Waffengleichheit. Würde AMD ebenfalls auf einem der 5nm Prozesse von TSMC produzieren, würden wir nicht diesen Unterschied bei der Effizienz sehen.


Nvidia wäre sehr gut vorstellbar in Konsolen. Welche CPU dazu ist dann eher die knackige Frage:
AMD oder Intel?
Nvidia müsste seine eigene CPU mit einbauen. Weder Intel noch AMD würden nur die CPU für eine Konsole liefern wollen im Jahr 2024. Intel würde immer eine Core+Arc Lösung verkaufen wollen und AMD immer irgendwas Ryz+RDNA (oder wie auch immer deren Technologien genannt werden)

Hat ARM überhaupt was passendes, Abwärtskompatibel sollte es besser sein.
ARM kommt aus dem RISC Bereich und das RI steht für "reduzierte Instruktionen." Den vollen Umfang von 64Bit x86 Instruktionen abbilden zu wollen ist problematisch um es milde auszudrücken. Apple hat viel Zeit und Geld in Rosetta gesteckt, damit das per Software-Layer geht, und Nvidia müsste soetwas selber entwickeln, um Abwärtskompatibilität zu bieten. Alternativ müsste jeder Engine-Hersteller seine Engine halt auch auf die Nvidia ARM CPU der Stunde portieren, das würde schon gehen. Besonders wenn Nvidia mal 20 Millionen Konsolen verkauft hat ist das weniger ein Thema. Bestes Beispiel ist die Switch. Da stört sich niemand daran, dass man Spiele von x86 auf nvidia Arm CPUs ändern muss und es ist bereits da.

Nächste Frage: Würde Nvidia überhaupt rechtzeitig bereit sein für die nächste Generation? PS 6 ist bestimmt schon in Planung. Die Dev Kits müssen ja locker 1 Jahr (schätze ich mal) vorher fertig sein, damit Spiele dafür gemacht werden können.

PS4 = 2013, PS5 = 2020, PS6 = 2027?
Wir gehen jetzt in die dritte Generation von Konsolen die effektiv ein PC sind. Die dritte Generation bei der auch der Betriebsystem-Unterbau der gleiche ist. Das nimmt den Druck, dass ein Devkit für die Entwicklung des Spiel unabdingbar ist. Im Hinblick auf Entwicklungszeiten von 3-5 Jahren, sollte man mit Spielen die für einen PS6 Launch im Jahr 2027 geplant sind besser schon abgefangen haben.

Wenn ein Entwickler jetzt ein Spiel anfangen will, das zum Start der PS6 erscheint, dann nimmt der einfach eine 7900XTX oder 4090 und als Proxy. (Sony und MS werden den Enticklern solcher Spiele schon stecken welche GPU in einem PC an der Stelle nicht verkehrt wäre). Wenn es auf den Karten mit 30 oder 60fps läuft, dann auch auf der PS6. Schlimmstenfalls muss der Entwickler halt an den Einstellungen drehen kurz vor Release. Das Dev-Kit braucht der Entwickler nur um sicherzustellen, dass es wirklich auf der verkauften Hardware fehlerfrei läuft; also zum Debugging, nicht zum Entwicklen des Spiel selbst. Die Spiele die dann wirklich die exklusiven Features der Konsole ausnutzen und alles rausholen die haben wir eh noch nie zum Start einer Konsole gesehen. Das sind die Spiele bei denen der Entwickler eine finale Hardware gerne sehen würde.
 
Naja. Wir haben ja gesehen was Nintendo an Leistung für ihr Geld bekommen haben. Ich glaube tatsächlich nicht, dass Nvidia sich in dem Feld durchsetzen wird weil die nicht bereit sind geringe Margen zu akzeptieren, nur ARM-CPUs liefern können und AMD oder auch Intel vermutlich nicht nur CPUs für Konsolen liefern wollen. Sah zumindest in der Vergangenheit so aus. Außerdem wäre es wohl besser wenn Nvidia nicht noch einen stärkeren Griff auf den Gaming-Hardware-Markt bekommt.
 
Aber bedenke doch mal was aktuell in den Konsolen ist.
Da ist eine schwache AMD GPU drin und trotzdem zaubern die damit einiges auf den Bildschirm. Zusätzlich ist Nvidia aktuell effizienter unterwegs. Gleiche Leistung bei weniger Verbrauch und die Möglichkeiten mit DLSS.
Schwach? Zeig mir jemanden, der in dem Formfaktor mit integrierter Graphic vergleichbare Performance liefert.
In den Konsolen ist meist eben KEINE (dedizierte) GPU drin, sondern eine iGPU, bestenfalls ein SoC.

Formfaktor. Schau Dir mal mobile Nvidia GPUs in Laptops an. So effizient und stromsparend sind die garnicht.
(plus das, was @4thVariety sagt: Node-Unterschied)

All die Punkte oben gelten für Nvidia nur im High-End-Bereich. Im Mid- zu Low-Ende dreht sich das oft.
Bei SoC und iGPU erst recht.

Die Möglichkeiten von Upscaling kommen leider erst bei höheren Quellauflösungen so richtig zum tragen.
z.B. QHD -> 4K
Bei niedrig auflösendem Quellmaterial ist das Ergebnis of ernüchternd.
Z.B. 720p -> HD
(Wahrnehmung auch abhängig von der Bildschirmgröße)
Daher hat sich die Hoffnung, aus Alterschwachen Graphiklösungen lebensverlängernd weiterhin gute Qualität in höheren Auflösungen/ ausreichend Performance bei gleichbleibender Auflösung zu ziehen, bisher kaum erfüllt.
DLSS kann im High End Punkten, im Low-End hilft es nicht, aus Silber Gold zu machen.

Das soll nicht heissen, dass die Konsolen davon keinen gebrauch machen werden. Sie werden ganz sicher Upscaling nutzen und 4k out-put anbieten.
Aber das können andere Lösungen auch (evtl. entwicklet SONY gar seine eigene Upscaling- und Raytracing-Prozesse). Ich wollte damit andeuten, dass DLSS derzeit oben im Torten-Bereich die Créme de la Créme darstellt, unten im Kuchen und Gebäcksektor aber viel von seinem Glanz einbüsst.
Und da bewegen sich Konsolen. State-of-the-art Mid-Range, das mit Systemintegration, Festverdrahtung und genau auf die Hardware abgestimmter Code-Optimierungen das maximum aus diesem herausholt.

D.h.: wie gut einem auch immer DLSS aus dem High-End-PC-Bereich erscheinen mag, das Argument verliert stark an Gewicht

Nvidia wäre sehr gut vorstellbar in Konsolen. Welche CPU dazu ist dann eher die knackige Frage:
AMD oder Intel? Hat ARM überhaupt was passendes, Abwärtskompatibel sollte es besser sein.
Nvidia "sehr gut" vorstellbar in Konsolen? Wie denn? So mit Nintendo-Switch-Leistung?

Was die CPU angeht braucht man in Konsolen eher Parallelität, nicht so sehr hohe Hz und sparsam/kühl.
Da dürfte AMD die Nase vorn haben. Zumal sie auch Erfahrung und jahrelangen Kundenbezug bei Custom-Lösungen haben.

Zudem dürfte AMD den Vorteil mitbringen, dass bei SoC die Komponenten Prozessing, Graphic, System-RAM und Kommunikation untereinander, bzw. geteilte Resourcen Datenaustausch, etc.
aus einer Hand kommen und besser miteinander verzahnt und aufeinander abgestimmt werden können.
Es ist der riesen Vorteil von AMD, dass sie CPU, als auch GPU machen.
Und der Grund, warum Nvidia unbedingt ARM wollte und warum Intel versucht, im GPU-Sektor Fuss zu fassen.

Nächste Frage: Würde Nvidia überhaupt rechtzeitig bereit sein für die nächste Generation? PS 6 ist bestimmt schon in Planung. Die Dev Kits müssen ja locker 1 Jahr (schätze ich mal) vorher fertig sein, damit Spiele dafür gemacht werden können.
Nein. Wenn sie jetzt erst in Richtung Custom schwenken.
Sondierungen und Gespräche mit den Kunden dürften schon länger dauern. Diese dann an Bord zu holen und von den Fähigkeiten des Produktes und den eigenen zu überzeugen. Dann mit ihnen in ein Entwicklungs-Kooperation zu gehen. Komplett neue Chip-Designs dauern i.d.R. 4 Jahre, Abwandlungen basierend auf bestehenden können 2 bis 1 Jahr (je nachdem, wieviel abgewandelt wird. Valve hatte z.B. Glück mit dem ersten SteamDeck-Chip, weil der schon für einen anderen Kunden vorlag, der dann nicht wollte und sich für den neuen geradezu Usecase anbot. Für einen ersten Testrun und First-of-a-kind natürlich glücklich; nach dem Erfolg kann man darauf aufbauend in die vollen gehen in der nächsten Runde).

Das dürfte auch ein Grund sein, warum Consolen-Entwickler nicht mal eben den Design-Partner wechseln - genauso wie Server.
Da steckt ein etablierter Markt und Kundenerwartungen dahiniter. Da geht man mit bewährtem und Planungssicherheit.
Da muss man schon über länger Zeiträume, signifikante Vorteile und Zuverlässigkeit beweisen. (Umso beeindruckender ist ja das Server-Wachstum von AMD in den letzten Jahren).

Selbst wenn jetzt Nvidia all sein Geld in den Ring schmeisst und komplett auf eigene Kosten den Kunden ein parallel entwickeltes Prototypen-Produkt zur trotzdem laufenden Entwicklung mit ihren langjährigen Partener offerierte - um dann am Ende zu sehen, welches Produkt besser abschneidet und sich dann dafür zu entscheiden ...
Selbst dann müssten die Produktionskapazitäten, in-time Massenfertigung und Auslieferung gewährleistet sein.
Und dann gibt es noch Veträge, geschätzte Abnahmemengen, Return of Inverst Mischkalkulationen, etc.
z.B. Sony müsste dann wahrscheinlich immer noch eine Mindestmenge an AMD-Chips abnehmen, da sie ja schon mit diesen parallel entwickelt hätten.

Also ich glaub nicht, dass man von heute auf morgen da was sehen wird.
Ich lass mich gerne überraschen. Vielleicht gibt es ja technische Prozesse und Möglichkeiten, die in meiner Vorstellung fehlen.


"Alan Weckel": Gib's zu, @PCGH_Sven, der Name steht doch nie im Leben so in der Quelle, den musst du dir ausgedacht haben. :haha: ;) Eventuell ist der Gute auch das lebende Vorbild für Remedys zweites Wortspiel.

MfG
Raff
DOCH! Ich hab auch nicht schlecht gestaunt und dachte, die Rechtschreibkorrektur hat zugeschlagen und einen Frankenstein aus Alan Wake und was auch immer erzeugt.

Reuters schreibt tatsächlich von "Alan Weckel" :D

Ich wäre dafür, wenn ihr von nun an in allen Alan-Wake-Artikeln als Runninig-Gag nur noch "Alan Wackel-Dackel" schreibt. :ugly:
 
Zuletzt bearbeitet:
Konsolenideologie:
so viel GPU wie möglich, nur so viel CPU wie nötig.

PC Ideologie:
so viel CPU wie möglich, so viel GPU wie möglich.

Sony würde so denken. Man nimmt den RT-PCGH Benchmark von Cyberpunk in 1440p. Da sehen wir die 4070 Super hat 60fps, die wollen wir. 1440p skalieren wir hoch mit [Buzzwort hier einfügen] und nennen es 4k. Die Welt ist damit durchaus zufrieden möchte ich hervorheben. Jetzt fehlt noch eine CPU, da blicken wir wieder in den PCGH CPU Test und sehen 60fps in Cyberpunk, das kann jeder 5600, dann nehmen wir einfach den CPU Teil der PS5 weiter.

Ich hab mal einen PC nach der Methode zusammengestellt, aber gefühlt dreht sich da jedem der Magen um


Einmal mehr. Cyberpunk Raytracing, 4k (dank DLSS) in 60fps. Aber ihr werdet merken, so denkt man nicht am PC. Man wird denken, OMG, wie kannst du solche billigen Teile zusammenwerfen. Mainboardupgrade, sofort, wir brauchen eine dickere CPU, wir brauchen eine AIO, wir brauchen ein besseres Gehäuse. Was kommt am Ende raus? Abstriche bei der GPU, höherer Preis und keine 60fps bei Cyberpunk mehr.

DAS ist der Vorteil der Konsole, der PC Markt ist viel zu oft viel zu unvernünftig Overkill bei der Auswahl der Komponenten. Im beratungsforum würde man mir etwas von CPU Benchmarkwerten in 7Zip und wie schlecht der 5600X darin ist an den Kopf werfen. Da frage ich, wie oft habt ihr Euch gewünscht [SpielX] hätte mehr Frames und würde besser aussehen, im Vergleich zu wie oft habt ihr 7Zip beim zippen zugeschaut und gewünscht es würde schneller gehen?
 
Auch wenn es schmerzhaft werden würde, bin ich eigentlich für alles, was die x86-Herrschaft angreift. ARM wäre schon mal ein Schritt in die richtige Richtung, am besten wäre aber, wenn man direkt den Sprung zu einem offenen Befehlssatz schaffen würde. "Jeder" könnte dafür CPUs herstellen, ohne dass es irgendwelche blöden Lizenzstreitereien gibt.
da steckt auch jede Menge Arbeit der Entwickler drin, aber eine Hürde wäre es in der Tat nicht.
Dass man als Entwickler erst durch wachsende Kenntnisse einer exotischen Hardwarelandschaft gute Ergebnisse erzielen konnte, ist doch seit sieben Jahren vorbei.
ARM kommt aus dem RISC Bereich und das RI steht für "reduzierte Instruktionen." Den vollen Umfang von 64Bit x86 Instruktionen abbilden zu wollen ist problematisch um es milde auszudrücken.
Eigentlich nicht. Eigentlich sind alle CPUs heute RISC-CPUs, weil CISC-Befehle kaum durch Techniken wie Pipelining beschleunigt werden können. Die CISC-CPUs haben halt einen CISC-zu-RISC-Übersetzer vorne dran. Man müsste den Code halt neu kompilieren. Der Trade-Off ist, dass RISC-Kompilate größer ausfallen, dafür aber die Übersetzung im Prozessor wegfällt.
Apple hat viel Zeit und Geld in Rosetta gesteckt, damit das per Software-Layer geht, und Nvidia müsste soetwas selber entwickeln, um Abwärtskompatibilität zu bieten.
Ist halt die Frage, ob man wirklich Emulation braucht. Vielleicht würde es auch reichen, wenn Sony die Spiele offline transkompiliert und dann beide Versionen anbietet. Zugang müssten sie ja haben, wenn sie die Spiele zum Herunterladen anbieten können.
Alternativ müsste jeder Engine-Hersteller seine Engine halt auch auf die Nvidia ARM CPU der Stunde portieren, das würde schon gehen.
Naja, man bräuchte eben statt einem x86-Compiler einen ARM-Compiler, aber die müsste es eigentlich in allen benutzten Sprachen geben. Ansonsten besteht wie gesagt noch die Option der Transkompilierung, wobei die wahrscheinlich ein etwas schlechteres Ergebnis erzielen würde.
 
Für Industriekunden (wie Auto) wird es für Nvidia darum gehen ähnliche Produkte liefern zu können wie aktuelle AI-Startups.
Automotive - zumindest für den Einsatz im Auto selbst, hat Nvidia ziemlich verbrannt.
Durch die letzten Runden im Automotive Multimedia Bereich hat Nvidia ne Menge Brücken eingerissen.
Nvidia hat da aktuell einen echt schlechten Ruf.
 
Auch wenn es schmerzhaft werden würde, bin ich eigentlich für alles, was die x86-Herrschaft angreift. ARM wäre schon mal ein Schritt in die richtige Richtung, am besten wäre aber, wenn man direkt den Sprung zu einem offenen Befehlssatz schaffen würde. "Jeder" könnte dafür CPUs herstellen, ohne dass es irgendwelche blöden Lizenzstreitereien gibt.

Dass man als Entwickler erst durch wachsende Kenntnisse einer exotischen Hardwarelandschaft gute Ergebnisse erzielen konnte, ist doch seit sieben Jahren vorbei.

Eigentlich nicht. Eigentlich sind alle CPUs heute RISC-CPUs, weil CISC-Befehle kaum durch Techniken wie Pipelining beschleunigt werden können. Die CISC-CPUs haben halt einen CISC-zu-RISC-Übersetzer vorne dran. Man müsste den Code halt neu kompilieren. Der Trade-Off ist, dass RISC-Kompilate größer ausfallen, dafür aber die Übersetzung im Prozessor wegfällt.

Ist halt die Frage, ob man wirklich Emulation braucht. Vielleicht würde es auch reichen, wenn Sony die Spiele offline transkompiliert und dann beide Versionen anbietet. Zugang müssten sie ja haben, wenn sie die Spiele zum Herunterladen anbieten können.

Naja, man bräuchte eben statt einem x86-Compiler einen ARM-Compiler, aber die müsste es eigentlich in allen benutzten Sprachen geben. Ansonsten besteht wie gesagt noch die Option der Transkompilierung, wobei die wahrscheinlich ein etwas schlechteres Ergebnis erzielen würde.
[...]Eigentlich nicht. Eigentlich sind alle CPUs heute RISC-CPUs, weil CISC-Befehle kaum durch Techniken wie Pipelining beschleunigt werden können. Die CISC-CPUs haben halt einen CISC-zu-RISC-Übersetzer vorne dran. Man müsste den Code halt neu kompilieren. Der Trade-Off ist, dass RISC-Kompilate größer ausfallen, dafür aber die Übersetzung im Prozessor wegfällt.[...]

Klingt spannend, aber es ändert nichts and er Tatsache das CISC Befehle in den RISC CPU´s fehlen.

Apple setzte damals von IBM RIsc Cpu auf einen Intel. DIe Gründe hab ich hier aufgelistet.

"
Apple hatte zu Beginn noch auf die Architektur von PowerPC-CPUs gesetzt. Diese waren für den multimedialen Einsatz der Macs optimiert.

Später, als die Intel-CPUs mit Multimedia-Erweiterungen nachgezogen sind (MMX, MMX2, ...) konnten die Intel-Prozessoren den PowerPC-Pendants das Wasser reichen, bei teilweise geringeren Kosten.
"

"
Top-Priorität bei den Apple-M-Prozessoren war die Leistungsaufnahme relativ zur Rechenpower. Die Kerne sind dadurch effizienter im Stromverbrauch, allerdings dadurch auch weniger leistungsfähig.

Die Prozessoren verwenden einen RISC-Befehlssatz, also einen Reduced Instruction Set. Mit diesen sehr einfach Befehlen, die tatsächlich sehr schnell verarbeitet werden, muss ein Entwickler dann auskommen.
"

Quelle: https://de.linkedin.com/pulse/apple-m2-risc-vs-cisc-tobias-leißner


Wenn ich es richtig sehe, kann man mit einem RISC Prozessor quasi fast alles machen wie mit einem CISC, aber hat mehr Aufwand, wenn der Befehl fehlt oder es frist aufgrund des fehlenden Befehlsatztes an Gewschwindigkeit.
 
Klingt spannend, aber es ändert nichts and er Tatsache das CISC Befehle in den RISC CPU´s fehlen.
Das macht aber nichts, sie können trotzdem genau das gleiche und auch nicht zwingend langsamer. Wie gesagt, der Code fällt halt größer aus, was unter Umständen Caches und Bandbreiten mehr belasten kann, dafür entfällt die Dekodierung.
Später, als die Intel-CPUs mit Multimedia-Erweiterungen nachgezogen sind (MMX, MMX2, ...) konnten die Intel-Prozessoren den PowerPC-Pendants das Wasser reichen, bei teilweise geringeren Kosten.
Da spielten ja viele Faktoren eine Rolle. Wie da ja steht, konnten die Intels erst dank den Befehlssatzerweiterungen aufschließen. Im Falle von MMX usw. geht es ja hauptsächlich um SIMD-Befehle, die sind zwar mächtig, aber nicht komplex. Der Knackpunkt an SIMD sind die entsprechenden Register und Recheneinheiten. Und jeder RISC- wie auch CISC-Befehlsatz kann auch erweitert werden, um ähnliche, neue Einheiten zu nutzen.
Wenn ich es richtig sehe, kann man mit einem RISC Prozessor quasi fast alles machen wie mit einem CISC, aber hat mehr Aufwand, wenn der Befehl fehlt oder es frist aufgrund des fehlenden Befehlsatztes an Gewschwindigkeit.
Man kann damit wirklich genau so alles machen. Der Unterschied ist grob gesagt, dass ein heutiger CISC-Prozessor einen komplexen Befehl in mehrere einfache Befehle umwandelt und die dann ausführt, während RISC-Code einfach schon direkt aus diesen einfacheren Befehlen besteht.
 
NVIDIA ist einfach fantastisch und ein Vorbild für jedes andere Unternehmen und die politischen und religiösen Führer der Menschheit gleichermaßen. Wenn dieses Unternehmen noch glorreicher wäre, würden wir alle vor Bewunderung platzen. Mehr Bewunderung verdient nur AMD, sich mit dem unbesiegbarem Goliath anzulegen, obwohl er niemals eine gute Grafikkarte mit mit DLSS und G-Sync wird erfinden können! Nicht mal Raytracing kann AMD erfinden und die Grafikkarte kommt auch nicht von ATI. Dumm.
 
Interessant ist das schon.Schade das man keinen Allrounder Entwickeln kann,der CPU und GPU in einem wäre.Ein Chip der sowohl GPU Aufgaben kann und CPU Aufgaben.Wenn Nvidia das könnte,würden sie das doch glatt so machen.
Das wäre in der Tat merkwürdig,aber machbar wäre es irgendwie schon. Man müsst dann den Chip total anderst aufbauen.Und naja wenn man dann alle Aufgaben damit machen kann wie bei der CPU und auch keine Abstriche bei der Qulität der ausgeführten Aufgabe warum auch nicht.Der Aufbau wäre dennoch merkwürdig. Weis nicht ob Nvidia das schafft,aber so stark und mächtig wie Nvidia ist,traue ich denen das mit der Zeit durchaus zu.
 
Zurück