Intel: Integrierte GPUs sollen diskreten Grafikeinheiten unter die Arme greifen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel: Integrierte GPUs sollen diskreten Grafikeinheiten unter die Arme greifen

Um die sonst ungenutzte Rechenkraft von integrierten Grafikeinheiten in Hauptprozessoren zur Entlastung dedizierter Grafikeinheiten zu nutzen, arbeitet Intel an einem neuen Software Development Kit für Spieleentwickler.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel: Integrierte GPUs sollen diskreten Grafikeinheiten unter die Arme greifen
 
Ganz so neu ist das aber auch nicht, gab es ja schon in der Vergangenheit wo die iGPU bei der Video Bearbeitung mit manchen Programmen mit dazu geschaltet werden kann.
 
Ganz so neu ist das aber auch nicht, gab es ja schon in der Vergangenheit wo die iGPU bei der Video Bearbeitung mit manchen Programmen mit dazu geschaltet werden kann.
Richtig. Eigentlich wünsche ich mir das seit Sandy Bridge, dass man der iGPU Aufgaben zuweisen kann. Möglich wäre etwa auch (via OpenCL) Physik oder KI Berechnung. Dafür hätten die iGPUs genug Power.
 
Grundlage ist die mit Microsofts DirectX 12 eingeführte Multi-GPU-Technologie mit der "Explicit Multi-Adapter"-Spezifikation, durch die Spiele-Engines den Rendering-Traffic an beliebige Kombinationen oder Marken von GPUs senden können, die die API unterstützen, um eine Leistungssteigerung gegenüber einer einzelnen GPU zu erreichen

Hmmm... könnte das langsam in Richtung Chiplet GPUs gehen oder gar ein revival von SLI/Crossfire geben? :hmm::sabber:
Mal nachlesen was "Explicit Multi-Adapter" genau ist :gruebel:
 
Das schon wieder so ein leicht peinlicher Fehler, direkt in der Überschrift...
Was sollen bitte diskrete Grafikeinheiten sein, da war doch wohl ehr dediziert gemeint?

Wieso? Laut DUDEN korrekt.

"durch endliche Intervalle oder Abstände voneinander getrennt "

Beispiele
  • diskrete Halbleiter, Bauteile
  • eine diskrete (nicht integrierte) Schaltung

Du meinst sicher, die diskreten Schaltungen werden in Form einer dedizierten Grafikeinheit/Karte verbaut.
So wie auch der Arbeitsspeicher in einen Slot gesteckt wird, und nicht als Cache bereits im Prozessorkern mit fest verankert ist.
Gleiches Prinzip.
Aber kein Problem, bei solchen Wörtern komme ich auch immer leicht ins Stocken.
 
Zuletzt bearbeitet:
Da schimmert doch überall des Raja´s Handschrift durch^^
Verbessertes Asynchronous-Compute und dann noch mGPU-Support finde ich absolut reizend. mGPU ist auch einfach nicht mehr vergleichbar mit SLi oder Corssfire, da es eine viel bessere Qulität und Performance bietet, wenn denn unterstützt.
Die nur geringe Verbreitung dieser Technologie liegt meines Wissens jedoch weniger im Unvermögen von Nvidia oder AMD begründet, sondern viel mehr bei der fehlenden Beachtung durch die Spieleentwickler.
Microsoft hatte für mGPU dabei auch einfache Implementierungsmöglichkeiten offeriert, genauso wie Intel das nun wohl plant, durchgesetzt hat es sich leider dennoch nicht.
 
wie sagt Nvidia so schön

Rechenzeit ist billig
Speicher ist teuer
Schnittstellen sind irrsinnig teuer


Teuer im Sinne von verbrauchen viel Transistoren und Energie, denn man kann ja nur so viel aus em Kühlkörper herausholen. Klar könnte die integrierte Grafikeinheit die Berechnung ausführen, aber in der Summe kostet die Übertragung dann mehr Energie (und wir sprechen hier von einem Faktor der das 100-fache betragen kann), als hätte es die Grafikkarte gleich selbst berechnet. Nvidia rechnet da jede einzelne Operation auf dem Chip in Pico-Joule aus.

Das ist nicht zu verwechseln mit SLI, bei dem jede Karte ihr eigenes Ding macht und sich nicht Zwischenergebnisse hin und herschiebt.
Das ist auch der Grund warum die PC Architektur mal mindestens mehr Strom braucht, um die gleichen Ergebnisse zu erzielen wie eine Konsole. (Innerhalb der gleichen Generation versteht sich)
Das ist vor allem leider der Grund warum Raytracing Zusatzkarten kein so gut gangbarer Weg sind.
Das ist auch der Grund, warum Besitzer eines Ryzen 3400G mit Vega 8 neidisch auf Konsolenbesitzer schauen, bei denen APUs viel besser für Spiele ausbalanciert sind.

Wenn AMD und Nvidia Grafikkarten mit integrierten CPUs verkaufen würden/könnten, wäre von Intel bei Gamern nicht mehr viel zu hören. i7 mit integrierte Grafik ist nicht die Zukunft. 5700XT mit 8 Kern Chiplet schon drin, das ist wohin die Reise geht.

Intel stößt hier an das Problem, dass aus Gamersicht 50% des CPU Dies für eine iGPU draufgehen die niemand braucht. Selbst wenn diese deaktiviert wird, verbessert das die Rechenleistung kaum. Gleichzeitig hat AMD reine CPUs auf dem Markt was weder Spieler noch Office OEMs stört.
 
Wieso? Laut DUDEN korrekt.

"durch endliche Intervalle oder Abstände voneinander getrennt "

Beispiele
  • diskrete Halbleiter, Bauteile
  • eine diskrete (nicht integrierte) Schaltung

Du meinst sicher, die diskreten Schaltungen werden in Form einer dedizierten Grafikeinheit/Karte verbaut.
So wie auch der Arbeitsspeicher in einen Slot gesteckt wird, und nicht als Cache bereits im Prozessorkern mit fest verankert ist.
Gleiches Prinzip.
Aber kein Problem, bei solchen Wörtern komme ich auch immer leicht ins Stocken.
Im allgemeinen meinte man doch immer mit diskreten GPUs die Grafikkarten, aber ist halt etwas schwammig.
Hmmm... könnte das langsam in Richtung Chiplet GPUs gehen oder gar ein revival von SLI/Crossfire geben? :hmm::sabber:
Mal nachlesen was "Explicit Multi-Adapter" genau ist :gruebel:


Naja zumindest unter DX12 im Jahre 2015 glaube ich, wars mal eine Zeit lang Möglich Nvidia und AMD gemeinsam zum Beschleunigen desselben Spiels zu nutzen. Hier gabs dazu sogar Benchmarks (find ich spannend, ist ja nicht nur eine theoretische Spinnerei, drum fett geschrieben):
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity
(Benchmarks sind auf Seite 4 und weiter, du kannst dich aber ein bisschen einlesen. Mixed Multiadapter gibts also schon seit 2015 in DX12
Ashes of the Singularity demonstrates Nvidia, AMD GPUs working side-by-side - ExtremeTech


Das Potential der iGPU, die von vielen hier immer wieder verschmäht wird, sehe ich eigentlich recht oft. Wenn ich am 8 Jahre alten Laptop (2 Kerne) für das Transcoding eines Films wesentlich weniger lang brauche wie in der Arbeit (16 Kerner) - dank QuickSync.
Aber auch wenn ich am 5 Jahre alten HTPC meiner Eltern viele Spiele spielen kann (Alien Isolation) - nur auf der integrierten GPU.
Da ruht halt viel Leistung die in JEDEM Intel Prozessor der ausgeliefert ist drin steckt. Wenn der für gewisse Teilaufgaben prostituiert wird, wär dem wohl niemand abgeneigt. Intel am wenigsten, dann hätten sie vielleicht mal wieder die Performancekrone in irgendwas ;)
 
Zuletzt bearbeitet:
Das hatte AMD doch vor Jahren auch schon einmal versucht mit ihren ersten APU´s und den Radeons der Einstiegsklasse. Hat aber allerdings nur semi gut fuktioniert seinerzeit :schief:. Naja vielleicht fuktioniert es ja unter D3D12 :huh:
 
Ist halt der riesen nachteil den die Fanbyos anfangs nicht wahrhaben wollten (und die meisten auch jetzt nicht):
"LowLevel"-APIs bieten zwar viele Möglichkeiten, diese müssen dann aber ALLE Explizit von den Programmierern genutzt und Entwickelt werden - das kostet sehr viele Resourcen und ist auch sehr Fehleranfällig.
Will man AMD, Intel und Nvidia auf einmal nutzen müssen die Sonderheiten jeder einzelnen Architektur in der Entwicklung berücksichtigt werden, unter den normalen Highlevel-APIs übernehmen diese aufgabe die Treiber.
Es gibt sicher ein paar Sachen bei denen das leicht umzusetzen ist und was bringt - die Effekte von hell/dunkel übergängen auf das menschliche Auge, einfache volumetrische Effekte - die Daten dafür stehen der CPU zur verfügung und das fertige Ergebnis kann an die diskrete GPU übertragen werden.

Mit der Umsetzung als fertiges Packet wird es wohl ein paar geben die es ausprobieren, aber unwahrscheinlich das es viele machen werden, allein schon nur weil Intel draufsteht werden es viele Boykottieren.

Ganz so neu ist das aber auch nicht, gab es ja schon in der Vergangenheit wo die iGPU bei der Video Bearbeitung mit manchen Programmen mit dazu geschaltet werden kann.
Das ist aber etwas anderes als über Spiele-APIs für Echtzeit. Da muss nicht zigg-mal pro Sekunde die Daten synchronisiert werden.

Teuer im Sinne von verbrauchen viel Transistoren und Energie, denn man kann ja nur so viel aus em Kühlkörper herausholen. Klar könnte die integrierte Grafikeinheit die Berechnung ausführen, aber in der Summe kostet die Übertragung dann mehr Energie (und wir sprechen hier von einem Faktor der das 100-fache betragen kann), als hätte es die Grafikkarte gleich selbst berechnet. Nvidia rechnet da jede einzelne Operation auf dem Chip in Pico-Joule aus.
genau deshalb weisen sie ja auch explizit darauf hin das dies für Berechnungen gilt deren Daten sowieso schon der CPU zur verfügung stehen damit eben kein größerer Datentransfer zwischen CPU und GPU nötig ist.
Die Daten einmal Übertragen ist eben nur halb so schlimm wie in beide Richtungen.

Das ist vor allem leider der Grund warum Raytracing Zusatzkarten kein so gut gangbarer Weg sind.
Da gibts andere Probleme, wären aber auch für Spiele durchaus möglich und sind fürs Rendering ganz normal sogar. (Genauso wie PhysX von Ageia und später dann bei Nvidia)
 
Ein guter Schritt nach vorne, da kann man ja endlich öfter sein gesamtes Silizium nutzen. Wobei ich hoffe das Intel recht behält und die Implementierung wirklich so einfach erfolgt. Jede Stunde Mehraufwand in der Entwicklung will gut überlegt werden. Schön auch das es keine Ankündigung ist, sondern sogleich genutzt werden kann und aktuelle Treiber bereits ausgestattet sind.
 
Nur muss die IGP auch nur im Ansatz mit der Leistung der Hauptgpu mithalten können.
Das gabs schon bei Nvidias PhysX. Eine Combi mit 980TI und 950 für PhysX ist langsamer als eine 980TI alleine.
Da muss Intel seine GPUs deutlich aufbohren, das die keine neues Bottleneck werden.
 
[...] Die nur geringe Verbreitung dieser Technologie liegt meines Wissens jedoch weniger im Unvermögen von Nvidia oder AMD begründet, sondern viel mehr bei der fehlenden Beachtung durch die Spieleentwickler. [...]

Eher das typische Henne-Ei-Problem: Die Multi-GPU-Modi von DX12 müssen durch den Entwickler explizit unterstützt werden (Explicit Multiadapter ist gar noch wesentlich aufwändiger, da hier Kommunikationspfade zwischen den GPUs im Detail modelliert und abgestimmt werden müssen). Die Hardware ist teuer, nur die wenigsten Spieler haben zwei GPUs in ihrem System verbaut, ergo gibt es kaum eine Anwenderbasis für derartige Designs. Somit ist schlussendlich auch das Interesse der Entwickler und Publisher gering diesen Mehraufwand zu betreiben und somit gibt es auch kaum entsprechende Titel und daher ...

Beispielsweise demonstierte Oxide Games eine AFR-Version (Implicit Multiadapter) von Ashes of Singularity, die die besten Resultate lieferte, wenn vergleichbar leistungsstarke GPUs kombiniert wurden. In 1440p mit 2x MSAA in HQ zeigte eine R9 Fury X im Mittel 42 Fps und eine GTX 980 Ti 45 FPS. Wenn man diese beiden kombinierte, erhielt man gemittelte 70 Fps. In 4K ließen sich "unspielbare" 32 Fps der Einzelkarten auf zusammengeschaltet gemittelte 52 Fps steigern.

Die Frage wird sein, in wie weit sich Konsolen-Ports um derartige PC-Spezialitäten kümmern wollen. Hier wird der Mehraufwand bei der Portierung gegen die potentiell höheren Umsätze aufzuwiegen sein. Aktuell sieht es daher eher mau aus.
In Bezug auf Mobile-Designs verspricht der Ansatz grunddsätzlich interessant zu sein, da man sich nicht mehr zwischen der stromsparenden, langsamen iGPU und der schnellen, dedizierten Chipsatz-GPU entscheiden muss, sondern tatsächlich in weiten Teilen beide zusammenschalten kann. Für leistungsstarke Notebooks, mobile Workstations und NUCs ist das sicherlich interessant. Auch einen APU-basierten Desktop könnte man bereits durch das Hinzustecken einer vermeintlich kleinen GPU deutlich aufwerten, da die iGPU zuarbeiten kann.
Man wird sehen wohin das führt. Vielleicht sieht man in diesen Arbeiten schon Vorboten zu Intel's kommenden Multi-Chip-Design?

wie sagt Nvidia so schön [...]

"Nvidia rechnet da jede einzelne Operation auf dem Chip in Pico-Joule aus."
Das machen alle Hersteller, insbesondere auch AMD und Intel bei ihren Mobile-Chips und insbesondere auch Intel bei ihren FPGAs und AI-Beschleunigern. Nicht umsonst ist Renoir erneut ein eigenständiges, monolithisches und nicht etwa ein Chiplet-Design und alle AI-Hersteller stehen hier zurzeit grundsätzlich vor dem Problem des beträchtlichen Energiebedarfs pro transportiertem Bit, da die Bandbreiten- und Kapazitätsanforderungen immer weiter steigen. (Allgemein u. a. mit ein Grund, der steigenden Verbreitung von HBM2 und LPDDR5, letzteres nicht nur bei Smartphones, sondern bspw. auch bei günstigen ML-Designs für das Inferencing.)
Abseits dessen skizzierte die Präsentation relativ klar differenzierte Anwendungszenarien, die einen signifikanten Nutzen versprechen.

"Das ist nicht zu verwechseln mit SLI"
Nein, ist es nicht, denn dessen Äquivalent ist der Implicit Multiadapter Modus, der im Wesentlichen ein Alternate Frame Rendering darstellt. Der DX12 Explicit Multiadapter Modus ist weitaus leistungsfähiger aber auch komplexer zu nutzen und unterteilt sich zumden in einen unlinked und einen linked Modus. Erstgeannnter kann unterschiedliche GPUs zusammen nutzen, bei letztgenanntem müssen weitestgehend gleichartige GPUs zusammengefasst werden, die dafür aber wie eine einzige, große GPU erscheinen.

"Das ist auch der Grund warum die PC Architektur mal mindestens mehr Strom braucht, um die gleichen Ergebnisse zu erzielen wie eine Konsole."
Spielt hier aber keine Rolle, weil es hier darum geht verfügbare, jedoch ungenutzt Rechenleistung sinnvoll zu nutzen und selbst nur "etwas" hinzuschalten zu können ist immer noch schneller als gar nichts hinzuschalten zu können.

"Das ist auch der Grund, warum Besitzer eines Ryzen 3400G mit Vega 8 neidisch auf Konsolenbesitzer schauen, bei denen APUs viel besser für Spiele ausbalanciert sind."
Ich gehe man davon aus dass dein relativ unspezifischer Vergleich nicht wortlich zu nehmen ist (alte Zen+-APU und unspezifizierte Konsolen), schlussendlich aber ein Apfel-mit-Birnen-Vergleich. Natürlich kann man einen Formel 1-Boliden mit einem VW Polo vergleichen, sollte dabei nur nicht aus dem Blick verlieren, dass die für komplett unterschiedliche Einsatzzwecke konzipiert sind (trotz der Gemeinsamkeinten wie vier Rädern und einem Lenkrad :-D).

"Wenn AMD und Nvidia Grafikkarten mit integrierten CPUs verkaufen würden/könnten"
AMD tut das bereits ... nennt sich bei denen APU. nVidia kann es grundsätzlich nicht auf x86-Basis, da sie keine Lizenz haben und die werden sie auch absehbar nicht bekommen, da daran weder AMD noch Intel ein Interesse haben.

"wäre von Intel bei Gamern nicht mehr viel zu hören"
Warum sollte das so sein? Trotz deren derzeit magerem Engagement im Consumer-Segment haben die dennoch mit die schnellsten Gaming-CPUs anzubieten. AMD hatte im letzten Quartal einen Desktop-Market Share von unter 20 %. Sollen das ausnahmslos alles Gamer sein, damit sich deine Sichtweise erfüllt, d. h. AMD ist vollkommen erfolglos im OEM-Segment? Intels Gewinne in der CCG werden zweifelsfrei zu einem Großteil auf den OEM-Markt zurückzuführen sein, aber nicht ausnahmeslos und die setzen weitaus mehr Volumen als AMD um .

"Intel stößt hier an das Problem, dass aus Gamersicht 50% des CPU Dies für eine iGPU draufgehen die niemand braucht."
Warum sollte das ein Problem von Intel sein? Das ist bestenfalls ein Problem der Käufer, denn Intel lässt sich das bezahlen. Abseits dessen, da sie immer noch den Großteil des weltweiten OEM-Marktes bedienen, ist das auch durchaus eine sinnvolle Herangehensweise, denn Client-PCs sind nahezu ausschließlich APUs.
Abseits dessen kann Intel seine aktuellen 8-Kerner günstier fertigen als AMD ihre 8-Kerner (und im Vergleich zu AMDs 6-Kernern wird deren Verhältnis noch ungünstiger), d. h. fertigungs(kosten)technisch haben die hier keine Probleme und der Rest ist einfach eine bewußt geplante Preisgestaltung, die sich zudem im OEM-Markt deutlich anders darstellen mag als im Retail-Markt. (Beispielsweise HP und Dell kaufen einen 9900K zweifelsfrei nicht für 510 € pro Stück ein und selbst nicht für ein entsprechendes Preisäquivalent exkl. Umsatzsteuer. ;-))
 
Tja, da bin ich mal gespannt, ob Intel das gut hinbekommt. Generell ist Multi GPU ja am Rückzug, Triple und Quad SLI und CF insgesamt, sind Geschichte, eine zweite RTX 2080Ti hat heute auch kaum noch jemand.

Dazu kommt, dass die IGPs von Intel sehr schwach sind. Schon eine GT 1030 schlägt die starken AMD IGPs und die Iris Pro, die übliche Intel IGP ist nochmal etwa halb so schnell. Von einer GTX 1060 oder RX 580 will ich garnicht reden.

Ferner braucht eine IGP natürlich noch Strom, was wiederum dafür sorgt, dass der Turbo, der CPU, nicht so hoch taktet. Eventuell kann Intel damit einigen Gurkenkarten, wie der GT 1030 oder RX 550, ein klein wenig unter die Arme greifen, mehr vermutlich nicht.

Das schon wieder so ein leicht peinlicher Fehler, direkt in der Überschrift...
Was sollen bitte diskrete Grafikeinheiten sein, da war doch wohl ehr dediziert gemeint?

Es kommt vom Englischen Wort "discrete", was eigenständig oder separat bedeutet und von vielen mit dem englischen Wort "discreet" verwechselt wird, welches dezent, diskret oder verschwiegen bedeutet.

Diese Fehlübersetzung hat sich so im laufe der Zeit festgesetzt. Schön, dass ich nicht der einzige bin, den es stört.
 
[...] Die nur geringe Verbreitung dieser Technologie liegt meines Wissens jedoch weniger im Unvermögen von Nvidia oder AMD begründet, sondern viel mehr bei der fehlenden Beachtung durch die Spieleentwickler. [...]

Eher das typische Henne-Ei-Problem: Die Multi-GPU-Modi von DX12 müssen durch den Entwickler explizit unterstützt werden (Explicit Multiadapter ist gar noch wesentlich aufwändiger, da hier Kommunikationspfade zwischen den GPUs im Detail modelliert und abgestimmt werden müssen). Die Hardware ist teuer, nur die wenigsten Spieler haben zwei GPUs in ihrem System verbaut, ergo gibt es kaum eine Anwenderbasis für derartige Designs. Somit ist schlussendlich auch das Interesse der Entwickler und Publisher gering diesen Mehraufwand zu betreiben und somit gibt es auch kaum entsprechende Titel und daher ...

Beispielsweise demonstierte Oxide Games eine AFR-Version (Implicit Multiadapter) von Ashes of Singularity, die die besten Resultate lieferte, wenn vergleichbar leistungsstarke GPUs kombiniert wurden. In 1440p mit 2x MSAA in HQ zeigte eine R9 Fury X im Mittel 42 Fps und eine GTX 980 Ti 45 FPS. Wenn man diese beiden kombinierte, erhielt man gemittelte 70 Fps. In 4K ließen sich "unspielbare" 32 Fps der Einzelkarten auf zusammengeschaltet gemittelte 52 Fps steigern.

Die Frage wird sein, in wie weit sich Konsolen-Ports um derartige PC-Spezialitäten kümmern wollen. Hier wird der Mehraufwand bei der Portierung gegen die potentiell höheren Umsätze aufzuwiegen sein. Aktuell sieht es daher eher mau aus.
In Bezug auf Mobile-Designs verspricht der Ansatz grunddsätzlich interessant zu sein, da man sich nicht mehr zwischen der stromsparenden, langsamen iGPU und der schnellen, dedizierten Chipsatz-GPU entscheiden muss, sondern tatsächlich in weiten Teilen beide zusammenschalten kann. Für leistungsstarke Notebooks, mobile Workstations und NUCs ist das sicherlich interessant. Auch einen APU-basierten Desktop könnte man bereits durch das Hinzustecken einer vermeintlich kleinen GPU deutlich aufwerten, da die iGPU zuarbeiten kann.
Man wird sehen wohin das führt. Vielleicht sieht man in diesen Arbeiten schon Vorboten zu Intel's kommenden Multi-Chip-Design?

wie sagt Nvidia so schön [...]

"Nvidia rechnet da jede einzelne Operation auf dem Chip in Pico-Joule aus."
Das machen alle Hersteller, insbesondere auch AMD und Intel bei ihren Mobile-Chips und insbesondere auch Intel bei ihren FPGAs und AI-Beschleunigern. Nicht umsonst ist Renoir erneut ein eigenständiges, monolithisches und nicht etwa ein Chiplet-Design und alle AI-Hersteller stehen hier zurzeit grundsätzlich vor dem Problem des beträchtlichen Energiebedarfs pro transportiertem Bit, da die Bandbreiten- und Kapazitätsanforderungen immer weiter steigen. (Allgemein u. a. mit ein Grund, der steigenden Verbreitung von HBM2 und LPDDR5, letzteres nicht nur bei Smartphones, sondern bspw. auch bei günstigen ML-Designs für das Inferencing.)
Abseits dessen skizzierte die Präsentation relativ klar differenzierte Anwendungszenarien, die einen signifikanten Nutzen versprechen.

"Das ist nicht zu verwechseln mit SLI"
Nein, ist es nicht, denn dessen Äquivalent ist der Implicit Multiadapter Modus, der im Wesentlichen ein Alternate Frame Rendering darstellt. Der DX12 Explicit Multiadapter Modus ist weitaus leistungsfähiger aber auch komplexer zu nutzen und unterteilt sich zumden in einen unlinked und einen linked Modus. Erstgeannnter kann unterschiedliche GPUs zusammen nutzen, bei letztgenanntem müssen weitestgehend gleichartige GPUs zusammengefasst werden, die dafür aber wie eine einzige, große GPU erscheinen.

"Das ist auch der Grund warum die PC Architektur mal mindestens mehr Strom braucht, um die gleichen Ergebnisse zu erzielen wie eine Konsole."
Spielt hier aber keine Rolle, weil es hier darum geht verfügbare, jedoch ungenutzt Rechenleistung sinnvoll zu nutzen und selbst nur "etwas" hinzuschalten zu können ist immer noch schneller als gar nichts hinzuschalten zu können.

"Das ist auch der Grund, warum Besitzer eines Ryzen 3400G mit Vega 8 neidisch auf Konsolenbesitzer schauen, bei denen APUs viel besser für Spiele ausbalanciert sind."
Ich gehe man davon aus dass dein relativ unspezifischer Vergleich nicht wortlich zu nehmen ist (alte Zen+-APU und unspezifizierte Konsolen), schlussendlich aber ein Apfel-mit-Birnen-Vergleich. Natürlich kann man einen Formel 1-Boliden mit einem VW Polo vergleichen, sollte dabei nur nicht aus dem Blick verlieren, dass die für komplett unterschiedliche Einsatzzwecke konzipiert sind (trotz der Gemeinsamkeinten wie vier Rädern und einem Lenkrad :-D).

"Wenn AMD und Nvidia Grafikkarten mit integrierten CPUs verkaufen würden/könnten"
AMD tut das bereits ... nennt sich bei denen APU. nVidia kann es grundsätzlich nicht auf x86-Basis, da sie keine Lizenz haben und die werden sie auch absehbar nicht bekommen, da daran weder AMD noch Intel ein Interesse haben.

"wäre von Intel bei Gamern nicht mehr viel zu hören"
Warum sollte das so sein? Trotz deren derzeit magerem Engagement im Consumer-Segment haben die dennoch mit die schnellsten Gaming-CPUs anzubieten. AMD hatte im letzten Quartal einen Desktop-Market Share von unter 20 %. Sollen das ausnahmslos alles Gamer sein, damit sich deine Sichtweise erfüllt, d. h. AMD ist vollkommen erfolglos im OEM-Segment? Intels Gewinne in der CCG werden zweifelsfrei zu einem Großteil auf den OEM-Markt zurückzuführen sein, aber nicht ausnahmeslos und die setzen weitaus mehr Volumen als AMD um .

"Intel stößt hier an das Problem, dass aus Gamersicht 50% des CPU Dies für eine iGPU draufgehen die niemand braucht."
Warum sollte das ein Problem von Intel sein? Das ist bestenfalls ein Problem der Käufer, denn Intel lässt sich das bezahlen. Abseits dessen, da sie immer noch den Großteil des weltweiten OEM-Marktes bedienen, ist das auch durchaus eine sinnvolle Herangehensweise, denn Client-PCs sind nahezu ausschließlich APUs.
Abseits dessen kann Intel seine aktuellen 8-Kerner günstier fertigen als AMD ihre 8-Kerner (und im Vergleich zu AMDs 6-Kernern wird deren Verhältnis noch ungünstiger), d. h. fertigungs(kosten)technisch haben die hier keine Probleme und der Rest ist einfach eine bewußt geplante Preisgestaltung, die sich zudem im OEM-Markt deutlich anders darstellen mag als im Retail-Markt. (Beispielsweise HP und Dell kaufen einen 9900K zweifelsfrei nicht für 510 € pro Stück ein und selbst nicht für ein entsprechendes Preisäquivalent exkl. Umsatzsteuer. ;-))[/QUOTE]

Nur muss die IGP auch nur im Ansatz mit der Leistung der Hauptgpu mithalten können. [...]

Die Präsentation beschreibt genau das Gegenteil, nämlich dass es etliche, ansychrone Tasks gibt, die man gewinnbringend über eine (langsamere) iGPU berechnen lassen kann. (Siehe u. a. Sheet 33)
 
In Games muss sie trotzdem mithalten. Immer mehr Leute wollen >100 oder >>100 FPS haben.
Wenn Intel seinen IGPs nicht langsam einheizt, wird das nichts.
 
Es kommt vom Englischen Wort "discrete", was eigenständig oder separat bedeutet und von vielen mit dem englischen Wort "discreet" verwechselt wird, welches dezent, diskret oder verschwiegen bedeutet.

Diese Fehlübersetzung hat sich so im laufe der Zeit festgesetzt. Schön, dass ich nicht der einzige bin, den es stört.
"discreet" wurde nirgends verwendet und "Diskret" kommt auch nicht vom englischen "discrete" sondern aus dem guten alten Latein - discretus.
Es liegt hier in keinster weise eine "Fehlübersetzung" vor - es ist komplett richtig so. Mich wundert eher wie man das noch immer behaupten kann nachdem die Richtigkeit schon mehrmals hier erklärt wurde.

In Games muss sie trotzdem mithalten. Immer mehr Leute wollen >100 oder >>100 FPS haben.
Wenn Intel seinen IGPs nicht langsam einheizt, wird das nichts.
Bei den neuen Laptop-CPUs sind sie doch schon sehr ordentlich, bei den ganzen Reviews die gerade zu den Ryzen rauskommen sind auch die Intel 10nm öfters mal im vergleich dabei - und die iGPU da kann sich durchaus gegen die von RyzenMobile 4xxx sehen lassen.
 
Zurück