Intel: Integrierte GPUs sollen diskreten Grafikeinheiten unter die Arme greifen

Das hatte AMD doch vor Jahren auch schon einmal versucht mit ihren ersten APU´s und den Radeons der Einstiegsklasse. Hat aber allerdings nur semi gut fuktioniert seinerzeit :schief:. Naja vielleicht fuktioniert es ja unter D3D12 :huh:

dachte ich mir auch , ist jetzt schon ziemlich genau 10 Jahre her und damals waren es AMDs Chipsatz Grafiken die eigentlich damals schon ziemlich Potent waren finde ich , ich hab auf einem 785G Chipsatz lange Zeit Left 4 Dead 2 gespielt und hab damals auch mit dem gedanken gespielt Hybrid Crossfore nannte sich das doch? mit einer HD 4670 zu kombinieren die ich damals hatte ... :)
 
Das ist ja alles schön und gut, aber mit dem Rendering hat das hier alles nichts zu tun. Die iGPU soll für andere Aufgaben eingesetzt werden, nicht um multi GPU a la Ashes of Singularity zu fördern. Wenn es stimmt das z.B. Mesh Deformationen parallel berechnet werden ist das schon ein guter Beitrag der iGPU.
 
Mir wäre viel lieber wenn auch bei jeder DELL Workstation wie bei einem normalen Mainboard in der Bios die iGPU deaktivierbar wäre. Denn momentan habe ich bei meinen Precision 3630 im Gerätemanager die GPU deaktiviert, damit sie nicht immer herein pfuscht. Ist geil, wenn dir Solid Edge plötzlich etwas vorjammert von wegen zu wenig Speicher, weil plötzlich Inteltreiber meint, er sein nun primäre GPU. Und da der Standardtreiber wie der aktuelle von Intel betroffen ist, kann das Problem nicht anders gelöst werden. Und wenn du Glück hast, lässt der Intel Scheiss deine ganze Kiste crashen. Also Intel verkauft mir so schnell in nächster Zeit keine Hardware mehr.
 
Mir wäre viel lieber wenn auch bei jeder DELL Workstation wie bei einem normalen Mainboard in der Bios die iGPU deaktivierbar wäre. Denn momentan habe ich bei meinen Precision 3630 im Gerätemanager die GPU deaktiviert, damit sie nicht immer herein pfuscht. Ist geil, wenn dir Solid Edge plötzlich etwas vorjammert von wegen zu wenig Speicher, weil plötzlich Inteltreiber meint, er sein nun primäre GPU. Und da der Standardtreiber wie der aktuelle von Intel betroffen ist, kann das Problem nicht anders gelöst werden. Und wenn du Glück hast, lässt der Intel Scheiss deine ganze Kiste crashen. Also Intel verkauft mir so schnell in nächster Zeit keine Hardware mehr.

Das ist kein Problem von Intel sonder mit SolidWorks selbst - es kann nicht mit Multi-GPU Situationen umgehen und dazu zählt eben auch iGPU + Dediziert. Das gleiche Problem gibts auch mit Ryzen-APUs.
 
Ja, iGPUs sind heute ziemlich leistungsstark, wäre eine Verschwendung die nicht zu nutzen. Gute Idee von Intel. :daumen:

Und nö, die iGPU muss nicht mit der dGPU mithalten können, wer das behauptet hat den Sinn des Ganzen nicht verstanden. Hier wird kein Crossfire oder ähnliches betrieben, die dGPU rendert das Spiel exklusiv. Die iGPU kann aber eingesetzt werden, um die dGPU bei bestimmten, spezifischen Aufgaben zu entlasten, z.B. bei der Berechnung von diversen Effekten, KI oder ähnliches. Folglich hat die dGPU mehr Resourcen zur Verfügung.

Das ist eine tolle Idee, denn selbst ne olle UHD 630 die sich in vielen Desktop PCs und Laptops befindet, hat schon fast 1 TFLOPs an FP16 Compute-Power.
 
Zuletzt bearbeitet:
"discreet" wurde nirgends verwendet (...)

Dann schau dir doch bitte mal die Folien, in der Originalquelle an. Gleich in der Ersten Folie heißt es "Multi-Adapter Integrated + Discrete GPUs".

Du hast übrigens auch "discreet" mit "discrete" verwechselt.

(...) "Diskret" kommt auch nicht vom englischen "discrete" sondern aus dem guten alten Latein - discretus.

Das gute alte Latein hat auf viele Sprachen und Wortstämme einen Einfluss, unter anderem auch hier. In dem Fall liegen jedoch englische Folien vor und es ist nicht von "discretus" sondern von "discrete" die Rede.

Es liegt hier in keinster weise eine "Fehlübersetzung" vor - es ist komplett richtig so. Mich wundert eher wie man das noch immer behaupten kann nachdem die Richtigkeit schon mehrmals hier erklärt wurde.

Doch es liegt eine Fehlübersetzung vor, da hier eindeutig eine eigenständige oder separate GPU gemeint ist.

Mich wundert es, warum du nicht die Folien durchgegangen bist, mach dies das nächste mal, bevor du dich so weit aus dem Fenster lehnst.
 
Dann schau dir doch bitte mal die Folien, in der Originalquelle an. Gleich in der Ersten Folie heißt es "Multi-Adapter Integrated + Discrete GPUs".
Auf den Folien und im Artikel wird durchgängig "discrete" verwendet - hast du etwas nicht diagnostizierte Legasthenie?

Du hast übrigens auch "discreet" mit "discrete" verwechselt.
Das machst du - nicht ich.



Doch es liegt eine Fehlübersetzung vor, da hier eindeutig eine eigenständige oder separate GPU gemeint ist.
Und das Wort dafür - per Definition - ist "Diskret".

Nicht nur haben es schon mehrere Nutzer vorher erklärt, nein, selbst nachdem ich dich auf deinen Fehler hinweise behauptest du noch immer so einen Schrott? was ist falsch mit dir? lern erst mal lesen wenn du versuchst andere auszubesser - denn so ist dien beitrag nichts weiter als eine Beleidigung alle Schulkinder die Lesen und schreiben lernen.
 
Mittlerweile ist der Gedanke ja nicht mehr als zu jung. Vielleicht weniger drüber reden und lieber mehr vorantreiben ;)

Ich finde es grundsätzlich eine gute Idee, muss nur gut umgesetzt werden.
 

Es ist dasselbe Wort aber hat eine völlig andere Bedeutung.
In dieser ganzen Diskussion allerdings mühseelig. Manche hier spüren wohl Quarantäneerscheinungen/Lageekoller. Geht mal eaus in die Natur.
Ob jetzt extra Grafikkarten geneint sind, oder eine herumidelnde iGPU ist doch völlig wumpe, es geht um das ausnutzen brachliegender Resourcen.
Ob discrete, discreet, diskret, dediziert oder dezidiert ist doch hier nur Wortklauberei
 
Zurück