Intel Xe: Diskrete Grafikprozessoren sollen Mitte 2020 kommen

Es wird Diskrete Karten geben aber nicht für Endkunden sondern für Große unternehmen Unterverschluss die damit schon arbeiten können.
Bis Intel ihre Karten an uns weitergibt werden wohl noch weitere 2-3 Jahre vergehen
 
Auf dem Architecture Day 2018 (Dez'18) erklärte Intel die volle Spanne der Architektur von "Datacenter und AI, Enthusiast, Mid-Range bis hin zu Integrated + Entry" und erklärte ebenso, dass man weiterhin an einem Release in 2020 festhält. Nebenbei wurde der zuvor verwendete Codename "Arctic Sound" (Gaming-GPU) mittels des universellen "Xe" ersetzt.
Daneben stehen Datacenterbasierte-Xe-Produkte erst offiziell ab 2021 auf Intels Roadmap. Diese werden voraussichtlich auch die ersten Produkte mit Intels 7nm (äquivalent zu TSMCs 5nm) sein.

Auf einem Investor-Meeting stellt Intel eine neue Roadmap zu kommenden 10 und 7nm-Produkten vor – igor sLAB
 
Ok, aber 2018 ist jetzt nicht unbedingt der neuste Stand. Wir werden sehen. Jedenfalls würde ich mich natürlich über neue Produkte freuen.
 
Der Treiber nimmt Einfluss auf die Reihenfolge der Instruktionen (um die Latenzen zu senken). Wie schlau und universell soll der Scheduler denn sein?



Das mag sein, wenn die Renderaufgaben immer schön sequentiell ablaufen, was auch meistens der Fall ist. Und wenn zwei Aufgaben mal parallel abgearbeitet werden können, dann muss der Treiber entscheiden, was besser ist. Es kann sein, dass A + B parallel zu einer höheren Auslastung führt als A parallel und dann B parallel. Skalierung auf zusätzliche Shader fällt nicht vom Himmel, zumindest nicht immer.

Was hat das eine mit dem anderen zu tun?
Ob A + B schneller oder langsamer als A > B ist ändert sich doch nicht, wenn ich von einer 1650 in FHD auf einer 2080 Ti in UHD wechsle. Wie lange ein bestimmter Aufgabenblock berechnet werden muss und ob es sinnvoll ist, diesen parallel zu anderen Aufgaben nach und nach zu bearbeiten (weil z.B. Caching und RAM sonst sowieso nicht nachkommen) oder unter Einsatz der ganzen GPU so schnell wie eben möglich (weil beispielsweise viele andere Prozesse von seinen Ergebnissen abhängen) hängt viel stärker von der Bildrate (und damit Auflösung, Einstellungen, etc. und vor allem Engine/Spiel) ab als von der Breite der GPU. Wir reden hier ja nicht von Hauptprozessoren mit einer Hand voll Kernen, wo man noch über Single- vs. Multithreadoptimierungen philosophieren kann, sondern von "breit" gegen "extrem breit" und einem parallel skalierenden Rechenbedarf pro Frame von "viel" gegen "extrem viel".
 
Was hat das eine mit dem anderen zu tun?
Ob A + B schneller oder langsamer als A > B ist ändert sich doch nicht, wenn ich von einer 1650 in FHD auf einer 2080 Ti in UHD wechsle.

Doch, weil die Aufteilung komplexer wird. Die Bedingungen ändern sich. Man kann doch nicht annehmen, dass man eine Aufgabe einfach so weiter aufdröselt, weil mehr Shader da sind. Das ganze Grid Management ändert sich. Gleichzeitig ausführbare Executions sind begrenzt. Nvidia hat dafür beispielsweise Hyper-Q erfunden. Der Treiber nimmt einen großen Einfluss darauf, wie effizient die Ressourcen genutzt werden. Nvidias Software Fundament ist phänomenal gut in dieser Hinsicht.
 
Naja, auf Mittelklasseniveau werden se schon einsteigen, sprich mindestens Navi von diesem Jahr. Ich freu mich jedenfalls, immer schön wenn da mal was Neues skommt, habe aber da derzeit als Kunde nicht viel Hoffnung.

Zudem profitiert ja dann auch Intel vom offenen Hardwarekartell und der Preisabsprache, bzw. Veröffentlichkungsabsprachen, zwischen Nvidia und AMD. Hier wird Intel als weiterer potenter Parasit den Kunden schröpfen, es kann sogar weiter nach oben gehen. Warum nicht die gehobenere Mittelklasse in manchen Custommodellen für 600€ an den Mann bringen?

Ein paar Deppen die sich mit Erklärungsmodellen, wie magischen RT Kernen oder teurem Speicher oder sonst einem Hirnfürzlein abspeißen lassen, die gibt es immer. :D

Du schreibst immer und immer wieder den gleichen sinnlosen Bullshit. Wenn´s dir nicht passt wie es läuft oder du kein Geld hast bzw. nicht genug von dem Scheiss dann schlage ich vor kauf dir eine Konsole zum zocken oder ein neues Backblech, dann kannst du Keckse backen :P.
 
Rein zum Basteln werde ich auf jeden Fall Xe DG1 kaufen, und selbst testen was Intel da zusammen gebraut hat. ^^

Wie die News richtig darstellt sind dediziert GPUs aber nicht der Schwerpunkt, sondern der professionelle Bereich bei den GPUs, der aktuell extrem von Nvidia dominiert wird.

Zum Basteln dachte ich auch; ich hoffe aber auf "normale" Preise.
Als GPU Hersteller ist Intel der Underdog und sollte nicht für für GTX 1060 - Leistung RTX 2080 Preise aufrufen.
Wenn der Preis stimmt würde ich alleine um mal ne AMD CPU mit ner Intel GPU zu gefeuern eine Karte kaufen.
 
Zurück