Intel Xe: Diskrete Grafikprozessoren sollen Mitte 2020 kommen

3. Intel hat keine gescheiten Grafiktreiber, da fehlen 20 Jahre Entwicklung führt zu 4. keine Games sind Intel GPU Optimiert und 5. Intel Treiber haben keine Game Optimierungen oder Fixes.


Doch haben sie, letztens kam doch erst ein Fifa optimierter Treiber. Sogenannte Game Ready Treiber gab es schon öfter. Du kannst aber auch nicht von heute ausgehen und glauben das sich nichts ändert. Und das mit den 20 Jahren ist ja mal wirklich Quatsch, dann würde Intel ja nichtmal DX9 unterstützen. Auch die Frage, warum man das kaufen sollte ist selten dämlich. Um das zu beantworten muss die Karte erstmal verfügbar sein und getestet werden, damit man Stärken und Schwächen vergleichen kann mit der Konkurrenz. So eine dämliche Frage :ugly:
 
Doch haben sie, letztens kam doch erst ein Fifa optimierter Treiber. Sogenannte Game Ready Treiber gab es schon öfter. Du kannst aber auch nicht von heute ausgehen und glauben das sich nichts ändert. Und das mit den 20 Jahren ist ja mal wirklich Quatsch, dann würde Intel ja nichtmal DX9 unterstützen.

Naaa, es ist aber nochmal was ganz anderes, einen Treiber zu bauen, der 4000-5000 Shader auslasten kann und zwar unter den unterschiedlichsten Bedingungen.
 
Doch das ist klar. Intel hat spätestens am architecture day bestätigt gehabt, dass die Xe über alle Segmente skaliert.

Meinst du dieses Bild?

Raja-Architecture-Day-Final-Press-32-1480x833.jpg

"Enthusiast" soll also automatisch Gaming sein?
 
Intel wird schon eine handvoll Spezialisten auf dem Gebiet von AMD und Nvidia abwerben, die dann entsprechendes Know-How mitbringen. Ihr glaubt doch nicht, dass die bei null anfangen.

Die Spieleindustrie wird (analog Nvidia - Raytracing) gut von Intel gesponsort werden, sodass dann auf die Intel-Architektur optimierte Games nicht allzulang auf sich warten lassen. Könnte spannend werden.
 
Interessantes Detail im Text:

Intel überspringt nun doch zumindest im GPU-Segment den anscheinend seit Jahren total vermurksten 10nm-Fertigungsprozess.

Du solltest noch einmal den ersten Absatz des Artikels lesen, in dem Ausdrücklich der Launch von Intel-10-nm-GPUs beschrieben wird.


Versteh ich immer noch nicht so ganz. 1. wer kauft das 2. wieso sollte man das kaufen 3. Intel hat keine gescheiten Grafiktreiber, da fehlen 20 Jahre Entwicklung führt zu 4. keine Games sind Intel GPU Optimiert und 5. Intel Treiber haben keine Game Optimierungen oder Fixes. Bevor man eine Intel dGPU kauft, kann man auch gleich ins Klo greifen und AMD nehmen. Wurd überhaupt schon irgendwo gesagt, ob da überhaupt Consumer Karten bei sein werden, oder nur Server Segmente?

Intel ist der größte Verkäufer von Grafiklösungen überhaupt und dementsprechend muss jeder Spieleentwickler, der neue Kundenkreise erschließen will, sicherstellen dass sich sein Titel auch auf Intel-Grafiklösungen starten lässt. Bei an Casuals gerichteten Spielen dürfte das sogar der Hauptfokus für die Optimierung sein und umgekehrt war den Intel-Treibern in den letzten Jahren eigentlich nur noch vorzuwerfen, dass sie wenig Option bieten – was Einsteiger aber nicht stört.

Einzig bei Frage 1 schließe ich mich an: Warum kauft man sich extra eine Grafikkarte, auf der die Mehrheit der Spiele dann sowieso grottig aussieht oder als Daumenkino läuft? Entweder man will spielen oder nicht und selbst wer knapp bei Kasse ist, findet am Gebrauchtmarkt leistungsfähigere Angebote. Aber viele Menschen scheinen anders zu denken, sonst würde man mit GTX 1050 und RX550 (und die noch kleineren OEM-Modelle) nicht so viel Umsatz machen.


Ich denke Intel wird sich bei der Architektur schon gedanken gemacht haben und den Prozess dann dafür auch gut nutzen können. Daher kann ich mir schon auch Produkte mit hoher Leistung vorstellen.

Wirklich schlecht waren die Vegas ja auch nicht. Wenn man dann das größere Budget sieht und eventuell etwas mehr Know How, dann hoffe ich schon auf eine kleine Überraschung ;) Positiv gemeint natürlich.

Der aktuellen Gerüchtelage zu Folge hat Intel mittlerweile den Yield im Griff, aber immer noch große Probleme mit dem Taktpotenzial von 10-nm-Produkten. GPUs passen da eigentlich sehr gut in den Rahmen; ggf. ist die Strafe Zeitplanung sogar eine Folge aus diesen Problemen: Man hat Werke/Kapazitäten für eine komplette CPU-Generation in 10 nm hingestellt, kann aber nur (ultra-)mobile-Produkte vom Band laufen lassen. Je nach Umfang der 14-nm-Rückrüstungen könnte Intel also pardoxerweise ungenutzte 10-nm-Kapazitäten für GPUs frei haben, weil der 10-nm-Prozess zu schlecht für CPUs ist.


Naaa, es ist aber nochmal was ganz anderes, einen Treiber zu bauen, der 4000-5000 Shader auslasten kann und zwar unter den unterschiedlichsten Bedingungen.

Eigentlich nicht. Die Shader-Anzahl sollte für den Treiber nicht einmal eine Rolle spielen und der Gesamtdurchsatz ist allgemein ein Frage der CPU-Optimierung. Davon versteht Intel aber aus naheliegenden Gründen sehr viel.
 
Eigentlich nicht. Die Shader-Anzahl sollte für den Treiber nicht einmal eine Rolle spielen und der Gesamtdurchsatz ist allgemein ein Frage der CPU-Optimierung. Davon versteht Intel aber aus naheliegenden Gründen sehr viel.

Eigentlich schon. Es geht auch nicht nur um die reine Shader-Zahl, sondern um die ganze Architektur drum herum. Die Last musst doch auch innerhalb der GPU geschickt verteilt werden. Der Nvidia Treiber ist doch nicht nur so stark wegen der CPU-Lastverteilung unter DX11. :ugly: Das spielt doch eh zukünftig eine kleiner werdende Rolle, denn die LL-APIs verbreiten sich immer stärker.
 
Naja, auf Mittelklasseniveau werden se schon einsteigen, sprich mindestens Navi von diesem Jahr. Ich freu mich jedenfalls, immer schön wenn da mal was Neues skommt, habe aber da derzeit als Kunde nicht viel Hoffnung.

Zudem profitiert ja dann auch Intel vom offenen Hardwarekartell und der Preisabsprache, bzw. Veröffentlichkungsabsprachen, zwischen Nvidia und AMD. Hier wird Intel als weiterer potenter Parasit den Kunden schröpfen, es kann sogar weiter nach oben gehen. Warum nicht die gehobenere Mittelklasse in manchen Custommodellen für 600€ an den Mann bringen?

Ein paar Deppen die sich mit Erklärungsmodellen, wie magischen RT Kernen oder teurem Speicher oder sonst einem Hirnfürzlein abspeißen lassen, die gibt es immer. :D
 
Intel hat doch mit Embree gezeigt, dass sie sehr gute Softwareentwickler haben, und durchaus mit AMD oder Nvidia mithalten können.
https://www.pcgameshardware.de/Worl...are-Raytracing-Direct-X-11-Interview-1334337/

Embree ermöglicht Raytracing so gar noch unter DX11, und dass so gar bei bewegten Objekten.

Nicht umsonst setzen die World of Tanks Entwickler jetzt auf Embree.
Das machen sie weil sie von der Software überzeugt sind.
Und WoT, WoB, u.s.w. sind keine Leichtgewichte, sondern bei den f2p-Games mit führend am PC.

Überhaupt sind die Intel Grafiktreiber sehr stabil, und wurden dafür im 3dcenter öfter gelobt, also nicht halb so schlecht wie der Ruf hier. ^^
 
Zuletzt bearbeitet:
Eigentlich schon. Es geht auch nicht nur um die reine Shader-Zahl, sondern um die ganze Architektur drum herum. Die Last musst doch auch innerhalb der GPU geschickt verteilt werden. Der Nvidia Treiber ist doch nicht nur so stark wegen der CPU-Lastverteilung unter DX11. :ugly: Das spielt doch eh zukünftig eine kleiner werdende Rolle, denn die LL-APIs verbreiten sich immer stärker.

Die Organisation innerhalb der GPU kriegt der Scheduler hoffentlich allein gebacken, denn sonst kannst du dein Spiel in Fph statt Fps genießen, wenn für jeden Schritt erst beim auf der CPU laufenden Treiber nachgefragt werden muss. :-)

Das heißt nicht, dass der Treiber keinen Einfluss auf die GPU-Leistung hat, unzählige Benchmarks beweisen das Gegenteil. Aber da geht es (neben Speicher- und Cache-Nutzung, etc.) um die Leistung pro Shader, nicht um die Organisation dieser untereinander. Wenn der Compiler ein effizienteres Shader-Replacement unterschiebt, entfaltet das auf einer 40-Shader-GPU die gleiche Wirkung wie auf einem 4000-Shader-GPU (vorausgesetzt, sie habe beide in gleichem Maße Reserven bei den fixed Units, im Speicher-Interface, bei der CPU-Leistung, etc. – was in der Praxis natürlich nie der Fall ist.)

Ich würde von Intel also weniger AAA-spezifische Optimierungstreiber erwarten, aber die Grundperformance sollte man aus der geplanten Einsteiger- und etwaigen späteren Mittelklasse-GPUs genauso gut freisetzen können, wie man es heute mit den IGPs macht.
 
Die Organisation innerhalb der GPU kriegt der Scheduler hoffentlich allein gebacken, denn sonst kannst du dein Spiel in Fph statt Fps genießen, wenn für jeden Schritt erst beim auf der CPU laufenden Treiber nachgefragt werden muss. :-)

Der Treiber nimmt Einfluss auf die Reihenfolge der Instruktionen (um die Latenzen zu senken). Wie schlau und universell soll der Scheduler denn sein?

Das heißt nicht, dass der Treiber keinen Einfluss auf die GPU-Leistung hat, unzählige Benchmarks beweisen das Gegenteil. Aber da geht es (neben Speicher- und Cache-Nutzung, etc.) um die Leistung pro Shader, nicht um die Organisation dieser untereinander. Wenn der Compiler ein effizienteres Shader-Replacement unterschiebt, entfaltet das auf einer 40-Shader-GPU die gleiche Wirkung wie auf einem 4000-Shader-GPU (vorausgesetzt, sie habe beide in gleichem Maße Reserven bei den fixed Units, im Speicher-Interface, bei der CPU-Leistung, etc. – was in der Praxis natürlich nie der Fall ist.)

Das mag sein, wenn die Renderaufgaben immer schön sequentiell ablaufen, was auch meistens der Fall ist. Und wenn zwei Aufgaben mal parallel abgearbeitet werden können, dann muss der Treiber entscheiden, was besser ist. Es kann sein, dass A + B parallel zu einer höheren Auslastung führt als A parallel und dann B parallel. Skalierung auf zusätzliche Shader fällt nicht vom Himmel, zumindest nicht immer.
 
Dann zeig doch mal einen Link, wo Intel explizit von Gaming spricht, wenn es um das Launch Jahr 2020 geht.

In der Korrektur zum falsch übersetzen Interview (von Pro Hi-Tech) mit R.Koduri heißt es:

"Not everybody will buy a $500-$600 card, but there are enough people buying those too – so that’s a great market.So the strategy we’re taking is we’re not really worried about the performance range, the cost range and all because eventually our architecture as I’ve publicly said, has to hit from mainstream, which starts even around $100, all the way to Data Center-class graphics with HBM memories and all, which will be expensive. We have to hit everything; it’s just a matter of where do you start? The First one? The Second one? The Third one? And the strategy that we have within a period of roughly – let’s call it 2-3 years – to have the full stack."

Zusätzlich:
"Intel also says the cards will come wielding the 10nm process and arrive in 2020."

Und gemäß Intel-Sheets sind GPGPUs (Datacenter/HPC) mit Foveros-Technik und HBM für 2021 angekündigt (voraussichtlich bereits Anfang des Jahres).

No, Raja Koduri Didn't Say Intel's Discrete GPUs Will Debut at $200 | Tom's Hardware
Intel Teases First Gaming Dedicated Discrete Graphics Card Solution, 2020 Launch

Die hier referenzierte Original-News von Digitimes ist übrigens recht dünn und vage. Der einzige Hinweis auf dedizierte GPUs ist der einleitende Satz "to unveil its first discrete GPU solution ... by the middle of 2020".
Die Jahresmitte hat bisher eher auf Tiger Lake U mit Xe-iGPU hingewiesen, der sich schon länger an dieser Position in Intels Roadmap befindet. Vielleicht zieht Intel aber nun auch (erste) dedizierte GPUs vor, denn bisher war immer die Rede von Ende 2020, gefertigt in 10nm (wahrs. bereits 10nm+).

Intel to unveil discrete 10nm GPU by mid-2020
 
@gerX7a: Danke für die Links. Aber wo geht's da explizit um Gaming Karten, welche in 2020 gelauncht werden? Ich meine, ich will es gar nicht bestreiten, wenn es so wäre. Mir wird das halt nicht so klar aus den gegebenen Infos.
 
Zurück