Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Intel den Zeitpunkt völlig verpasst hat ... Stattdessen beginnt man 10 Jahre zu spät.
Der Zeitpunkt ist doch vollkommen richtig. Jetzt nachdem die Preise endlich
auf einem elegant hohen (und steigenden) Niveau angekommen sind.
Ist der Marge sicherlich zuträglich.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Ich bin ja mal gespannt :)

Wenn's klappt fehlt eigentlich nur noch eine NVidia-CPU für ein vollendetes Triopol der drei Grossen.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Chiplets bei GPUs werden definitiv das nächste große Ding. Wie schon bei CPUs sind die riesigen monolithischen DIEs völlig am Ende, Leistungssteigerungen kommen fast nur noch durch kleinere Fertigungsverfahren und mehr und mehr Shader.
Man kann Intel für andere Dinge sicher kritisieren - monolithischem Design gehört aus vielen Gründen sich nicht die Zukunft. Man muß trotzdem Multi-Chips-Packages von Embedded-Multi-Die Interconnect-Plattformen unterscheiden. Einen Interposer braucht man dafür nicht mehr. AMD macht es mit Zen 3000 ja vor. Da geht Intel mit Xe den richtigen Weg - vermutlich haben sie es Koduri zu verdanken.

Genauso trifft dies auf Inputlag von Datenverbindungen und interne GPU-Latenz zu.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Intel hat ja nicht spät angefangen GPUs zu entwickeln. Es waren halt immer GPUs für den geregelten Office Betrieb. Früher gefürchtet als "Integrierte Grafik" auf dem Mainboard, später als 30% verschwendete CPU Oberfläche auf Core-i Prozessoren. Da haben alle ein Jahrzehnt lang teures Silikon gekauft, das nie ein Gamer wirklich benutzt hat oder gebraucht hätte.

Gleichzeitig waren die Anforderungen an die CPU von Seiten der Office User und Windows noch real. Aber inzwischen sind wir an dem Punkt an dem kein Office Benutzer mehr CPU Power braucht. Wenn seit der 4. Generation die Normalos sagen "mein Computer ist langsam", dann meinen die damit "ich will eine SSD" und nicht "meine CPU ist zu langsam". Intel wird massive Probleme haben an diesen Massenmarkt noch neue CPUs zu verkaufen die "schneller" sind, weil wozu? Also muss Intel entweder mit sinkenden Preisen rechen, weil sie nur noch kleine Prozessoren verkaufen, oder sie müssen die Gewichtung ihres Produktes ändern. Ein 500€ i7 ist heute viel CPU und ein klein wenig Grafikkarte. Dieses Kräfteverhältnis kann sich drehen zu Gunsten von immer noch genug CPU, dafür wesentlich mehr GPU Leistung auf unserem 500€ Chip.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Könnte mir schon vorstellen, dass INTEL mit ihrer "Portokasse" was auf die Beine stellt.
Vermutlich aber erst mal Mainstream in 14 +++ nm und später 7 nm zu exorbitanten Preisen.

MfG, Föhn.
Das glaub ich nicht :D.
Meine Glaskugel sagt mir das eine Mittelklasse Karte mit allerhöchstens 75 Watt kommt
und zwar unter 150 Taler, alles andere würde mich sehr überraschen.
Leistung auf 1070/56 Niveau.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

mit Cloud-basierten GPU-Ansätzen

Da reagiere ich aktuell noch allergisch drauf. ;)
Geh' mir wech, mit Cloud(edit: Plus KI-Gedöns) ! :D :cool:

Von Nvidia's DLLSLLLSLSL-Technik, bin ich genauso wenig begeistert.
 
Zuletzt bearbeitet:
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

@Rollora:
"Verpasst/verschlafen" ... nicht so wirklich. GPUs waren bisher nicht wirklich interessant für Intel (abgesehen von ein paar Experimenten) und lediglich als iGPU Beiwerk um Komplett- und mobile PCs zu vertreiben von Nöten. Erst der BigData/ML-Boom, der zum Ende des Xeon Phi führte, brachte die Wende. Und hier dürfte voraussichtlich tatsächlich das Datacenter im Fokus stehen, jedoch muss das für die Consumer-GPUs nicht zwangsweise schlecht sein, weil hier Synnergieeffekte beiden Linien zum Vorteil gereichen können. Am Ende ist der Konsument der Gewinner.

@sunburst1988:
Intel geht über ein einfaches Chiplet/MCM-Design hinaus, denn hier verwendet man (zumindest für das HPC-Design) ein 3D-Stacking aka Foveros. Einfaches MCM/Chiplet-Design ist schon "steinalt" und nicht erst eine Erfindung von AMD mit Zen. Abseits dessen forscht auch nVidia an einem Chiplet-Design, dass sie vor einigen Monaten in Tokyo präsentierten.

@onkel-foehn:
Die ersten Consumer-dGPUs werden Ende 2020 erscheinen, in 10nm+(+) alias P1274, während das HPC-Design offiziell verfügbar wird ab 4Q21 in 7nm als P1276. (Interessant an letzterer, mehrfacher Ankündigung/Zusicherung ist, dass Intel damit bereits ab voraussichtlich 2Q21 in 7nm fertigen wird. Nach den aktuellen Zahlen ist die Logikdichte des Intel-Prozesses gar etwas höher als die der 5 nm-Prozesse von TSMC und Samsung.)

@gastello:
"vermutlich haben sie es Koduri zu verdanken." ... Jain, denn Koduri kam erst im November 2017 zu Intel und auf der SC17 kündigte Intel den Xeon Phi bereits offiziell auf und Xe an, d. h. man arbeitete schon längst an Xe, denn bspw. betroffene Großkunden wussten schon länger vom bevorstehenden Ende der Xeon Phi-Linie. Intel hat weit über 100.0000 Mitarbeiter, Koduri ist sicherlich ein maßgeblicher davon, ist aber, wie auch Jim Keller, nur einer von vielen TopIngenieuren bei Intel.
Insgesamt ist das, was Intel auf seiner Hausmesse vor der SC19 nun präsentierte aber schon recht beeindruckend, nur halt nichts für Consumer, aber das ist ein anderes Thema ;-)
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Bei 30FPS ist er nicht extrem höher - wobei der Mensch zwischen 200 und 300ms braucht - um wahrzunehmen was passiert und dann klickt - oder auch nicht. Inputlag wird daher unterschiedlich stark wahrgenommen.
auch bei solch hohen Reaktionszeiten von 200ms, kann man trozdem definitiv den Unterschied zwischen 110 und 160ms input lag feststellen. aber selbst bei 30 fps zu spielen ist schon nicht so super.

YouTube
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Chiplet-Design bei GPUs? Wenn das funktioniert wäre es natürlich mehr als super. Dass sowas gut skaliert sieht man ja an Ryzen. Es ist nur fraglich ob das auch so einfach zu übertragen ist, Latenzen und so weiter...

Eventuell sollte Intel diesen Ansatz erstmal im CPU-Bereich verfolgen... :D

Intel hat einen entscheidenden Vorteil gegenüber AMD und CPU, was MCMs angeht: EMIB ist einsatzbereit, wurde für die Integration von Vega sogar schon in Endkunden-Grafikprodukten eingesetzt. Damit kann Intel kostengünstig die gleichen Kommunikationsgeschwindigkeiten erreichen, wie AMD mit den riesigen, teuren Interposern der HBM-GPUs und Intel ist nicht auf Kooperationsergebnisse wie der HBM-Interface beschränkt, sondern hat reichlich eigene Erfahrung in der Schnittstellenentwicklung. Bei FPGAs nutzt man die Technik auch schon, um Logikchips transparent miteinander zu verbinden.


Mal sehen ob Intel es im 3. Anlauf schafft...
Sie versuchen wohl alle 11 Jahre erneut, im Grafikkarten-Markt Fuß zu fassen (1998 - Intel i740 AGP; 2009 - Intel Larrabee; 2020 - Intel Xe)... :D

Immerhin starten sie diesmal nicht mit einem Ansatz, der von schon zuvor als bereits gescheitert oder auf absehbare Zeit nicht sinnvoll nutzbar galt – und sich bei den bisherigen Versuchen "überraschenderweise" als nicht mehr oder noch nicht brauchbar herausstellte.
(i740 AGP: Ersatz vollwertigen VRAMs durch Hauptspeicher, schnelle Schnittstelle und kleinen Cache. Auch bekannt als Nvidia Turbocache, ATI Hypermemory oder AMD HBCC. Larrabee: Echtzeitraytraycing :-))
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

@gastello:
"vermutlich haben sie es Koduri zu verdanken." ... Jain, denn Koduri kam erst im November 2017 zu Intel und auf der SC17 kündigte Intel den Xeon Phi bereits offiziell auf und Xe an, d. h. man arbeitete schon längst an Xe, denn bspw. betroffene Großkunden wussten schon länger vom bevorstehenden Ende der Xeon Phi-Linie.

Und Du bist dir sicher - daß das bei Intel so gelaufen ist. Ist es nämlich nicht. Die weitere Entwicklung an Xeon Phi wurde mit Weggang des Entwicklers - soweit ich weiß eingestellt. Dazu wurden auch Vertragsbedingungen für Aurora neu ausgehandelt. Schon da wurde bekannt das es Knights Hill nicht mehr geben wird, da man die Linie nicht canceln konnte - wollte man dann auf Knights Peak setzen. Im nachfolgenden Aurorareport wurde dann ein kompletter Wechsel bei der Arichtektur bekannt gegeben - frag dich mal auf wessen/welcher Basis?

Vermutlich brauchten sie auch jemanden der Ihnen HBM2/HBM3 einbindet. Phi ist tot - es lebe Phi - ist es nicht geworden. Aber egal.

Das man mehrere Stacks nebenher fortentwickelt ist sicher nicht ungewöhnlich. Intel dürfte dafür genug Mittel zur Verfügung haben.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Und Du bist dir sicher ...

Ohne eine offizielle Biographie und Einsichten in den internen Ablauf wird man das nicht vollumfänglich klären können, aber die Timeline erscheint insgesamt zu knapp für eine entscheidende Weichenstellung durch ihn in 2017.

Mitte Sep.: RK arbeitet bei AMD und nimmt eine "Auszeit" und wird ersten Auskünften nach im Dez. zurückkehren.
Anfang Okt.: Die Aurora-Vertragsveränderungen deuten bereits grundsätzliche Änderungen zum Xeon Phi an.
Anfang Nov.: Intel verkündet offiziell die Anstellung von RK.
Mitte Nov.: Intel kündigt offiziell den Xeon Phi zugunsten einer neuen Architektur auf.
Mitte Dez.: Intel veröffentlicht ohne großes Aufsehen den auf AI/ML umgebauten Knights Mill als letzte Xeon Phi-Inkarnation. (Erste Implementation des VNNI-Subsets, das ein Jahr später in Cascade Lake-SP übernommen werden sollte.)

Wie du schon geschrieben hast. Entsprechende Projekte werden durchaus parallel evaluiert und hochgefahren und Intel hat dafür mehr als genug Ressourcen. Der Xeon Phi wird zweifelsfrei nicht abgesägt worden sein und danach hat man erst nach einem Ersatz gesucht. ;-)
Ebenso dürfte der Weggang des Xeon Phi-Chefentwicklers im Vorjahr nicht übermäßig relevant gewesen sein, denn solch komplexe Designs baut nicht ein Ingenieur alleine zusammen (nicht einmal der Chefentwickler). Mit seinen Ressourcen hätte Intel die Position neu besetzen und das Projekt weiterführen können, jedoch hatten sich zu dem Zeitpunkt schon längst die beschränkten Weiterentwicklungsmöglichkeiten der Architektur aufgezeigt (und wesentliche Teile des Marktes haben sich hin zu AI/ML-Workloads gewandelt). Und ebensowenig wird man keinen RK benötigen für so ein vergleichsweise triviales Detail wie die Anbindung von HBM-Speicher. Schließlich ist Intel keine Hinterhofklitsche, die sich plötzlich an HighTech probiert. (Abgesehen davon, dass Intel zu der Zeit schon längst HBM im Hause hatte. Bereits Ende 2016 lieferte Intel über seine Tocher Altera seinen Stratix 10-FPGA aus, der von Intel selbst in 14nm+ gefertigt wurde und vier HBM2-Stacks angebunden hatte.)

Selbst wenn man optimistisch eine Hinwendung von RK zu Intel bereits direkt im Sep.'17 annimmt, so schüttelte der zweifelsfrei nicht mal eben ein fertige Architektur aus dem Ärmel ... was er schon prinzipbedingt gar nicht könnte, da diese IP zu dem Zeitpunkt Eigentum seines bisherigen Arbeitgebers gewesen wäre.
Und seinen aktuellen Äußerungen zufolge scheint er (zumindest derzeit) mehr mit der softwareseitigen Architektur im Rahmen seiner Tätigkeit beschäftigt zu sein. Die grundlegende Weichenstellung/Neuausrichtung bei Intel wird voraussichtlich schon vor seiner Zeit stattgefunden haben und nachfolgend hat sich Intel nach potenter Verstärkung für sein Team umgesehen und in vielen Bereichen angeheuert, so Hardware, Software, Marketing ... selbst einige Xeon Phi-Ingenieure hatte man zurückgeholt. Und für ein neues "GPU-artiges" Design war natürlich auch jemand mit seiner Erfahrung gefragt.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Ohne eine offizielle Biographie und Einsichten in den internen Ablauf wird man das nicht vollumfänglich klären können, aber die Timeline erscheint insgesamt zu knapp für eine entscheidende Weichenstellung durch ihn in 2017.
HBM ist aber AMD dev-closed - heißt die bestimmen zuletzt wer den bekommt und weiter entwickeln darf. Ob Intel davor auf ihrer Referenzliste stand - naja. Ob Intel massig Zugriff darauf hatte - wer weiß. Wenn man ihn braucht - geht man schon mal bestimmte Wege. Wir wissen es nicht - einigen wir uns so.:D

Von der Timeline her paßt es - das Projekt vom Schriebtisch/Reißbrett in die Praxis umzusetzen - mehr meinte ich nicht. Papier ist geduldig - schickt aber keine Bilder an einen Bildschirm.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

HBM ist aber AMD dev-closed ...

Wie ich bereits schrieb, Intel hat bereits im Oktober 2016 erste Stratix 10 FPGAs mit vier HBM2-Stacks an Kunden ausgeliefert, da gibt es nichts zu spekulieren.
Und abgesehen davon ist HBM seit 2013 ein JEDEC-Standard, ebenso wie auch HBM2. Die JEDEC hat den Standard zuletzt im Dez.'18 erweitert, während die aktuellen Ankündigungen der Speicherhersteller für 2020 bereits deutlich über die dort spezifizierten Bandbreiten hinaus gehen (HBM2E und HBM3).

Alles andere wäre für die HBM-Entwicklung auch hinderlich und für die Investitionen der Speicherhersteller wenig interessant gewesen. Beispielsweise stellte AMD in 2015 explizit klar: "AMD is not involved in collecting any royalties for HBM". AMDs erste GPU kam Mitte 2015 mit HBM1 und bereits Mitte 2016 stellte nVidia Pascal mit HBM2 (Tesla P100) vor, noch bevor AMD überhaupt HBM2 in einem Produkt verwendete. Selbst Intel/Altera verwendeten HBM2 noch vor AMD, die erst Ende 2016 die Instinct MI25 auf Basis von Vega 10 vorstellten und die Consumer-GPUs Vega 64/56 folgte gar erst Mitte 2017.
 
Zuletzt bearbeitet:
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur

Ob Ex-AMD-Marketing-Personal ein unersetzlicher Verlust ist? Laut unserer geschätzten Konkurrenz war einer der Abgänger für die in letzter Zeit von Intel veröffentlichten Benchmarks verantwortlich, welche nicht ganz zu Unrecht mehr Image-Schaden denn Image-Nutzen brachten.
 
AW: Intel Xe-Grafikkarten: Raja Koduri über die Zukunft der Architektur


Ja, zweifelsfrei der unwiederlegbare Beweis für den seit Jahren prophezeiten Niedergang Intels, ohne Frage.
Andererseits ... die hatten Ende 2018 107.400 Mitarbeiter und nun sind 0,000019 % gegangen (oder gekündigt worden) ... vielleicht doch nur ein hinreichendes Indiz?
Andererseits ... die haben von 2013 - 2017 4900 Stellen abgebaut um dann in 2018 wieder 4700 neue Stellen zu schaffen ... vielleicht wohl eher doch nur eine völlig insignifikante Schwankung im Tagesgeschäft? ;-)
 
Zurück