Intel Xe: Gamer-Grafikkarten von TSMC in 6 nm?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Xe: Gamer-Grafikkarten von TSMC in 6 nm?

Im Internet ist aktuell zu lesen, dass Intel die Xe-GPU für Spieler bei TSMC in 6 nm fertigen lassen soll. Ob das stimmt oder nicht, wird man sehen - 2022. Vorher ist nicht viel in die Richtung zu erwarten. Für 2021 sollen erst mal die Datacenter-Karten in 7 nm Intel auf den Weg gebracht werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Xe: Gamer-Grafikkarten von TSMC in 6 nm?
 
Also ich kann mir gut vorstellen, dass INTEL mit ihrer "Portokasse", mit Herrn Koduri Onboard und mit 6 nm Fertigung etwas Leistungsfähiges auf die Füße stellen könnte …

MfG Föhn.
 
Ich erwarte das ziemlich viel von INTEL und für ihren Consumer Market wird das wohl auch nicht ganz unwichtig sein, jetzt wo sie auch mit den CPUs die Pobacken zusammenkneifen müssen.
 
Der Artikel macht nicht direkt Sinn:

Die könnten sich aber auch einfach nur die Flash-Produktion angeschaut haben. Das wiederum ist auch eine gewagte These, denn Intel dürfte wohl eher GDDR6 aus dem (ehemaligen) Joint-Venture mit Micron verbauen.

Was hat jetzt Flash mit GDDR zu tun? Richtig, einfach mal null nix gar nix
 
Also ich kann mir gut vorstellen, dass INTEL mit ihrer "Portokasse", mit Herrn Koduri Onboard und mit 6 nm Fertigung etwas Leistungsfähiges auf die Füße stellen könnte …

MfG Föhn.

Redest du echt positiv über den Mann, den AMD mit Glück so schnell wieder losgeworden ist, ehe der allzu viel Schaden bei der Firma angerichtet hat?
Der hat die Grafiksparte fast komplett gegen die Wand gefahren, und das dauert Jahre, bis Lisa das wieder bereinigt hat.
Wir haben immerhin Versprechen wie "Poor Volta" und jetzt "Poor Volta 2.0" in der Mache.
2020 sollte das Jahr für Intel werden, jetzt wurden die Gamerkarten schonmal vorerst auf 2022 verschoben, und dann fertigen die die Karten evtl. nicht einmal selber.
Die haben jetzt eine Billigkarte mit saftigen 75 Watt Poweraufnahme gezeigt, die kein Schwein benötigt oder freiwillig kaufen würde.
Das ist für mich eher ein Engeneering Sample für die Machbarkeitsstudie eines Grafikchips, mehr nicht.
Der Koduri lebt leider in seiner eigenen Welt, fernab der Realität.
Sollte 2022 irgendein Chip vom Laufband fallen, stellt sich auch noch eine Frage der Leistung , Effizienz, udn dann gibt es große Fragezeichen über Treiber und Softwareoptimierung.
Verstehe mich nicht falsch, ich würde einen zusätzlichen Konkurrenten in Verbindung mit mehr Leistung und weniger Kosten für uns Anwender durchaus begrüßen.
Aber so etwas fällt nicht einfach so vom Himmel, ebensowenig Prozessoren, egal wieviel Geld man auf der Bank gehortet hat.
Man kann nicht alles mal eben mit Geld fertig kaufen - außer durch eien Übernahme vielleicht. ^^
Aber da würde sich nur nVidia anbieten, AMD wäre wegen der CPU Sparte definitiv außen vor, das würde das Kartelamt verbieten.
Ich erinnere mich gerne an Intels bisherige unrühmliche Zeit als Grafikkarten"spezialist". Da war nix, da kam nix, und wird vielleicht wieder nix.
 
Der Artikel macht nicht direkt Sinn:

Die könnten sich aber auch einfach nur die Flash-Produktion angeschaut haben. Das wiederum ist auch eine gewagte These, denn Intel dürfte wohl eher GDDR6 aus dem (ehemaligen) Joint-Venture mit Micron verbauen.

Was hat jetzt Flash mit GDDR zu tun? Richtig, einfach mal null nix gar nix

Ja, stimmt, jetzt sehe ich es auch.
Aber vielleicht haben sie ja Flashspeicher für ihre SSDS angeschaut?
Vielleicht sind deren Kapazitäten sowas von überreizt, dass die demnächst alles auslagern müssen, auch wenn die alle Produkte für sich selbst entwickelt haben? ^^
 
Ja, stimmt, jetzt sehe ich es auch.
Aber vielleicht haben sie ja Flashspeicher für ihre SSDS angeschaut?
Vielleicht sind deren Kapazitäten sowas von überreizt, dass die demnächst alles auslagern müssen, auch wenn die alle Produkte für sich selbst entwickelt haben? ^^

Kann gut sein, aber trotzdem hat Flashspeicher nichts mit GDDR zu tun so wie es PCGH behauptet
 
Redest du echt positiv über den Mann, den AMD mit Glück so schnell wieder losgeworden ist, ehe der allzu viel Schaden bei der Firma angerichtet hat?
Der hat die Grafiksparte fast komplett gegen die Wand gefahren, und das dauert Jahre, bis Lisa das wieder bereinigt hat.

Es ist daher umso verwunderlicher, dass Intel Koduri so viel zutraut und ihm derart gewichtige Projektverantwortung auferlegt, wo er doch so versagt hat bei AMD. Wie passt das zusammen?
 
Irgendwie glaub ich das nicht. Hier wäre der erste wikrklich brauchbare Ansatzpunkt für die bereits verdammt teuere 10nm Fertigung. Bei den CPUs reicht die Taktbarkeit beim besten Willen nur für lahme Mobile- und schwache Server-CPUs aber bei einer neuen GPU wäre es zum einen leichter höhere Taktraten zu erreichen und wenn sie nicht auf die 2.0 GHz kommen, die die aktuellen TSMC-Chips schaffen, wäre das auch keine Katastrophe. Hier erwartet niemand gleich zum Start irgendwelche Wunder. Und ein Volumenmodell fü die Fertigung wäre einfach ideal um es den Atkionären vorzuführen. Aber bis ihre Systeme komplett auf ihre 7nm umgestellt sind, dauert auch noch Jahre. Ja, die 14nm sind extrem gut, bedeutend besser, als die entsprechenden 16/12nm von TSMC aber mittlerweile sind die eben schon 1,5 Schritte weiter und bevor Intel ihre 10nm auf den Markt bringen kann, sind es schon 2 ganze, bis zu den 7nm sind es dann 3-4 Schritte (bis dahin sollte schon lange die 3nm-Risikoproduktion gestartet sein, 5nm-Rp startete schon letztes Jahr und wechselt in 2 Monaten in die Volumenproduktion...). Sorich, sie hängen auch dann hinterher, sie kommen zwar etwas näher ran aber den Anschluss werden sie bis dahin auch nicht schaffen können...
 
Es ist daher umso verwunderlicher, dass Intel Koduri so viel zutraut und ihm derart gewichtige Projektverantwortung auferlegt, wo er doch so versagt hat bei AMD. Wie passt das zusammen?

So isses, manche Foristen wissen halt deutlich besser wie man ein Multimilliarden Konzern schmeisst und stehen so gut im Thema, dass Sie sich nur langweilen würden, deshalb halten sie es nicht für nötig einen Betrieb selbst zu leiten... Aus dem Grund hat man ja auch Zeit auf PCGH für schmach...
 
Redest du echt positiv über den Mann, den AMD mit Glück so schnell wieder losgeworden ist, ehe der allzu viel Schaden bei der Firma angerichtet hat?
Der hat die Grafiksparte fast komplett gegen die Wand gefahren, und das dauert Jahre, bis Lisa das wieder bereinigt hat.
Wir haben immerhin Versprechen wie "Poor Volta" und jetzt "Poor Volta 2.0" in der Mache.
2020 sollte das Jahr für Intel werden, jetzt wurden die Gamerkarten schonmal vorerst auf 2022 verschoben, und dann fertigen die die Karten evtl. nicht einmal selber.
Die haben jetzt eine Billigkarte mit saftigen 75 Watt Poweraufnahme gezeigt, die kein Schwein benötigt oder freiwillig kaufen würde.
Das ist für mich eher ein Engeneering Sample für die Machbarkeitsstudie eines Grafikchips, mehr nicht.
Der Koduri lebt leider in seiner eigenen Welt, fernab der Realität.
Sollte 2022 irgendein Chip vom Laufband fallen, stellt sich auch noch eine Frage der Leistung , Effizienz, udn dann gibt es große Fragezeichen über Treiber und Softwareoptimierung.
Verstehe mich nicht falsch, ich würde einen zusätzlichen Konkurrenten in Verbindung mit mehr Leistung und weniger Kosten für uns Anwender durchaus begrüßen.
Aber so etwas fällt nicht einfach so vom Himmel, ebensowenig Prozessoren, egal wieviel Geld man auf der Bank gehortet hat.
Man kann nicht alles mal eben mit Geld fertig kaufen - außer durch eien Übernahme vielleicht. ^^
Aber da würde sich nur nVidia anbieten, AMD wäre wegen der CPU Sparte definitiv außen vor, das würde das Kartelamt verbieten.
Ich erinnere mich gerne an Intels bisherige unrühmliche Zeit als Grafikkarten"spezialist". Da war nix, da kam nix, und wird vielleicht wieder nix.

Werden wir ja bei Navi sehen, der Architektur bei der er von Anfang an mitgewirkt hat und nicht erst irgendwann dazu gestoßen ist.

Außerdem ist Koduri bri Intel nicht für die ychip, sondern Software(Architektur)entwicklung verantwortlich, wie schon regelmäßig berichtet wurde und auch seinen eigenem Interview bei Anandtech.com zu entnehmen ist

Es ist daher umso verwunderlicher, dass Intel Koduri so viel zutraut und ihm derart gewichtige Projektverantwortung auferlegt, wo er doch so versagt hat bei AMD. Wie passt das zusammen?
Kennst fu die Gründe des Scheiterns? Ich nämlich nicht im Detail. Aber viel eher liegt es zuerst mal an chronischer Unterfinanzierung als sn einer Einzelperson

Verglichen mit Nvidia mit all ihren Resourcen wird man in deren Wohnzimmer immer schlecht aussehen. Ob man nun AMD oder Intel heißt.
 
Zuletzt bearbeitet:
Ähm..., 4096 Shader bei 500W in 2022?
Nvidia verdoppelt das (fast) bei den Shadern ja angeblich schon dieses Jahr und (hoffentlich) nicht mit 500W... ;)

mfg
 
Zwei Anmerkungen zum Artikel:

CEO Bob Swan erklärte im vorletzten Earnings Call explizit, dass "in 2020, we'll continue to expand our 10-nanometer portfolio [...] and a discrete GPU. This quarter, we've achieved power on exit for our first discrete GPU, DG1, an important milestone."

Merkwürdig, wie der Autor hier nun plötzlich frühestens auf 2022 kommt, noch dazu, dass er gleich jedwedes, dediziertes Design ausschließt, indem er sowohl die LP- als auch HP-Variante explizit erwähnt.
Ein so spätes Erscheinen von Consumer/GPU-Produkten erscheint zudem auch grundlegen unplausibel, denn Intel dürfte nicht umsonst ihr DevKit, das wahrscheinlich auf einer LP-Variante beruht, jetzt schon verfügbar gemacht machen, denn für die paar Tiger Lake U-Modelle, die im 2HJ20 im Markt sein werden, werden sich die Entwickler da nicht vorzeitig mit auseinandersetzen.

Und TSMCs N6 ist tatsächlich nicht mit Intels 10nm vergleichbar, der im 2HJ20 in der optimierten Variante 10nm++ verwendet, jedoch voraussichtlich weiterhin vollständig auf DUV basieren wird.
TSMCs N6, eine Weiterentwicklung des N7+, ist unter Beibehaltung der Design Rules des N7(P) konzipiert worden. Der N6 wird 5 Lagen mittels EUV belichten und damit in etwa auf den Niveau des N7+ bzgl. PPA liegen, dürfte in Kürze in die Risk-Production gehen und soll ab Ende 2020 produktiv zur Verfügung stehen.


Abseits dessen zu R.Koduri: Es ist abwegig, dem Mann so viel Verantwortung für das Xe-Projekt insgesamt zu unterstellen (sowohl positiv wie negativ) ... ebensowenig wie J.Keller die Zen-Architektur im Alleingang entwicklet hat. An solchen Projekten sind viele Top-Ingenieure beteiligt.
Abseits dessen wäre auch mal interessant zu erfahren, welche "Quellen" ihm ein Versagen bei AMD nachweisen, bzw. überhaupt erst mal zu definieren, was hier ein/das "Versagen" sein soll. Bei AMD musste er mit dem Arbeiten, was man ihm und seinem Team zugestand bzw. vorgab. Und nach seinem Wechsel konnte man aus dem Umfeld der RTG lesen, dass Koduri damals nicht besonders glücklich war, dass man eine nennenswerte Zahl an Ingenieuren aus seiner RTG zur Entwicklung einer konsolenspezifischen GPU-Architektur abgezogen hatte.

Schlussendlich kann man zweifelsfrei davon ausgehen, dass Xe keine heiße Luft sein wird, die Frage wird eher sein, ob Intel hier tatsächlich konkurrenzfähig alle angesprochenen Segmente bedienen will oder ob sich deren Engagement vornehmlich auf das Datacenter konzentriert?

Und schlussendlich auch zu berücksichtigen ist, dass sich der Projekterfolg von Xe im Consumer-Segment nicht dadurch entscheidet, dass es Intel gelingt, leistungstechnisch ein HighEnd-Top-Modell der Konkurrenten zu schlagen, bspw. eine neue Titan RTX.
Intel könnte sich bspw. auch aus dem HighEnd-Gaming-Segment komplett raushalten und sich auf Low- und Mid-Range beschränken und dennoch erfolgreich sein, wenn sie ausreichend Marktanteile gewinnen können. Maßgeblich sind hier aus deren Sicht, Marktanteile, Revenue und anteiliges Net Income und nicht etwa so etwas wie die absolute Grafikleistung eines spezifischen Kartenmodells.
 
Zuletzt bearbeitet:
Ich frage mich halt immer, ob es für Intel nicht schon zu spät ist, in den Grafikkarten-Markt einzusteigen. AMD und Nvidia sind harte Konkurrenten.
 
Zwei Anmerkungen zum Artikel:

CEO Bob Swan erklärte im vorletzten Earnings Call explizit, dass "in 2020, we'll continue to expand our 10-nanometer portfolio [...] and a discrete GPU. This quarter, we've achieved power on exit for our first discrete GPU, DG1, an important milestone."

Merkwürdig, wie der Autor hier nun plötzlich frühestens auf 2022 kommt, noch dazu, dass er gleich jedwedes, dediziertes Design ausschließt, indem er sowohl die LP- als auch HP-Variante explizit erwähnt.
Ein so spätes Erscheinen von Consumer/GPU-Produkten erscheint zudem auch grundlegen unplausibel, denn Intel dürfte nicht umsonst ihr DevKit, das wahrscheinlich auf einer LP-Variante beruht, jetzt schon verfügbar gemacht machen, denn für die paar Tiger Lake U-Modelle, die im 2HJ20 im Markt sein werden, werden sich die Entwickler da nicht vorzeitig mit auseinandersetzen.

Und TSMCs N6 ist tatsächlich nicht mit Intels 10nm vergleichbar, der im 2HJ20 in der optimierten Variante 10nm++ verwendet, jedoch voraussichtlich weiterhin vollständig auf DUV basieren wird.
TSMCs N6, eine Weiterentwicklung des N7+, ist unter Beibehaltung der Design Rules des N7(P) konzipiert worden. Der N6 wird 5 Lagen mittels EUV belichten und damit in etwa auf den Niveau des N7+ bzgl. PPA liegen, dürfte in Kürze in die Risk-Production gehen und soll ab Ende 2020 produktiv zur Verfügung stehen.


Abseits dessen zu R.Koduri: Es ist abwegig, dem Mann so viel Verantwortung für das Xe-Projekt insgesamt zu unterstellen (weder positiv noch negativ) ... ebensowenig wie J.Keller die Zen-Architektur im Alleingang entwicklet hat. An solchen Projekten sind viele Top-Ingenieure beteiligt.
Abseits dessen wäre auch mal interessant zu erfahren, welche "Quellen" ihm ein Versagen bei AMD nachweisen, bzw. überhaupt erst mal zu definieren, was hier ein/das "Versagen" sein soll. Bei AMD musste er mit dem Arbeiten, was man ihm und seinem Team zugestand bzw. vorgab. Und nach seinem Wechsel konnte man aus dem Umfeld der RTG lesen, dass Koduri damals nicht besonders glücklich war, dass man eine nennenswerte Zahl an Ingenieuren aus seiner RTG zur Entwicklung einer konsolenspezifischen GPU-Architektur abgezogen hatte.
Schlussendlich kann man zweifelsfrei davon ausgehen, dass Xe keine heiße Luft sein wird, die Frage wird jedoch eher sein, ob Intel hier tatsächlich konkurrenzfähig alle angesprochenen Segmente bedienen will oder ob sich deren Engagement vornehmlich auf das Datacenter konzentriert?

Zumal Keller nachweislich NICHT Zen designed hat und Koduri bei Intel derzeit verantwortlich für die Software, NICHT die Hardware ist
 
Zurück