Intel-Grafikkarten: 2023 mit Angriff auf Nvidias und AMDs High-End-GPUs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel-Grafikkarten: 2023 mit Angriff auf Nvidias und AMDs High-End-GPUs

Intel will im Jahr 2022 erste dedizierte Gaming-Grafikkarten auf den Markt bringen. Nun äußert sich die Gerüchteküche bereits zum Nachfolger von Arc Alchemist - den Arc-Battlemage-GPUs beziehungsweise DG 3. Youtuber "Moore's Law is Dead" berichtet, dass es Intel 2023 mit der High-End-Riege von AMD und Nvidia aufnehmen will.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel-Grafikkarten: 2023 mit Angriff auf Nvidias und AMDs High-End-GPUs
 
"Meteor Lake will leave AMD in the Dust" ist vielleicht etwas hoch gegriffen, selbst für Mobile ! Und mit XE Lovelace schlagen ist wohl auch optimistisch von Intel!
 
Seit Jahren will Intel mit in die Sparte einsteigen. Aber außer "wollen" passiert da nicht viel.
Bin gespannt, wanns dann endlich mal soweit ist und wie sich die Karten und deren Treiberversorgung/-anpassung auf Spiele so zeigt.
 
"Meteor Lake will leave AMD in the Dust" ist vielleicht etwas hoch gegriffen, selbst für Mobile ! Und mit XE Lovelace schlagen ist wohl auch optimistisch von Intel!
Hätte ich auch für etwas übertrieben gehalten. Aber hey, wenn der Leak zutreffend ist, warum nicht? Technisch / grundlegend in der Lage ist Intel dazu. Ob's klappt, sehen wir ja dann ;) 2023 wird mal wieder so richtig spannend. Hoffen wir mal, dass die Verfügbarkeit es dann mal wieder besser mit uns meint.
 
Vielleicht sieht Intel auch AMD als Hauptkonkurenten an, weil sie durch den Erfolg der Ryzen-CPUs ein wenig "verstimmt" sind und will es AMD bei den GPUs gleich tun wollen.
Oder sie wissen mehr als man vermuten könnte über die kommenden Nvidia und AMD-Grafikkarten.
Gerade durch den ehemaligen Chefentwickler von AMD haben sie natürlich, wenn auch ein limitiertes, Wissen über die Pläne für die kommenden AMD-GPUs.

Aber man erinnere sich nur an AMDs poor Volta. Sowas kann einem hart auf die Füße fallen.

Man wird sehen. Man muss einfach abwarten, was kommt. Man sollte aber nie vorschnell das Bärenfell an die Wand nageln. Vorallem, wenn der Bär noch drin steckt und damit fröhlich herumläuft.

Cunhell
 
Sagen Wir es doch mal so:Intel hat volle Kassen und zwar richtig voll.Und das Knowhow ,wenn jetzt noch der Wille da ist um ins Highend Segment einzusteigen dürfte es Für Uns alle gut sein.Zumindestens sobald die Grundversorgung für die Chipproduktion stimmt.Weil wenn sich noch ein Bewerber um genau das mit den anderen Streitet werden es zwar mehr verschiedene Modelle geben aber immer noch zu wenig Endprodukte
 
2022 Fokus auf Treiberpflege? Das klingt für mich nach "stellt euch auf Bugs, Bugs und noch mehr Bugs ein" für die ersten DG2 Käufer.
Könnte mir vorstellen, dass es eine handvoll (AAA) Titel gibt, die gut laufen und evtl. sogar schon XeSS unterstützen.
Für andere könnte es dann holpriger sein.

Cunhell
 
Sagen Wir es doch mal so:Intel hat volle Kassen und zwar richtig voll.Und das Knowhow ,wenn jetzt noch der Wille da ist um ins Highend Segment einzusteigen dürfte es Für Uns alle gut sein.Zumindestens sobald die Grundversorgung für die Chipproduktion stimmt.Weil wenn sich noch ein Bewerber um genau das mit den anderen Streitet werden es zwar mehr verschiedene Modelle geben aber immer noch zu wenig Endprodukte
Intel ist ja ein "Mitbewerber" wenn es um TSMC Kontingente für GPUs geht.

Gerüchte:
Intel Arc Alchemist - TSMC 6nm
AMD RDNA 3 - TSMC 5nm
Nvidia Lovelace - TSMC 5nm
 
Erstmal abwarten wie die erste Generation im Frühjahr so wird:
"Der Speicher soll dabei mit einem 256 Bit Interface angebunden werden und die TGP dürfte rund 225 Watt betragen. Das Topmodell von Intel soll dabei in Konkurrenz mit der GeForce RTX 3070 von Nvidia treten."

Glaube net, das Intel mit den Specs tatsächlich ne 3070 einholen kann.
(... und wirds dann wohl auf die unfertigen Treiber schieben)

Von solchen geilen Geschichten wie IF-Cache und der superben Effizienz von RDNA2 kann Intel eh nur träumen.
(man bedenke, das ne 6800 sich die 256bit-Anbindung nur wg. dem IF-Cache leisten kann)
 
Glaube net, das Intel mit den Specs tatsächlich ne 3070 einholen kann.
(... und wirds dann wohl auf die unfertigen Treiber schieben)
3070: TDP 220 W, Memory Bus 256 bit

Wenn sie von der Architektur her auch nur halbwegs gleichziehen, dann ist die Leistung schon zu erwarten. Immerhin steht ihnen auch noch TSMC 6nm vs Samsung 8nm zur Verfügung.
 
Intel machts sich doch lächerlich, die erste Karte kommt völlig verspätet auf dem Markt aber man verspricht vorher noch schnell Highend für 2023 :lol:
 
3070: TDP 220 W, Memory Bus 256 bit

Wenn sie von der Architektur her auch nur halbwegs gleichziehen, dann ist die Leistung schon zu erwarten. Immerhin steht ihnen auch noch TSMC 6nm vs Samsung 8nm zur Verfügung.

Von der Architektur her stehen zumindest die Intel-APUs nicht soweit weg von AMD-Designs, wenn man die Leistung pro Fläche und Watt betrachtet. Sie sind halt nur absichtlich für den Office- und Low-End-Markt, also billig und schwach, dimensioniert. Eine gute Architektur zu haben und eine gute Architektur zu skalieren sind aber auch zwei paar Schuhe – und im Verlaufe von 2022 eine RTX 3070, also eine Karte des Jahrgangs 2020, zu schlagen ist ehrlich gesagt eher eine Mindestanforderung denn eine Leistung. Technik veraltet auch dann, wenn es sie nicht zu kaufen gibt und die drittbeste Ampere-Launch-Karte ist nächstes Jahr genauso wenig Referenz, wie es die RTX 2070 zum Erscheinen der 3090 war.
 
Von der Architektur her stehen zumindest die Intel-APUs nicht soweit weg von AMD-Designs, wenn man die Leistung pro Fläche und Watt betrachtet. Sie sind halt nur absichtlich für den Office- und Low-End-Markt, also billig und schwach, dimensioniert. Eine gute Architektur zu haben und eine gute Architektur zu skalieren sind aber auch zwei paar Schuhe – und im Verlaufe von 2022 eine RTX 3070, also eine Karte des Jahrgangs 2020, zu schlagen ist ehrlich gesagt eher eine Mindestanforderung denn eine Leistung. Technik veraltet auch dann, wenn es sie nicht zu kaufen gibt und die drittbeste Ampere-Launch-Karte ist nächstes Jahr genauso wenig Referenz, wie es die RTX 2070 zum Erscheinen der 3090 war.
Ich stimme Dir zu. AMD hatte den Vorteil, von dGPUs einen iGPU-Ableger abzuleiten. Intel versucht quasi das Gegenteil. (Wobei ich jetzt nicht weiß, in wie weit die aktuellen Intel iGPUs wirklich noch viel mit den dGPUs der angekündigten Grafikkarten gemeinsam haben.) Letzteres ist sicher schwieriger als das vorgehen von AMD.
Allerdings kann ich denSchritt schon nachvollziehen, den Intel gehen will, in dem sie das aktuelle Midrange anpeilen.
Man weckt keine zu hohen Erwartungen, macht sich nicht mit überzogenen Ankündigungen lächerlich und kann Erfahrung bei dGPUs sammeln.
AMD hatte ja auch mit der 5000er Serie nur eine Mittelklasse-Karte gebracht und erst mit der 6000er-Serie im Highend mitgespielt.
Der nächste Schritt sollte dann allerdings schon deutlich in Richtung Highend gehen und zumindest ganz oben anklopfen.

Cunhell
 
3070: TDP 220 W, Memory Bus 256 bit

Wenn sie von der Architektur her auch nur halbwegs gleichziehen, dann ist die Leistung schon zu erwarten. Immerhin steht ihnen auch noch TSMC 6nm vs Samsung 8nm zur Verfügung.
Dann ist Intel bei den Treibern noch lange net soweit wie NV.

NV nutzt traditionell ne starke Colorkompression, so das 256bit leichter ausreichen.
Und natürlich spart ein optimales tile based rendering auch nochmal Bandbreite, ... es kann mehr im
Cache abgewickelt werden, ... dito vorgezogene z-Tiefenprüfung

Der Hr. Radja weiss evtl. theoretisch Einiges, aber es muss erstmal praktisch in Hard+Software umgesetzt werden.
 
Zuletzt bearbeitet:
Dann ist Intel bei den Treibern noch lange net soweit wie NV.

NV nutzt traditionell ne starke Colorkompression, so das 256bit leichter ausreichen.
Und natürlich spart ein optimales tile based rendering auch nochmal Bandbreite, ... es kann mehr im
Cache abgewickelt werden, ... dito vorgezogene z-Tiefenprüfung

Der Hr. Radja weiss evtl. theoretisch Einiges, aber es muss erstmal praktisch in Hard+Software umgesetzt werden.
Das mag sein, nur hast Du Dich ja vorher eher auf die Architektur bezogen. Und da sollte eine ähnliche TDP, ein gleiches Speicherinterface sowie ein deutlich besserer Herstellungsprozess in der Theorie mehr rohe Leistung bringen. Ob die Software diese dann "auf die Straße" bringt, das bleibt abzuwarten. Ich würde mich aber schwer wundern wenn Intel den Einstieg in den dGPU Markt erneut in den Sand setzt.
 
Ich bin mir ziemlich sicher das die alten Hasen von NV+AMD die entscheidenden Spar-Features in
Hardware im Chip haben.
Bei Intel wäre es jetzt rein spekulativ vorrauszusetzen, das eine ähnlich schmale Bandbreite reicht.
(falls Intel so ca. 1-2 Generationen in der Optimierung zurückhängt und man mal bei Navi schauen würde, ....
Es müsste ja ein Leistungssprung von ner 5700XT zu ner 2080Ti bzgl. Nutzung der Bandbreite her.)

Fürs Frühjahr bin ich Da wirklich gespannt ob man zw. einzelnen Games dann Unterschiede feststellen kann,
wenn Streaming+Bandbreite evtl. net ausreichen.
 
Zuletzt bearbeitet:
Seit Jahren will Intel mit in die Sparte einsteigen. Aber außer "wollen" passiert da nicht viel.
Bin gespannt, wanns dann endlich mal soweit ist und wie sich die Karten und deren Treiberversorgung/-anpassung auf Spiele so zeigt.
Nein, wollen sie nicht, sondern sie haben ein komplexes Xe-Projekt für mehrere Produkte und Marktsegmente in die Wege geleitet und das kommt nun in den Markt (zumindest in dem, der dich zu interessieren scheint; in anderen ist es schon längst da, in wieder anderen wird es bereits hinter vorgehaltener Hand eingeführt). Die bei dir nicht mal unterschwellig mitschwingende Konotation ist vollkommen verfehlt bzgl. eher deiner Erwartungshaltung zuzuschreiben.

Nur falls es nicht klar sein sollte, eine komplett neue Mikroarchitektur sowie das gesamte Ökosystem (Hard- wie Software) aufzubauen und zu erweitern dauert seine Zeit und Intel hat hier keinesfalls nur Daddle-Hardware im Sinn geschweige denn gefertigt, denn Xe-HPC ist für die vermutlich vorerst das wichtigere Produkt.
Folgt man deiner Argumentation, dann hat AMD noch viel mehr heiße Luft von sich gegeben seit dem Anfang des letzten Jahrzehnts bzgl. CPUs und so auch in den letzten Jahren bzgl. Raytracing, denn AMD wusste schon seit mindestens 2017 dass es vor Ende 2020 keine Raytracing-fähige GPU-Hardware im Markt geben würde bzw. genauer geben darf und nun darfst du dir deinen Teil zu dem ganzen Blödsinn denken, den AMD seit Turing zu dem Thema gebetsmühlenartig von sich gegeben hat. ;-)

*) Falls es immer noch zu schwer zu verstehen ist oder bereits wieder verdrängt wurde: AMD begann seine Arbeiten an Zen in 2012 und ihnen gelang erst 2019 einigermaßen das Überholen von Intel, jedoch hier zu einem wesentlichen Teil auf der deutlich moderneren Fertigung von TSMC basierend.
Komplett neue Technologien zu entwickeln dauert Jahre und einfache Endkunden bekommen davon zumeist nur einen kleinen Bruchteil mit, wenn sie sich nicht eingehend mit dem Thema befassen.

2022 Fokus auf Treiberpflege? Das klingt für mich nach "stellt euch auf Bugs, Bugs und noch mehr Bugs ein" für die ersten DG2 Käufer.
Da wird sicherlich anfänglich nicht alles rund laufen, aber übertriebene Befürchtunge dürften ebenso verfehlt sein, denn bereits die Xe-iGPUs laufen relativ rund. Darüber hinaus kann man vermuten, wenn die das Thema ernst nehmen und das scheinen sie voraussichtlich, denn man kündigte Ebenso an mit HPG den Professional-Markt, d. h. die ehemaligen Quadro's angreifen zu wollen, dass hier Intel weitaus mehr Ressourcen & Manpower als AMD hat und dementsprechend könnten die das Thema vermutlich relativ schnell in brauchbare Bahnen lenken.
Beim Alder Lake war es ja nicht anders und so mancher wurde nicht müde völlig unbrauchbare oder gar unbootbare CPUs herauszubeschwören. ;-)

Ergänzend zu deinem anderen Post:
TSMC N6 für die 1st Gen Alchemist ist kein Gerücht, dagegen 5nm für AMD und nVidia bisher sehrwohl, weil in beiden Fällen unbestätigt.
Ob Alchemist jedoch gegen die beiden kommenden Konkurrenzserien der sinnvolle Vergleichspartner ist, bleibt abzuwarten, da Battlemage (2nd Gen) bereits in 2023 erscheinen soll. Wenn der früh erscheint, wäre der bspw. näher an RDNA3 dran als es Alchemist ist. (Mindestens einem Gerücht zufolge könnten die RDNA3-Topmodelle bspw. gar erst Anfang 2023 erscheinen; abwarten und Tee trinken.)

MLiD erklärte hier schon mehrfach, dass er weiß, dass die 2nd Gen ("Elasti") ein MCM-Design werden soll, bei Intel vermutlich ein Tile-basiertes EMIB-Design wie Sapphire Rapids & Xe-HP(C), d. h. damit könnte es Intel sehr leicht gelingen im HighEnd mitzumischen und Xe ist grundsätzlich auf eine breite Skalierbarkeit ausgelegt. Zudem darf man auch hier vermuten, dass sie die Fertigung noch einmal modernisieren werden für das 2023er-Produkt.

[...]

(a) Von solchen geilen Geschichten wie IF-Cache und der (b) superben Effizienz von RDNA2 kann Intel eh nur träumen.
(man bedenke, das ne 6800 sich die 256bit-Anbindung nur wg. dem IF-Cache leisten kann)

(a) Was soll daran "geil" sein? Das ist einfach eine Kostenverlagerung hin auf den Wafer. Entsprechend eingeschränkt ist AMD nun bei der Auslegung des Speichers, schlicht ein Tradeoff, während nVidia es für sich als wichtiger erachtete, mehr Flexibilität beim Interface zu haben. Und da wo sie es für notwendig erachteten, hat nVidia auch einfach den Cache vergrößert, nämlich beim A100.
Intel wird hier nichts anderes machen. Auch die haben sich aus fertigungseffizienztechnischen Gründen für 256 Bit GDDR6 entschieden und müssen möglicherweise auch mit etwas mehr Cache arbeiten. Da sich die GPUs jedoch bis maximal auf einem 3070er-Niveau bewegen sollen, wird vermutlich kein allzu großer Mehraufwand diesbezüglich nötig sein.

(b) Die ist vermutlich nicht besser als die von nVidia, wenn die auch auf dem N7 von TSMC fertigen würden.
Will man abseits von Gefühl und Wellenschlag aber mal tatsächlich architektonisch vergleichen, so kann man das Anfang des Jahres, denn dann kommen Intels GPUs sowie ebenso von AMD bspw. Navi24 beide im N6 auf den Markt.

Intel machts sich doch lächerlich, die erste Karte kommt völlig verspätet auf dem Markt aber man verspricht vorher noch schnell Highend für 2023 :lol:
Lächerlich machst nur wieder erneut du dich und das nachdem du gerade erst mal wieder ein paar Tage online bist.
Intel verspricht hier rein gar nichts, da das alles Leaks von Dritten sind.
Und warum sollten die GPUs "völlig verspätet" auf den Markt kommen ... du meinst etwa so völlig verspätet, wie AMD mit der Zen-CPU-Archirektur auf den Markt kam oder so völlig verspätet, wie AMD mit der RDNA(2)-Architektur auf den Markt kam ... ?

Eben wenn am Ende 2060 12 GB Leistung bei raus kommt wäre das schon mehr als die meisten erwartet haben.
Also immer schön den Ball flach halten.
Und du schaffst es auch gleich dich 2x in einem Thread nur wenige Posts hintereinander vollkommen in die Nesseln zu setzen.
Das bisher kolportierte Leistungsspektrum ist relativ klar umrissen und liegt deutlich oberhalb eines Turing-Mittelklassemodells, d. h. wie so oft baust du dir hier deine eigene Fantasiewelt zusammen.
Noch mal zusammengefasst, egal ob es jetzt an Recherchefaulheit, einer Leseschwäche, dem Confirmation Bias, einer Kombination von alledem oder was ganz anderem liegt: Das Intel Alchemist-Topmodell wird nach bisherigem Kenntnisstand im Bereich einer RTX 3060 bis RTX 3070 Ti verortet.

Darüber hinaus, auch wenn es dir möglicherweise schlaflose Nächste bereitet: Zu Intels Raytracing-Leistung ist noch gar nichts bekannt. Wenn du ganz viel Pech hast, performt Xe-HPG diesbezüglich eher auf nVidia-als auf RDNA2-Niveau. ;-)

intel hat eh alles geklaut an wissen von amd + die ganzen architekten von amd weggekauft intel rotz.
Wie meinen? Etwa so, wie AMD seine x86-Karriere als reine CopyCat begann und schlicht jahrelang Intel-Designs nachbaute oder wie AMD sein GPU-KnowHow von ATI "weggekauft" hat oder sich den K6 komplett extern einkaufen musste, weil das eigene K5-Design zu fehlerbehaftet und nicht konkurrenzfähig war?
Oder um bei Personen zu bleiben, wie man sich per "Raubbau" bei ATI, Apple und DEC "bereicherte" (Koduri und Keller) oder wie man sich einen externen CEO angeln musste, weil es in den eigenen Reihen wohl niemand fähigen zur Steuerung gab (Su)? - Na, geht dir so langsam ein Licht auf?
Bäumchen-wechsel-dich ist in der Branche völlig normal, insbesondere bei den "Celebs" *), die sich einen gewissen Stand erarbeitet haben, denn die können jederzeit wechseln und so mancher Manager träumt von den Ressourcen, die einem beim Branchenführer Intel zur Verfügung stehen, sodass es nichts ungewöhnliches ist, wenn der eine oder andere im Laufe seiner Karriere da mal "vorbeischaut".

*) Der typische PC-Anwender und Forenuser hat ja auch nicht mehr als die Hand voll Halbleiter-"Celebs" auf dem Radar und verwechselt hier auch oftmals den Wirkungsbereich sowie die Verantwortlichkeiten.

Ich bin mir ziemlich sicher das die alten Hasen von NV+AMD die entscheidenden Spar-Features in
Hardware im Chip haben.
Bei Intel wäre es jetzt rein spekulativ vorrauszusetzen, das eine ähnlich schmale Bandbreite reicht.
(falls Intel so ca. 1-2 Generationen in der Optimierung zurückhängt und man mal bei Navi schauen würde, ....
Es müsste ja ein Leistungssprung von ner 5700XT zu ner 2080Ti bzgl. Nutzung der Bandbreite her.)

Fürs Frühjahr bin ich Da wirklich gespannt ob man zw. einzelnen Games dann Unterschiede feststellen kann,
wenn Streaming+Bandbreite evtl. net ausreichen.
Es ist exakt genau so spekulativ anzunehmen, dass Intel hier in einen Bandbreitenengpass laufen wird. Die Frage ist vielmehr, warum du ohne weitere Informationen der einen Möglichkeit eine höhere Wahrscheinlichkeit zuzuordnen bereit bist als der anderen? ;-)
Letzten Endes ist das Speicherinterface aus Sicht der Anwender sekundär, wenn überhaupt. Der Hersteller hat dafür Sorge zu tragen, dass die Ausführungseinheiten mit Daten beliefert werden, damit die nicht sinnlose Wartezyklen fahren und entsprechend ist das SI als eine Kombination aus DRAM und Caches auszulegen. Wenn Intel hier wie AMD mit einem schmalbandigen SI ums Eck kommt (was inhen hier grundlegend einfacher fällt, da es nur gehobene Mittelklasse- oder untere HighEnd-Klasse-Leistung geben soll), werden die die geringe Speicherbandbreite mit dem Cache-Subsystem kompensieren. Darüber hinaus, wie die 3070 bereit demonstriert, gibt es hier gar nicht so viel zu kompensieren. Die nVidia-Karte kommt mit 256 Bit, nur 14 Gbps und nur 4 MiB L2$ gut ums Eck, d. h. Intel muss hier vielleicht nicht einmal einen über das übliche Maß hinaus nennenswerten Mehraufwand betreiben.

Einfach mal abwarten was da kommt. Das Mehr an GPU-Hardware kann nur gut für den Markt sein.
 
Zuletzt bearbeitet:
Zurück