Seit Jahren will Intel mit in die Sparte einsteigen. Aber außer "wollen" passiert da nicht viel.
Bin gespannt, wanns dann endlich mal soweit ist und wie sich die Karten und deren Treiberversorgung/-anpassung auf Spiele so zeigt.
Nein, wollen sie nicht, sondern sie haben ein komplexes Xe-Projekt für mehrere Produkte und Marktsegmente in die Wege geleitet und das kommt nun in den Markt (
zumindest in dem, der dich zu interessieren scheint; in anderen ist es schon längst da, in wieder anderen wird es bereits hinter vorgehaltener Hand eingeführt). Die bei dir nicht mal unterschwellig mitschwingende Konotation ist vollkommen verfehlt bzgl. eher deiner Erwartungshaltung zuzuschreiben.
Nur falls es nicht klar sein sollte, eine komplett neue Mikroarchitektur sowie das gesamte Ökosystem (Hard- wie Software) aufzubauen und zu erweitern dauert seine Zeit und Intel hat hier keinesfalls nur Daddle-Hardware im Sinn geschweige denn gefertigt, denn Xe-HPC ist für die vermutlich vorerst das wichtigere Produkt.
Folgt man deiner Argumentation, dann hat AMD noch viel mehr heiße Luft von sich gegeben seit dem Anfang des letzten Jahrzehnts bzgl. CPUs und so auch in den letzten Jahren bzgl. Raytracing, denn AMD wusste schon seit mindestens 2017 dass es vor Ende 2020 keine Raytracing-fähige GPU-Hardware im Markt geben würde bzw. genauer geben darf und nun darfst du dir deinen Teil zu dem ganzen Blödsinn denken, den AMD seit Turing zu dem Thema gebetsmühlenartig von sich gegeben hat.
*) Falls es immer noch zu schwer zu verstehen ist oder bereits wieder verdrängt wurde: AMD begann seine Arbeiten an Zen in 2012 und ihnen gelang erst 2019 einigermaßen das Überholen von Intel, jedoch hier zu einem wesentlichen Teil auf der deutlich moderneren Fertigung von TSMC basierend.
Komplett neue Technologien zu entwickeln dauert Jahre und einfache Endkunden bekommen davon zumeist nur einen kleinen Bruchteil mit, wenn sie sich nicht eingehend mit dem Thema befassen.
2022 Fokus auf Treiberpflege? Das klingt für mich nach "stellt euch auf Bugs, Bugs und noch mehr Bugs ein" für die ersten DG2 Käufer.
Da wird sicherlich anfänglich nicht alles rund laufen, aber übertriebene Befürchtunge dürften ebenso verfehlt sein, denn bereits die Xe-iGPUs laufen relativ rund. Darüber hinaus kann man vermuten, wenn die das Thema ernst nehmen und das scheinen sie voraussichtlich, denn man kündigte Ebenso an mit HPG den Professional-Markt, d. h. die ehemaligen Quadro's angreifen zu wollen, dass hier Intel weitaus mehr Ressourcen & Manpower als AMD hat und dementsprechend könnten die das Thema vermutlich relativ schnell in brauchbare Bahnen lenken.
Beim Alder Lake war es ja nicht anders und so mancher wurde nicht müde völlig unbrauchbare oder gar unbootbare CPUs herauszubeschwören.
Ergänzend zu deinem anderen Post:
TSMC N6 für die 1st Gen Alchemist ist kein Gerücht, dagegen 5nm für AMD und nVidia bisher sehrwohl, weil in beiden Fällen unbestätigt.
Ob Alchemist jedoch gegen die beiden kommenden Konkurrenzserien der sinnvolle Vergleichspartner ist, bleibt abzuwarten, da Battlemage (2nd Gen) bereits in 2023 erscheinen soll. Wenn der früh erscheint, wäre der bspw. näher an RDNA3 dran als es Alchemist ist. (
Mindestens einem Gerücht zufolge könnten die RDNA3-Topmodelle bspw. gar erst Anfang 2023 erscheinen; abwarten und Tee trinken.)
MLiD erklärte hier schon mehrfach, dass er weiß, dass die 2nd Gen ("Elasti") ein MCM-Design werden soll, bei Intel vermutlich ein Tile-basiertes EMIB-Design wie Sapphire Rapids & Xe-HP(C), d. h. damit könnte es Intel sehr leicht gelingen im HighEnd mitzumischen und Xe ist grundsätzlich auf eine breite Skalierbarkeit ausgelegt. Zudem darf man auch hier vermuten, dass sie die Fertigung noch einmal modernisieren werden für das 2023er-Produkt.
[...]
(a) Von solchen geilen Geschichten wie IF-Cache und der (b) superben Effizienz von RDNA2 kann Intel eh nur träumen.
(man bedenke, das ne 6800 sich die 256bit-Anbindung nur wg. dem IF-Cache leisten kann)
(a) Was soll daran "geil" sein? Das ist einfach eine Kostenverlagerung hin auf den Wafer. Entsprechend eingeschränkt ist AMD nun bei der Auslegung des Speichers, schlicht ein Tradeoff, während nVidia es für sich als wichtiger erachtete, mehr Flexibilität beim Interface zu haben. Und da wo sie es für notwendig erachteten, hat nVidia auch einfach den Cache vergrößert, nämlich beim A100.
Intel wird hier nichts anderes machen. Auch die haben sich aus fertigungseffizienztechnischen Gründen für 256 Bit GDDR6 entschieden und müssen möglicherweise auch mit etwas mehr Cache arbeiten. Da sich die GPUs jedoch bis maximal auf einem 3070er-Niveau bewegen sollen, wird vermutlich kein allzu großer Mehraufwand diesbezüglich nötig sein.
(b) Die ist vermutlich nicht besser als die von nVidia, wenn die auch auf dem N7 von TSMC fertigen würden.
Will man abseits von Gefühl und Wellenschlag aber mal tatsächlich architektonisch vergleichen, so kann man das Anfang des Jahres, denn dann kommen Intels GPUs sowie ebenso von AMD bspw. Navi24 beide im N6 auf den Markt.
Intel machts sich doch lächerlich, die erste Karte kommt völlig verspätet auf dem Markt aber man verspricht vorher noch schnell Highend für 2023
Lächerlich machst nur wieder erneut du dich und das nachdem du gerade erst mal wieder ein paar Tage online bist.
Intel verspricht hier rein gar nichts, da das alles Leaks von Dritten sind.
Und warum sollten die GPUs "
völlig verspätet" auf den Markt kommen ... du meinst etwa so völlig verspätet, wie AMD mit der Zen-CPU-Archirektur auf den Markt kam oder so völlig verspätet, wie AMD mit der RDNA(2)-Architektur auf den Markt kam ... ?
Eben wenn am Ende 2060 12 GB Leistung bei raus kommt wäre das schon mehr als die meisten erwartet haben.
Also immer schön den Ball flach halten.
Und du schaffst es auch gleich dich 2x in einem Thread nur wenige Posts hintereinander vollkommen in die Nesseln zu setzen.
Das bisher kolportierte Leistungsspektrum ist relativ klar umrissen und liegt deutlich oberhalb eines Turing-Mittelklassemodells, d. h. wie so oft baust du dir hier deine eigene Fantasiewelt zusammen.
Noch mal zusammengefasst, egal ob es jetzt an Recherchefaulheit, einer Leseschwäche, dem Confirmation Bias, einer Kombination von alledem oder was ganz anderem liegt: Das Intel Alchemist-Topmodell wird nach bisherigem Kenntnisstand im Bereich einer RTX 3060 bis RTX 3070 Ti verortet.
Darüber hinaus, auch wenn es dir möglicherweise schlaflose Nächste bereitet: Zu Intels Raytracing-Leistung ist noch gar nichts bekannt. Wenn du ganz viel Pech hast, performt Xe-HPG diesbezüglich eher auf nVidia-als auf RDNA2-Niveau.
intel hat eh alles geklaut an wissen von amd + die ganzen architekten von amd weggekauft intel rotz.
Wie meinen? Etwa so, wie AMD seine x86-Karriere als reine CopyCat begann und schlicht jahrelang Intel-Designs nachbaute oder wie AMD sein GPU-KnowHow von ATI "
weggekauft" hat oder sich den K6 komplett extern einkaufen musste, weil das eigene K5-Design zu fehlerbehaftet und nicht konkurrenzfähig war?
Oder um bei Personen zu bleiben, wie man sich per "Raubbau" bei ATI, Apple und DEC "bereicherte" (Koduri und Keller) oder wie man sich einen externen CEO angeln musste, weil es in den eigenen Reihen wohl niemand fähigen zur Steuerung gab (Su)? - Na, geht dir so langsam ein Licht auf?
Bäumchen-wechsel-dich ist in der Branche völlig normal, insbesondere bei den "Celebs" *), die sich einen gewissen Stand erarbeitet haben, denn die können jederzeit wechseln und so mancher Manager träumt von den Ressourcen, die einem beim Branchenführer Intel zur Verfügung stehen, sodass es nichts ungewöhnliches ist, wenn der eine oder andere im Laufe seiner Karriere da mal "vorbeischaut".
*) Der typische PC-Anwender und Forenuser hat ja auch nicht mehr als die Hand voll Halbleiter-"Celebs" auf dem Radar und verwechselt hier auch oftmals den Wirkungsbereich sowie die Verantwortlichkeiten.
Ich bin mir ziemlich sicher das die alten Hasen von NV+AMD die entscheidenden Spar-Features in
Hardware im Chip haben.
Bei Intel wäre es jetzt rein spekulativ vorrauszusetzen, das eine ähnlich schmale Bandbreite reicht.
(falls Intel so ca. 1-2 Generationen in der Optimierung zurückhängt und man mal bei Navi schauen würde, ....
Es müsste ja ein Leistungssprung von ner 5700XT zu ner 2080Ti bzgl. Nutzung der Bandbreite her.)
Fürs Frühjahr bin ich Da wirklich gespannt ob man zw. einzelnen Games dann Unterschiede feststellen kann,
wenn Streaming+Bandbreite evtl. net ausreichen.
Es ist exakt genau so spekulativ anzunehmen, dass Intel hier in einen Bandbreitenengpass laufen wird. Die Frage ist vielmehr, warum du ohne weitere Informationen der einen Möglichkeit eine höhere Wahrscheinlichkeit zuzuordnen bereit bist als der anderen?
![sm_ ;-) ;-)](/styles/ctec/images/smilies/05 sm_.gif)
Letzten Endes ist das Speicherinterface aus Sicht der Anwender sekundär, wenn überhaupt. Der Hersteller hat dafür Sorge zu tragen, dass die Ausführungseinheiten mit Daten beliefert werden, damit die nicht sinnlose Wartezyklen fahren und entsprechend ist das SI als eine Kombination aus DRAM und Caches auszulegen. Wenn Intel hier wie AMD mit einem schmalbandigen SI ums Eck kommt (
was inhen hier grundlegend einfacher fällt, da es nur gehobene Mittelklasse- oder untere HighEnd-Klasse-Leistung geben soll), werden die die geringe Speicherbandbreite mit dem Cache-Subsystem kompensieren. Darüber hinaus, wie die 3070 bereit demonstriert, gibt es hier gar nicht so viel zu kompensieren. Die nVidia-Karte kommt mit 256 Bit, nur 14 Gbps und nur 4 MiB L2$ gut ums Eck, d. h. Intel muss hier vielleicht nicht einmal einen über das übliche Maß hinaus nennenswerten Mehraufwand betreiben.
Einfach mal abwarten was da kommt. Das Mehr an GPU-Hardware kann nur gut für den Markt sein.