Du bist auch gut darin die Dinge auszulegen wie du sie haben willst. [...]
Nein, in dem Falle hast es eher du dir zurechtgebogen wie du es brauchtest. AMD ist seit Jahrzehnten im Consumer-Geschäft unterwegs, glaubt man der hiesigen Fanbase von LowEnd bis HighEnd (
und gar vollends konkurrenzfähig zum Marktführer 
) und jetzt auf einmal soll Intel, nur damit man sie ordentlich "abstrafen" (
oder was auch immer) kann, im GPU-Segment einen zu AMD vergleichbaren Stand haben? War das ein ungewollter Witz von dir?
Intel hatte mal mit der i740 vor über 20 Jahren (!) einen (!) zaghaften Versuch, bei dem es sich zudem auch noch nur um ein zugekauftes Design handelte und als dieses relativ schnell von ATI und nVidia überholt wurde, stellte Intel das Projekt ein und das eingekaufte Design wanderten in die Chipsatzgrafik, die jedoch einem vollkommen anderen Zweck diente.
Und ja, die waren im Vergleich zu den etablierten beiden Grafik-Playern sehrwohl relativ grün hinter den Ohren, denn in jedem anderen Kontext käme wohl niemand auf die Idee Intel hier im GPU-Segment mit AMD oder nVidia gleichzustellen oder Intel auch nur annährend in deren Nähe zu rücken.
Und nein, es gibt es auch nichts zu bedenken, da es niemals offizielle Aussagen von Intel zu dem anvisierten Leistungsbereich gab (
sondern immer nur ein schwammiges "Enthusiast GPUs", mehr dazu unten). Die kolportieren Aussagen zur 3060 Ti bzw 3070 stammten allesamt aus Leaks und letzten Endes scheint Intel diesen Korridor durchaus grob erreicht zu haben, denn so wie es sich aktuell darstellt, ist die A770 wohl etwas schneller als die einfache 3060 und verfügt zudem anscheinend über eine bessere Raytracing-Implementation als AMDs RDNA2. Darüber hinaus verbot es sich Intel anscheinend per se grundlegend hier mit konkreten Aussagen hausieren zu gehen, da es schlicht zu viele Variablen gab, zweifelsfrei auch bzgl. des Siliziums, im Besonderen aber bzgl. der Treiber. Die Release-Verzögerungen kommen ja nicht von Ungefähr, weil das ein Riesenberg Arbeit ist, denn Intel da für ihre 1st Gen abzuarbeiten hat und der ist dennoch natürlicherweise bei den Tausenden von Titeln nicht zu bewältigen, so dass man hier und da Abstriche macht und bspw. ältere DX-Versionen über Microsofts Kompatibilitätsschicht rendern lässt.
Natürlich hätte ein Konsument immer gerne ein vom Start weg perfektes Produkt gehabt, aber das Problem bei einem solchen ist grundsätzlich ebenso immer, dass der natürlich nicht bereit wäre, dieses perfektionierte Produkt zu bezahlen, denn die softwareseitigen Aufwendungen sind immens, da sich viele Entwickler anscheinend nicht an den DX-Standard halten, bzw. wie T. Petersen es mal nebenbei fallen ließ, den Eindruck machten, als wenn einige niemals einen Blick in die API-Spezifikation geworfen hätte und statt einem DX-Titel eher einen nVidia-Titel entwickelt hätten.

Beispielsweise Imagination Technologies hat nicht ohne Grund so lange gezögert mit ihrer recht guten Hardware eine Entscheidung zugunsten eines PC-Comebacks im unteren Marktsegment zu treffen und ob sie das nun mittlerweile trotz existierender Zusage auch tatsächlich durchziehen werden, bleibt vorerst weiterhin abzuwarten. Absehbar werden die aber bspw. bzgl. älterer DX-Versionen vergleichbare Shortcuts zu Intel treffen, weil das schlicht eine Frage der Wirtschaftlichkeit ist und sich ebenso auf DX12 und Vulkan konzentrieren.
Abschließend zu der von dir zitierten "
Enthusiastenklasse": Da du keine Referenz definierst, kann man kaum über diese Aussage streiten, denn was Enthusiast-Grade-Hardware ist, ist durchaus frei definierbar und grundlegend ein sehr dehnbarer Begriff. Selbst bei einigen hier im Forum beginnt der Bereich bereits bei 300+ € (oder gar weniger) für eine dedizierte GPU.
Darüber hinaus hatte Intel aber auch niemals den Eindruck erweckt im "echten" (

) HighEnd mit dem ersten Wurf mitspielen zu wollen und nimmt man es noch genauer, kann man Intel bzgl. dieser schwammingen Aussage "Ethusiast GPU" kaum einen Strick drehen, da nahezu alles, was sie als dedizierte GPU rausbringen im Vergleich zu ihren bisherigen GPUs "
Enthusiastenklasse" ist und da nicht vorgegeben ist, woran ein derartiger Vergleich gemessen werden muss, erscheint es durchaus legitim von ihnen derart zu formulieren. (
Beispielsweise bei AMD fallen mir da bzgl. Raytracing und auch dem V-Cache weitaus fragwürdigeren Formulierungsweisen ein.)
Darüber hinaus, die Aussage zu Celestial, der 3rd Gen in 2024, ist lediglich das Zitat einer Intel-Aussage (
Koduri, wenn ich mit recht erinnere) und nicht meine Interpretation. Darüber hinaus haben ich deren Aussage bisher so verstanden, dass sie sich Feature- und bspw. Effizienz-technisch ab Celestian (2024) in etwa gleichwertig zur Konkurrenz sehen. Der Rest ist lediglich eine Skalierungsfrage bzgl. der GPU-Bauweise und -Größe.
Konkret würde ich gar davon ausgehen, dass die bereits schon mit der 2nd Gen Battlemage in 2023 im HighEnd mitspielen werden, auch wenn ich nicht davon ausgehe, dass sie gegen die Top-Lovelace/RDNA3-Produkte konkurrieren werden. Xe war grundlegend auf eine MCM-Bauweise ausgelegt und (
auch hier wieder einigen über die Monate erschienenen Brotkrumen folgend, die hier und dort jedoch durchaus Sinn ergeben und plausibel erscheinen) bereits HP demonstrierte dies und HPC setzte dies auch schon längst in beeindruckender Art in die Tat um. Koduri bestätigte schon vor längerer Zeit in einem Interview, dass man an einem Multi-Tile-GPU-Design arbeitet (
übrigens etwas, das AMD mit ihrem ersten Wurf a la RDNA3 anscheinend in der allgmein verstandenen und erhofften Form nicht umsetzen wird, da es hier anscheinend nur ein monolithisches Graphics Chiplet pro GPU geben wird). Bei Alchemist und auch HP sprach wohl noch einiges dagegen, bspw. möglicherweise die Effizienz des damalig zur Verfügung stehenden EMIB, da der Kommunikationsaufwand in einem GPU-Produkt weitaus größer ist als in einem CPU-Produkt, so dass es sich möglicherweise noch nicht rentierte diese nomals aufwendigere Technik bereits mit Alchemist in den Markt zu bringen. Zudem bleibt auch hier die Frage nach der treibertechnischen Umsetzung, die ebensowenig trivial ist. Möglicherweise haben hier mehrere Faktoren zusammengespielt, aber dem aktuellen Vernehmen aus der gut informierten Gerüchteküche nach soll Battlemage in 2023 nun tatsächlich ein echtes MCM-Design werden, d. h. man kann die GPU-Größe vergleichsweise leicht skalieren und dürfte auch deutlich größere GPUs anbieten können. Der Rest ist eine Frage des Prozesses (Effizienz) und Packagings und hier hat Intel in beiden Fällen Zugriff auf modernste Technologie, sodass sie sich für den kosten/nutzentechnisch optimalen Weg relativ frei entscheiden können (
also etwas, dass für Umsatz und Gewinn am besten ist und nicht etwa den Enthusiast-Gamern die meinsten FPS bringt; manche verwechseln hier nur allzu gerne die Perspektive eines solchen Unternehmens mit ihrer eigenen als einfacher Konsument; nicht auf dich bezogen).
Wie gesagt, denke ich nicht, dass es in 2023 für sie wirtschaftlich ist gegen das oder bspw. die beiden obersten, größten Modelle der Konkurrenz konkurrieren zu wollen, da man selbstredend immer noch weniger Vertrauen in ihre neue Hardware haben wird, aber ebenso würde ich erwarten, dass die das mit Battlemage unterstützte Leistungsspektrum nochmals ausbauen werden und zwar im Vergleich zu Lovelace und RDNA3.
Treibertechnisch, sofern das Multi-Tile-Design nicht ganz eigenen Probleme hinzufügt, werden sie per se keine größeren Probleme mehr haben, da bis Battlemage noch einiges Wasser den Rhein hinunterfließen wird und bereits den letzten Berichten zufolge lassen sich auf der aktuellen Alchemist-Serie die aktuelleren Titel schon recht gut spielen und Intel macht stetig Fortschritte bei der Treiberentwicklung, sodass ich davon ausgehen würde, dass der Launch der NextGen in diesem Sinne weitaus "unspektakulärer" verlaufen wird als noch in diesem Jahr, wobei man zudem natürlich auch bei dem ganzen Tohuwabohu um ARC auch berücksichtigen muss, dass es den Medienvertreter vielfach nur um Klicks geht und so manches zum hundertdrölfzigsten Male totberichtet wurde und dem ein oder anderen Forenuser es schlicht um die Pflege ihrer Feindbilder geht (
nicht auf dich bezogen). Entsprechend, nichts wird so heiß gegessen wie es gekocht wird.
Sofern ein P. Gelsinger nicht noch irgendwann ums Eck kommt und den Consumer-Produkten den Stecker rauszieht (
der AXG als Ganzes wird das per se nicht widerfahren), werden die Treiber zunehmend besser, die Leistung wird sich damit auch noch in kleinerem Rahmen softwaretechnisch weitersteigern und im kommenden Jahr wird es für den meisten, relevanten, aktuellen Content warscheinlich schlicht nur noch heißen "it just works".
Wenn Intel den richtigen Preispunkt trifft (
bzw. es sich erlauben kann diesen zu treffen), werden die gesichert Abnehmer für ihre Produkte finden, schlicht weil der Markt im Großen und Ganzen primär nach P/L geht. Die aktuellen Verzögerungen sind aus wirtschaftlicher Sicht für sie zweifellos unschön, da man gegen Ampere und RDNA2 auf längere Zeit einen besseren Stand gehabt hätte, während man nach aktueller Stituation nur noch bestenfalls 4 - 6 Monate Zeit haben wird, bevor die NextGen in dem Leistungssegment kommt, aber das ist nun einmal etwas, das man sich selbst eingebrockt hat, jedoch darüber hinaus haben die schon in 3Q21 kommuniziert, dass es zu Beginn erst mal ausschließlich um den Markteintritt und eine Etablierung der neuen Produkte geht (
mal ganze abgesehen von dem Henne-Ei-Problem, sprich es muss erst mal auch eine installierte Basis im Markt geben, damit sich Entwickler überhaupt nennenswert Gedanken über die neue Grafikarchitektur machen). Das Geldverdienen kommt erst später. Zudem bleibt auch weiterhin zweifelhaft, inwiefern Alchemist wirklich was für die hier im Forum diskutierende Klientel ist, denn glaubt man den hier und da vereinzelt an die Oberfläche kommenden Aussagen, so scheint Intel mit dem Alchemist-Kontingent grundsätzlich größtenteils den OEM-Markt anvisiert zu haben, letzten Endes auch eine plausible Strategie, da man hier leichter mit Volumen und Rabatten einen Einstieg hinbekommt, d. h. im Retail-Markt werden per se nur vergleichsweise wenig Karten laden und da darf man dann erst mal gespannt abwarten, was das mit deren Preisen machen wird.
Das schöne ist letzten Endes an der Geschichte, dass man sich deren Treiben auch erst mal in Ruhe ansehen kann (
irgendwer wird deren Prodsukte per se kaufen), denn es ist ja nicht so, als wenn es keinen volumenproduzierenden GPU-Hersteller am Markt geben würde oder deren Produkte unbrauchbar wären. Produkte gibt es genug, so mancher kommt aktuell zu einer günstigen GPU ob der deutlich Preisnachlässe aufgrund des zu großen Lagerbestandes und wenn Intel in der kommenden oder gar erst in der übernächsten Generation (
bei Intel ist das gemäß aktueller Roadmap im Jahresturnus eine neue Architektur) ein einigermaßen gutes Bild abliefern kann kann man die ja relativ entspannt in die nächste Kaufentscheidung miteinbeziehen ... oder man lässt es einfach. Warum hier dagegen so manche derart viel Energie in irgendwelche Hate-Speeches investieren, erschließt sich mir daher nicht bzw. ist per se vollkommen sinnlos, da der Markt insgesamt hier weitaus rationaler an eine Kaufentscheidung herangeht.