Intel-Arc-Grafikkarten: JPR empfiehlt Verkaufen oder Schließen

[ diverse heutige Postings hier und in anderen Threads ]
Lol, bist du schon wieder dabei Realsatire zu generieren, mit dir als unbewusstem/unfreiwilligem Hauptsdarsteller?

Du meinst das Kind ist in den Brunnen gefallen und alles ist vorbei? ... warum?, weil heute das Ende aller Tage ist und nun die Abschlussbilanz gezogen wird und morgen Armageddon die Halbleiterindustrie und den Rest der Welt hinwegfegen wird? - Wäre dem so und derartig kindlich-naive Betrachtungsweisen wäre tatsächlich berechtigt anstellbar, dann würde es AMD heute schon längst nicht mehr geben.

"Sollte Gelsinger aber ..." genau, sollte er dringend, warum? ... weil ein AMD-Fanboy das sagt!?
Du meinst genau so, wie Su das Vega-Debakel auf sich nehmen sollte und bspw. den Blödsinn, den man seit 2018 bspw. zu Thema Raytracing seitens AMD erklärte, den versprochenen aber nicht existierenen GPU-RampUp oder aber den in die Irre führenden Unsinn Mitte 2021 zum V-Cache? Oder die regelmäßig zu patchenden Bugs in Epycs Speicherverschlüsselung, uvm.? - Na wenn du doch so sehr mit dieser Firma verbunden bist, dann räume doch erst mal vor deiner eigenen Haustüre auf ... vielleicht läuft es da ja dann gleich doppelt so gut und man erreicht die Weltherrschaft doch noch in diesem Jahrzehnt und möglicherweise gar nicht nur bei CPUs sondern auch bei GPUs und gleich bei allem anderen auch ... und das dank dir ... :-D

"die Aussagen solch renomierter Analysten" ... renomiert sind die doch nur, wenn du sie als Zitat zur Bestätigung deiner extrem eingefärbten Sichtweise heranziehst. In anderen Postings kommst du dagegen eher zu dem Schluss "Schwachsinn" und "wie viele Dummkömpfe man braucht, um derartige Analysen zu erstellen". - Ergo, am Ende wirst du wohl am allerwenigsten über Kenntnisse verfügen, die dir eine Einteilung in renomiert und glaubthaft oder das Gegenteil ermöglichen und wie immer zitierst du nur externe "Quellen", wenn sie deine Sichtweise unterstützen.

Aber mal zur Konkretisierung und abseits deiner völlig unqualifizierten Bewertung: JPR kennt den Grafikmarkt sehr gut und beobachtet diesen schon seit Jahrzehnten, hat aber dennoch keine internen Einsichten in Intels langfristige Planung bzgl. der AXG und den tatsächlichen internen Verhältnissen in den unterschiedlichen Bereichen. Entsprechend können die sehrwohl eine Abschätzung der Art 3,5 Mrd. US$ Ausaben bisher ohnen nennenswerten Revenue in den Raum stellen. Ob die Abschätzung dagegen korrekt ist, steht auf einem anderen Blatt und ob dieser oder ein etwas korrigierter Wert für ein Fazit der Art Verkaufen oder Schließen ausreichend ist, darf mehr als bezweifelt werden.
Das ist in etwa genau so unsinnig, wie die vor einigen Jahren von einigen Analysten in den Raum gestellte Forderung, dass Intel seine Fertigungskapazitäten hätte abstoßen sollen.
Am Ende gilt auch hier wie so oft ein "Schuster, bleib bei deinem Leisten!" und diese Abschätzung kann Jon Peddie schlicht nicht zuverlässig treffen.
Selbst wenn Gelsinger die AXG wirklich schließen würden, was eher weniger wahrscheinlich ist, weil es da vornehmlich um Datacenterprodukte geht, würde das Peddie in keinster Weise recht geben, denn er hätte bzgl. dieser Vermutung/Empfehlung/Fazit lediglich eine Münze geworfen, weil ihm schlicht die Fakten für eine fundierte Entscheidung fehlen. In erster Linie könnte man vermuten, dass man hier abseits des Quartalsreportes, den JPR zu GPUs regelmäßig bereit stellt, man hier vielleicht eher eine günstige Gelegenheit ergriffen hat für ein wenig Eigenwerbung, denn mit so einer Äußerung (zu diesem Zeitpunkt) konnte man sich sicher sein, dass die breitflächig von den Medien aufgegriffen wird, wobei es JPR dafür genaugenommen nicht einmal gebraucht hätte, denn derartige Überlegungen könnte man mit ein wenig Hintergrundwissen gleichermaßen selbst aufstellen (mitzwangsläufig ebensolcher Unschärfe). Am Ende fehlt es aber schlicht an den notwendigen Details, die einen in den tatsächlichen Entscheidungshorizont eines Gelsingers und dessen Management Board hineinblicken lassen, denn es geht nicht nur darum im nächsten Quartal und zum Jahresabschluss gute Zaheln abzuliefern, sondern Intel langfristig auf eine solide und zukunftssichere Basis zu stellen und die besteht heute zweifellos nicht mehr nur aus CPUs ...

"der CEO müsste eigentlich zurücktreten" ... witizig, welch konsequentes Handel du hier von einem Konkurrenten deines heiß und innig geliebten Brands forderst. Würdest du genau so konsequent bzgl. deiner vielen Fehleinschätzungen und Prophezeiungen handeln, hättest du hier in diesem Forum schon längst deinen Account gelöscht und würdest dich einem anderen Zeitvertreib widmen, aber wie so oft, talk is cheap ... ;-)

Am Ende kann nur Intel für sich entscheiden was gut und richtig ist, ebenso wie das bzgl. AMD nur deren Management oder gleichermaßen bei nVidia das nur deren Management entscheiden kann. Also einfach mal abwarten was kommt ... oder auch nicht ...
 
Lol, aus deiner SIchtweise heraus sicherlich verständlich und nachvollziehbar ... den einen Teil ignorierst du natürlicherweise und den anderen Teil verstehst du offensichtlich nicht bzw. dein Confirmation Bias erlaubt dir nicht die Verarbeitung derartiger Informationen ... Realsatire .. sag ich ja ... :-D
 
Da SOCs immer mehr Standard werden, hat Intel keine Wahl als GPUs zu entwickeln. ob man dezidierte Karten anbietet ist da nur eine Frage von Peanuts.
 
Intel hat es jetzt zum zweiten Mal verbockt. Aus den Fehlern von 1998 und der Intels i740 hat man keine Lehren gezogen. Eigentlich wieder eine peinliche Sache für Intel.
Hoffe aber das Intel noch die Kurve kriegt, denn die Arc Karten sind neben AMD und nVidia eine weitere Konkurrenz auf dem Markt.
 
Ganz schön schonungloses Statement, die Analysten von Jon Peddie Research sagen freiheraus was sie denken. Nicht mal Chatstar oder die Typen von Userbenchmark finden so klare Worte, zumindest habe ich von denen noch nicht gelesen, dass AMD seinen Laden dicht machen soll. Wenn jemand im Forum solche Formulierungen gewählt hätte, würde man ihn glatt als Troll bezeichnen.
 
Zuletzt bearbeitet von einem Moderator:
nennt mich ab sofort Bx Jon Bender ^^ ;-P

endlich mal jemand, der Tacheles redet und die Probleme beim Namen nennt
wie ich schon sagte, brodelt es ganz gewaltig bei Intel
man hat den gesamten Überbepreisungswahn komplett verpennt, das hätte sich die Geschäftsleitung niemals freiwillig nehmen lassen

genau, wenn einer gehen muss, dann ja wohl Koduri
AMD hat er auch fast kaputt bekommen, soll er doch jetzt zu NVidia oder Apple gehen
je nachdem, welche Firma man mehr hasst hahahhaha^^ ;-P
Da musst du mir jetzt erklären, Koduri sit doch für die Hardware zuständig, und alles was man ließt funktioniert die ganz Ordentlich dafür das die fast bei 0 angefangen haben, oder schreibt er jetzt persönlich auch noch die Treiber?
 
Um was neues auf den Markt zu bringen muß man halt auch mal was investieren, sehe da keine Probleme.

Mag die erste Arc Charge noch nicht der Bringer sein (Treiber) heißt das nicht das die nächste Gen. nicht besser wird.

Intel hat die Finanzen das durch zuziehen und ich hoffe sie bleiben am Ball.
 
Neben den jetzt schon mangelhaften Treibern ist der ungewisse Langzeitsupport durch Intel eines der größten Risiken.
Die Karten werden dann auch auf dem Gebrauchtmarkt kaum was wert sein.
 
Ich würde mir zwar momentan auch keine Intel Karte kaufen und auch nicht die nächste Generation, aber jetzt die Segel zu streichen, wäre einfach nur Kapital verbrennen gewesen. Denn Treibersupport werden sie jetzt trotzdem eine Weile liefern müssen, da ja Karten schon im Umlauf sind und die morgen ja nicht einfach wieder weg sind.
Wenn man einfach alles einstampft, dann ist der Shitstorm noch größer.

Das die erste Generation zu nix zu gebrauchen ist, war doch eigentlich zu erwarten. Auch Intel kann nicht einfach mal was aus dem Hut zaubern, was Nvidia und AMD seit Jahren in Perfektion betreiben. Davon abgesehen, wäre AMD wahrscheinlich im Grafikkartenmarkt auch nicht so schnell dabei gewesen, wenn sie sich nicht damals schlauerweise Ati einverleibt hätten. Was in Hinsicht auf iGPUs extrem schlau war und wahrscheinlich schon damals zu der Zeit die ersten Konzepte geplant wurden.

Intel sollte sich jetzt hinsetzen, die Ganzen Probleme ehrlich zugeben und analysieren. Die aktuelle Generation als Erstversuch abschreiben und das Design für die nächste Generation überarbeiten und vor allem ins Treiberteam investieren. Vielleicht auch mal schauen, was man sich so an entsprechenden Entwicklern günstig bei Nvidia und AMD aus dem Bereich ranholen kann. Dann würde die nächste Generation wahrscheinlich schon näher dran sein, nicht auf Augenhöhe, aber im Einstiegssegment und unterem Mittelfeld vielleicht gut mitschwimmend.
Das Problem war das Intel einfach zuvor zuviel getrommelt hat. Erinnert mich immer an AMD. Immer wenn AMD das gemacht hat, kam ne Luftpumpe bei raus.
Vielleicht das Kapital erstmal in die Entwicklung stecken, vor allem da wo es hackt .... beim Treiber und am Marketing sparen. Dann kann man vielleicht nicht so viel Kohle fürs Produkt verlangen, aber wenn es liefert, dann verkauft es sich auch von alleine und dann kann man bei den späteren Generationen auch dort wieder mehr Geld versenken.
 
Zuletzt bearbeitet:
Davon abgesehen kann sich das ganze in den nächsten 3 Jahren mit adequater Treiberarbeit durchaus zu einer Cash-Cow entwickeln.
Nein. Dafür wäre der finanzielle Aufwand viel zu hoch. Und darf man verschiedenen Berichten trauen wird es mit Battlemage nicht besser. Das hat die gleichen grundlegenden Probleme wie ARC, Ob Intel bis zu dem darauf folgenden Celestial durchhalten darf würde ich bezweifeln. Denn irgendwann sagen die Shareholder auch mal "Nein". Gerade Vanguard und BlackRock sind nicht gerade bekannt dafür zimperlich zu sein wenn es um sowas geht. Die beiden halten schon weit über 10% der Aktien für ihre Kunden und haben entsprechend Einfluss. Mit dem letzten Quartalsergebnis gab es schon ein aufraunen und Pet musste öffentlich Besserung geloben und eingestehen das man unter den Erwartungen lag. Das lässt man ihm vll. noch einmal durchgehen und dann wird die Reißleine gezogen.
Etwas besserer Dev-Support und man könnte schon nächstes Jahr schwarze Zahlen schreiben,
Auch hier liegst Du denke ich falsch. Treiber und auch Software Entwicklung kostet richtig Geld. Parallel wird dann noch an den Folgegenerationen gearbeitet. Sowas ist für viele Jahre mit roten Zahlen verbunden. Vor allem wenn es in absehbarer Zeit keinen weiteren Mining Boom gibt.
Wenn ARC tatsächlich vor einem knappen Jahr schon erschienen wäre hätte man
a) die Treiber schon besser im Griff
Das ging nicht weil die Treiber zu dem Zeitpunkt noch mal DEUTLICH schlechter waren. Das andere Problem ist das Kunden an "Release Hardware" eben auch eine bestimmte Erwartungshaltung haben. Das Echo jetzt ist ja schon quasi vernichtend. Was glaubst Du was vor einem Jahr mit dem damaligen Stand dann erst passiert wäre.
b) wären ihnen die GPUs absolut aus den Händen gerissen worden
Und die RMAs aus dem DIY Markt hatten den Support geflutet. :D Nur ein geringer Teil an Titeln läuft wirklich gut. Viele der E-Sport Titel laufen sagen wir mal bescheiden bis mies. Der Imageschaden wäre katastrophal ausgefallen. Ist er zwar jetzt auch aber da wäre noch Luft nach oben.


Intel hat das gesamte Projekt falsch eingeschätzt. Und auch was während dessen an Problemen auftauchen kann. Allein die Tatsache das man ein "Command Center" herausbringt was quasi kaum QA erfahren hat spricht Bände. Intel ist ja keine kleine Klitsche. Da darf sowas absolut nicht passieren. Da muss man die Frage stellen was wurde überhaupt in welchem Umfang getestet? Da arbeiten Test-Ings mit Jahren an Erfahrung. Die grundlegenden Prozesse für sowas bestehen dort seit Jahrzehnten! Und trotzdem wird eine Software released die quasi völlig unfertig und fehlerbehaftet ist.
 
Ein ziemlich desaströses Bild, was Intel bisher mit Arc abgibt. Verspätungen noch und nöcher, miserable Treiber, passable Performance maximal in ausgewählten Szenarien und eine völlig undurchsichtige Roadmap. Dennoch, verkaufen oder schliessen ergibt keinen Sinn. Das wäre nach Larrabee die endgültige Bankrotterklärung für Intels GPU-Ambitionen. Sie sollten dem Projekt definitiv mehr Zeit geben. Aber auch schleunigst in die Pötte kommen und was Brauchbares liefern. Man muss nicht direkt im High-End Segment versuchen zu wildern. AMD hat es mit der ersten RDNA Generation vorgemacht. Ein mehr als solides Portfolio bis zum Mainstream Segment, auf das man für Nachfolgegenerationen aufbauen kann. Das Problem, Arc bietet ja nicht mal im Entry Segment was Brauchbares.
 
Das alte Spannungsfeld: kurzfristiger Gewinn gegen langfristiges Investment.

Gute GPUs würden das Portfolio von Intel ordentlich aufwerten. Wie schon erwähnt wurde geht der Trend in Richtung SoC. Intel hat damals, mit Sandy Bridge, bei den normalen x86er CPUs auch konsequent eine IGP eingeführt und ist sehr gut damit gefahren, AMD zieht über 10 Jahre später nach.

Aber das wird nicht mehr reichen, von daher ist Arc nur konsequent. Wer ernsthaft gedacht hat, man könnte mal eben so problemlos in einen derart etablierten Markt einsteigen, der war ganz schön naiv. Da muß Intel jetzt dahinter bleiben. 3 Generationen sind wohl schon entwickelt, es wäre Blödsinn sie wegzuschmeißen. Verkaufen? An wen? Momentan braucht eigentlich nur Intel neue GPUs, der Rest ist bedient. Außerdem würde eine besser etablierte Position auf dem GPU Markt in Zukunft wesentlich höhere Preise abwerfen.

Von daher sollte Intel den Kurs noch 3 Jahre halten, AMD bleib bei HBM auch nichts anderes übrig.

Bitte was?

Das Gewicht der Aussagen solcher renommierten Analysten haben direkten Einfluss auf die Stimmung der Investoren und wenn die nicht mehr hinter Arc stehen, hat Intel ein Problem!

Nur weil man auf sie hört heißt das nicht, dass sie Ahnung hätten.

Das sollte weniger eine Rolle spielen, da er trotzdem die Verantwortung mit der Übernahme seines Postens übernommen hat.

Demnach müßte es eine unendliche Rücktrittswelle geben.

Komisch: bei Lisa Su hast du nicht gefordert, dass die wegen dem Bulldozer und HBM, zurücktreten soll.

Neben den jetzt schon mangelhaften Treibern ist der ungewisse Langzeitsupport durch Intel eines der größten Risiken.
Die Karten werden dann auch auf dem Gebrauchtmarkt kaum was wert sein.

Das ist halt eben ein Wagnis. Wenn Intel die Probleme in den Griff bekommt, dann könnte die Karten überproportional viel an Wert behalten, wenn nicht, dann war es das allerdings. Ein Kauf für Risikofreudige.
 
Ich würde erstmal unabhängige Reviews zur A750 abwarten.
evtl.
Sind die Frametimes deutlich besser als bei der A380, ... was dann dafür spräche, das nur die Bandbreite+Link bei
der Kleinen net passt, ... das Intel net so gut Cache kann wie AMD, ist halt erstmal unter try+error zu verbuchen.
 
Aber das wird nicht mehr reichen, von daher ist Arc nur konsequent. Wer ernsthaft gedacht hat, man könnte mal eben so problemlos in einen derart etablierten Markt einsteigen, der war ganz schön naiv. Da muß Intel jetzt dahinter bleiben. 3 Generationen sind wohl schon entwickelt, es wäre Blödsinn sie wegzuschmeißen. Verkaufen? An wen? Momentan braucht eigentlich nur Intel neue GPUs, der Rest ist bedient. Außerdem würde eine besser etablierte Position auf dem GPU Markt in Zukunft wesentlich höhere Preise abwerfen.

Mein Lieblingszitat hier ist ja:
Das dGPU-Programm ist in seinem Konzept edel, in seinem angeblichen Design faszinierend und ein Abenteuer, das selbst für Intel zu groß ist, besonders in diesen Tagen der Erholung.

Wenn dieses "Abenteuer" selbst für Intel zu groß ist, wer soll das dann bitte kaufen? Wenn man es einer Firma zugetraut hat sowas zu schaffen dann Intel. Wenn man aber glaubt, dass Intel einfach so aus dem Handgelenk mal eben GPUs hinschleudert die direkt oben mitspielen kann man nur enttäuscht werden.
Wer könnte denn sonst einen Versuch wagen? Apple? Sony? Samsung? Siemens (hust)....
 
Natürlich ist eine neue Fähigkeit zu entwickeln teuer, aber Intel ist doch auf dem richtigen Weg. Eine konkurrenzfähige GPU zur 3060 ist ein riesen Schritt. Und das einzige was jetzt fehlt ist diese sehr kleine GPU jetzt größer zu Skalieren. Den Unterbau hat man, jetzt müssen nur noch mehr Recheneinheiten angeflanscht werden.
 
Zurück