News Intel Arc: Droht ein Grafikkarten-Fiasko? [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Ein als zuverlässig beschriebener Leaker verkündete auf dem Blogging-Dienst Weibo, dass es zu Verschiebungen oder gar einem Ende bei Intels Battlemage-GPUs kommen soll. Das könnte sich negativ auf die Folgegeneration Celestial auswirken.

Was sagt die PCGH-X-Community zu Intel Arc: Droht ein Grafikkarten-Fiasko? [Gerücht]

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Ah, nach dem schon mehrfach über die Einstellung spekuliert wurde und die aufgetauchten Versandunterlagen zuletzt offenbarten das es BM noch gibt wird aktuell wieder die nächste Gerüchtesau durchs Dorf getrieben.
Ich weiß garnicht was ich mehr hasse, ewig warten das neue Hardware rauskommt oder die ständigen Social-Media "Leaks" mit (angeblichen?!?) Insiderinfos.
 
Wenn man die zuletzt von Analysten für Nvidia, AMD und Intel bekanntgegebenen und prognostizierten Umsätze im Bereich Ai betrachtet und diese mit der Gamingsparte vergleicht, muss man leider traurigerweise befürchten, dass die Anstrengungen im Bereich Gaming/GPU auf Grund dessen in der nächsten Zeit wohl auf ein absolutes Minimum heruntergefahren werden.

Wir Gamer spielen gegenüber dem neuen Ai-Feld halt nur eine extrem untergeordnete Rolle, da wir bei weitem keine vergleichbaren Gewinne in die Kassen spülen können.

AMD bringt somit voraussichtlich nur noch auf wenig Waferfläche getrimmte Mid-Range GPU's und rührt stattdessen lieber die Marketingtrommel für große Mi/CDNA-Lösungen.
Zu Nvidia's RTX5000 Serie gibt es weniger handfestes als um diese Jahreszeit eigentlich zu erwarten wäre.
Und Intel fokussiert sich für den Moment dann vermutlich auch lieber auf seine Gaudi-Geschichten..

Die Engpässe im Bereich der Halbleiterfertigung sind bekannt.
Glaube da wird augenblicklich jede Produktionslinie zweimal von allen Seiten durchleuchtet und wennmöglich auf Margenträchtigere Ai-Chips umgeshifted :(
 
Ach du liebes Lieschen, da liest man einige Zeit keine Artikel über neue Karten und dann erfährt man das.

Bedeutet also das Nvidia zu neuen Preishöhen aufsteigen wird, mindestens 2500€+ wird im HighEnd also das normale in den nächsten Jahren im Handel, AMD verliert Prestige und Intel verrennt sich in ihren Problemen.

Tja, dazu sind KryptoscheiC und KI-Aufbau voll aktiv, sagt mal lieber auf wiedersehen zum Preiskampf, das wird in den nächsten Jahren wohl ein Fremdwort.

Zum Glück bin ich gut versorgt, es könnte womöglich die längste Zeit werden wo ich mir keine neue Karte besorge...
 
Oha, das wäre echt schade. Ich bin da ganz bei @PCGH_Raff und finde sie sollten bringen was sie haben, notfalls einfach das vorhandene hochskaliert. Arc ist ja kein schlechtes Produkt und man sieht ja, dass die Verkäufe mit den großen Treiberupdates auch gestiegen sind, also ist ein Markt da.
Ich hätte auch nichts über einen dedizierten raytracing-Beschleuniger, ähnlich der Ageia PhysX damals für Physikalische Berechnungen. Sparte finden und bedienen. Besser als auszusetzen.
 
Ein Markt ist da, weil es günstiger ist. Das ist auch Okay. Dennoch scheinen die Teile/Treiber zum Teil immer noch Beta zu sein, gerade wenn neue Spiele erscheinen. Das dann Spiele nicht starten oder kurz nach Starten wieder Abstürzen darf nicht so oft passieren. ich denke das Intel noch 2-3 Jahre brauchen wird bis das wirklich richtig Ordentlich ist. Und scheinbar gibt es ja nach Spiel immer noch große Ausreißer, und das meist leider eher nach unten statt nach Oben.

Gruß
 
Der Gamer Markt ist im Vergleich zum KI-Markt halt nichts. Dementsprechend wird sich der Fokus der Unternehmen, die nun mal gewinnorientiert sind, auf diesen neuen, absatzreichen Markt konzentrieren und die Produkte für uns Gamer nur noch nebenbei bedient, um die Sparte offen zu halten.
 
Nenne uns doch einige dieser neuen Tests, die das behaupten wollen :schief:
Bevor du dich zu weit hineinsteigerst, wir haben eine Arc im Haushalt :)
 
Sollte MLID am Ende doch recht behalten? Wäre sehr schade für den Markt, ich fand das alles sehr interessant und wichtig...
 
Nenne uns doch einige dieser neuen Tests, die das behaupten wollen :schief:
Bevor du dich zu weit hineinsteigerst, wir haben eine Arc im Haushalt :)

Nur das alleine reicht beinahe schon aus. Und dafür musste ich nicht mal suchen. Und Unreal Engine benutzen schon ein paar Games. Für den Preis sind diese Karten einfach nicht gut genug. Und ja, ich weiß das es auch Games gibt wo die relativ Gut abschneiden. Aber das reißt es halt nicht raus, und besonders Effizient sind die nun ja auch nicht. Und du kannst ja auch gerne glücklich mit deiner Intel sein, ist doch auch ok.

gruß
 
Also, "keine Spur" würde ich jetzt echt nicht sagen, es gibt immerhin bereits Treiber im Linux Kernel
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
@xeonking
Du enttäuscht mich jetzt offen gesagt.
Kennst du eigentlich die Listen die Nvidia und AMD bei jedem neuen Treiber herausgeben, bezüglich behobener und offener Fehler, ich denke eher nicht.
Schau dir mal eines davon an, wenn es nach dir gehen würde wären deren Treiber auch noch Beta :schief:
... Spielabstürze, Systemabstürze, Artefakte, Treiberabstürzte, einfrieren, Bildfehler, Spiele starten nicht mit AA, Boost ruf Störungen herbei, flimmern, ruckeln und so weiter... ja ne is klar, AMD und Nvidia sollten unbedingt zurück zum Zeichenbrett, nicht wahr ;-)
Die Punkte im Link sind übrigens normal, dass ist jetzt kein kurioser Ausreißer.
5 Sekunden gesucht :P
 
Das war abzusehen, kein Wunder wenn man man mit jeder Karte Verlust macht.
Die GPU's brauchen doppelt so viel Silizium wie die Konkurrenz und sind trotzdem deutlich langsamer und verbrauchen dabei auch noch das Doppelte.
 
Zuletzt bearbeitet:
Zurück