Intel Arc: Release der ersten Desktop-Grafikkarten wird vorbereitet

Ich bezweifle sehr, dass die Karten günstig erhältlich sein werden. Auch wenn intel den Preis niedrig ansetzen sollte, liegt der Endkundenpreis ja bei den Händlern und wenn die sehen, damit lässt sich wie mit den AMD&Nvidia Grakas auch nen Haufen Asche machen...
Vernünftige Preise werden vermutlich erst nächstes Jahr im GPU Sektor wieder eintreffen, wobei es mittlerweile ja auch stark an der Miningnachfrage hängt.
 
Ich bezweifle sehr, dass die Karten günstig erhältlich sein werden. Auch wenn intel den Preis niedrig ansetzen sollte, liegt der Endkundenpreis ja bei den Händlern und wenn die sehen, damit lässt sich wie mit den AMD&Nvidia Grakas auch nen Haufen Asche machen...
399 für potentielle 3070 Leistung, wenn die Treiber stimmen, ist doch okay.
 
Weiß man schon wo die ungefähr leistungstechnisch steht ?
Die A3 anscheinend im Markt für 1080p Gelegenheitsgaming. A5 und A7 Serie dann durchaus im Bereich der heutigen Mittelklasse. Nur was heute noch Mittelklasse ist, ist zum Jahreswechsel wahrscheinlich nur noch Einsteigerlevel und dort wird es hart für Intel überhaupt am Markt als Grafikkartenhersteller wahrgenommen zu werden.
 
399 für potentielle 3070 Leistung, wenn die Treiber stimmen, ist doch okay.

Kommt immer darauf an, was die Konkurrenz so bietet. Wenn das mit der Leistungsverdoppelung auch nur im Ansatz stimmen sollte und sich die Preise halbwegs normalisieren sollten, dann wird es nichts mehr mit 399€, sondern eher 299€. Die 900€, die sie ursprünglich haben wollten, können sie sich jetzt schon abschminken, solange der Miningboom nicht wieder zurückkehrt..

Das mit den Treibern ist auch so eine Sache. AMD wurde da für verhältnismäßige Kleinigkeiten gegrillt, Intel schießt da größere Böcke. Bisher hat das bei den IGPs kaum jemanden interessiert, ob da ein Spiel mehr oder weniger optimiert war hat kaum einen interessiert. Bei einer ausgewachsenen Graka fällt das jedoch ins Gewicht.

AMD hat sich damals, mit Skyrim das Duell HD 7970 gegen GTX 680 versaut. Das die HD 7970 zwei Wochen später in Skyrim ordentlich was draufgelegt hat und so der eigentliche Gesamtsieger war, hat kaum einen interessiert. Die GTX 680 wurde zum Sieger gekrönt, das hört man auch heute noch.
 
ich brauche die Karten nicht mehr, die sind 1 Jahr zu spät für die Leistung, im halben Jahr gibts schon wesentlich fixere neue Karten
399 für potentielle 3070 Leistung, wenn die Treiber stimmen, ist doch okay.
Das wird so aber nicht funktionieren.
AMD und nVidia haben auch nichts zu verschenken.
Die Preise sind wegen Corona, Krieg und andere Gründe halt höher als früher.
Da kommt kein Intel mit gleichen Karten und 33% niedrigeren Preise.
NVidia hat schon 10 mal die Entwicklungs und sonstige Unkosten wieder raus.
Intel fängt erst an und mus sdas noch alles einspielen und auch erst einmal Umsatzzahlen erreichen, um das damit zu erzielen.
Wenn also eine 3070 noch immer nach der langen Zeit 620 Euro als günstiges Teil kostet, dann wird Intel nicht unter 550 Euro ansetzen, da müsste deren Treibergerüst dann schon sowas von schlecht sein, dass niemand die KArten sonst gebrauchen könnte, aber dann hätte man ja auch keine 3070 Leistung mehr, logischerweise.
Wenn also Karte, Treiber und Stabilitäöt alles passen, wird man vielleicht die üblichen 10% Katz- und Maus-Spielereien wie sonst bei AMD und NVidia sehen udn mehr wohl nicht, denn Intel will auch viel Geld verdienen.
Wensn nicht funktioniert kann man imemr noch den Rotstift ansetzen, aber andersherum gehts halt nicht, wenns zu gut läuft udn die KArten sofort ausverkauft sind, werden die sich fragen müssen, warum die so deppert waren.
 
Zuletzt bearbeitet:
Gut das sich der Markt nicht nur an deinen Präferenzen orientiert, denn dann wäre der PC-Markt wirklich am Boden, dann würde diese Seite KonsolenGamesZubehör heißen ;-)

Das Problem ist eben, dass da etwas dran ist. Vor einem halben Jahr hätten sie für die Karten wohl noch 900€ verlangen können. Das ist heute eine Illusion, da die RX 6700XT für unter 500€ erhältlich ist. Nochmal ein halbes Jahr und die Gegner heißen nicht mehr RX 6700XT und RTX 3070 sondern RTX 4060 und RX 7600, wenn Intel da mithalten kann. Der Stromverbrauch mag heute eventuell noch irgendwie in Ordnung gehen, in einem halben Jahr könnte er viel zu hoch sein. 16GB VRAM sind heute noch etwas besonders, wenn Nvidia zumindest bei der RTX 4080 auf 16GB geht und AMD so üppig dagegen hält, dann könnten sie zur normalen Ausstattung zählen.

Eben das gleiche Problem, wie bei Larabee. Intel könnte zu Kampfpreisen gezwungen sein.
 
Mensch, nei den ganzen Experten frag ich mich halt schon, warum diese Jungs nicht als Wirtschaftweisen angestellt sind - da müssen sich Aktiengesellschaften doch drun reißen. Völlig unverständlich.
INTEL liest hoffentlich mit und rekrutiert die allesamt weg, dann kann es ja nur noch steil gehen alternativ sehen sie ihren fatalen Fehler hoffentlich ein und ziehen sich aus dem Hardwaregeschäft zurück...am besten gleich komplett.
 
Das Problem ist eben, dass da etwas dran ist. Vor einem halben Jahr [...]
Jain bzw. tendenziell eher Nein, denn diese Sichtweise bzw. die voraussichtliche Verzögerung durch die Treiberentwicklung/-optimierung ist eher für Intel selbst und deren Amortisierung relevant, jedoch haben sie schon mehrfach durchblicken lassen, dass sie in der Einführungsphase und zwecks Gewinnung erster relevanter Marktanteile kaum nennenswerten Gewinn mit den GPUs erwirtschaften werden, wenn überhaupt. Die zeitliche Verzögerung ist zweifellos unschön und kostet zusätzlich, da man die erste Gen nun absehbar schon wenige Monate später mit zusätzlichen Preisnachlässen verkaufen (oder gar gleich direkt etwas niedriger ansetzen) muss, aber wie schon gesagt, werden die das bei einem derartigen großflächigen Eintritt in einen neuen, hart umkämpften Markt absehbar einkalkuliert haben (mal abgesehen davon, dass Koduri wohl nicht umsonst vor wenigen Wochen befördert wurde, man das Projekt intern insgesamt also on-track zu sehen scheint).

Dagegen für den Markt selbst ist das nicht mehr als eine zeitliche Verzögerung (irrelevante Einzelschicksale mal ignorierend, s. o. ;-)), denn gekauft wird immer, auch in den unteren Segmenten und selbstredend wird ein nennenswerter Teil des Marktes da auch weiterkaufen, wenn Lovelace und RDNA3 im Markt sind. *)
Beispielsweise wenn man sich die leicht verfügbaren Mindfactory-Zahlen zunutze macht, so von bspw. 2Q20, dann wurden hier in dem Quartal dort rd. 61600 dedizierte GPUs verkauft, d. h. auch hier schon im "Vorfeld", der bereits lange bekannten und kommenden Aktualisierungen von nVidia und AMD. Bereits 47 % aller verkauften GPUs lagen < 400 €, also bspw. etwas wie RX 570 bis hoch zur RX 5700 und GTX 1[5|6]xx bis hin zur RTX 2060. Schränkt man preisbasiert das Segment weiter ein auf GPUs < 300 € dann machten diese immer noch ganze 36 % aller dort verkauften GPUs aus, d. h. ein sehr Teil des Marktes kauft in den Segmenten, die Intel (vorerst) bedienen wird.
Zudem ist zu berücksichtigen, dass Intel in diesem Jahr nur eine vergleichsweise beschränkte Stückzahl auf den Markt bringen wird und hier schon im Februar von gerade mal 4+ Millionen GPUs für das Jahr 2022 sprach, d. h. man darf vermuten, dass die wahrscheinlich eher nicht auf ihren GPUs sitzen bleiben werden. ;-) **)

*) Bei Lovelace könnte das mit leistungstechnisch vergleichbaren Modellen in den entsprechenden Marktsegmenten jedoch bis in 4Q22 dauern und bei RDNA3 könnte dies ggf. gar erst in 1Q23 oder gar erst im 1HJ23 erfolgen.

**) Zumal bei dieser angegeben Stückzahl von Intel nicht einmal gesichert ist, ob Intel damit Xe-HPG insgesamt meinte, also inkl. der dedizierten, mobilen GPUs oder ob hier tatsächlich nur diskrete PCIe-Karten gemeint waren. Hier würde ich eher dazu tendieren, dass Intel gar Xe-HPG insgesamt bzgl. dieser Zahl meinte.
 
Zuletzt bearbeitet:
Der Release wurde schon vor einem halben Jahr vorbereitet und wird immer noch vorbereitet...

Laut Koduri sind die sicherlich schon fast 3 Jahre fertig ^^ ;-P

Ich habe gerade den Bericht über Intel in der Print gelesen.
Hat damals mit den anderen Grafikkarten genauso gut funktioniert, also gar nicht.
Die i740 kam damals auch zu spät, alle anderen Produkte waren mindestens genauso gut, Voodoo sogar für (verwöhnte) Spieler mehr oder weniger Pflichtkauf.
Und als kurze Zeit später dann die Konkurrenz die nächste Generation präsentiert, war eh der Ofen ganz aus.
Ich habe das ja selber live miterlebt, jaja, ich, der alte Sack ^^ (hatte zur der Zeit ne "gammelige" Voodoo1).

Kann man eigentlich ganz gut auf das aktuelle Projekt projezieren, um da mit einer gewissen Skepsis an die Sache ranzugehen.
Die Konkurrenz bietet die schnelleren Produkte, dann steht da die Sache mit den Treibern im Raum, die damals zu Beginn auch gar nicht oder schlecht liefen (derzeit übrigens auch noch beim Xe, selbst nach einem Jahr noch, siehe Tests von IgorLabs), und wir wissen, in einem halben Jahr kommen erst NVidia und dann AMD mit angeblich großen Brocken.
Und Intel hat die Karten ja jetzt imemr noch nicht auf dem Markt.
Wenn das so weiter geht, kommt bald noch die Ankündigung der RTX 4090 eher auf den Tisch.
Und wenn man deren Fakten kennt, wird auch der uninformiertetese Leser hier einen Blick drauf werfen und abschätzen, ob dann noch Intel selbst bei günstigsten Preisen überhaupt eine Investition Wert sein wird, denn am Ende zählt ja trotzdem die Leistung und der Abstand zur Konkurrenz - und die Treibersachen schweben dann ja auch noch wie dunkle Wolken über dem Horizont.
3070 (Ti) Leistung, ja, nein, vielleicht, nur in ein einigen Spielen, andere laufen gar nicht (bei der Xe starten enige nicht bei Igor oder laufen extrem schlecht, ständige Abstürze udn oder Bildfehler, hmhmhmh)?

Mal abwarten. Ich sage mal mit einer erhöhten Wahrscheinlichkeit vorraus, dass beim Test die roten Randnotizen im Fazit den grünen doch vermehrt gegenüberstehen werden.
Denn man muss ja in allen bereichen Klotzen oder sich gar ganz neu aufstellen.
Hardware, Treiber, Software, Technologien wie Raytracing und Upskaling etc..
Und bei so vielen Baustellen geht nunmal einfach etwas in die Hose.
Das würde den anderen Unternehmen auch nicht mal eben so locker aus der Hand gehen.
 
Zurück