News Intel Arc ("Battlemage"): Next-Gen-GPU soll mit bis zu 64 Xe-Cores und 8.192 Shadern an den Start gehen

Na und und, wen interessiert das jetzt? AMD war Jahrelang ************************ und vor dem konkurs. Und jetzt reiten sie davon…
Der Vergleich hinkt nicht mal mehr, der sitzt im Rollstuhl.

1. Auch wenn AMD eine Durtstrecke durchgemacht hat waren CPUs das Kerngeschäft und wurden nicht erst von Grund auf entwickelt.
2. AMD ging gezwungenermaßen "All-In" mit Ryzen und es war ein teuer erkaufter Sieg (Abstoßen der eigenen Fertigung mit Global-Foundries)

Intel schwimmen gerade genug im Kerngeschäft (Server) die Felle davon, sollten sie entscheiden müssen werden sie sich nicht aufs GPU-Geschäft konzentrieren.
Die 6500 gab es mit verdoppeltem VRAM und trug dann 8GiB. Als Option hat das Sinn ergeben, genauso wie eine 6600XT / 6650 XT mit 16GiB, 6700XT / 6750 XT mit 24GiB, eine 6800 (XT) / 6900 XT mit 32 GiB jeweils Sinn gehabt hätte. Eine 6500 mit nochmals verdoppeltem VRAM hätte dann 16GiB getragen, das hätte und halte ich für Ressourcenverschwendung. Selbst das wäre unterhalb der 24GiB angesiedelt, die du angegeben (parodistisch, nehme ich mal an...) hattest.
Ehhh, das eine ist eine auf Desktop getrimmte Notebook-Karte (weil man selbst das verkaufen konnte), dass andere ein High-End Modell.
Aber eine 6700(XT) mit 24GB? Was macht die damit?
Xeon Phi wurde sechs bis sieben Jahre kommerziell angeboten. Soweit ich weiß ab der zweiten vertriebenen Generation auch mit genug Erfolg, um sich selbst zu tragen. Die Einstellung erfolgte eher, weil man wegen der Fertigungsprobleme nicht weiter skalieren konnte und das Phi-Zielgebiet im nächsten Node zwischen E-Core-Xeons, Co-Prozessoren in normalen Xeons und Xe HPC aufgeteilt werden soll(te). Gut, erstere gibt es immer noch nicht, mittlere erst jetzt und statt letzterer kam nur Datacenter-Max, aber Intel hat weder das Know-How hinter noch den Markt für Phi aufgegeben, obwohl der ganz große Durchbruch ausblieb. Nimmt man noch Larrabee sowie den Phi-Abverkauf mit dazu, lief MIC rund 1,5 Jahrzehnte und ist somit ein explizites Gegenbeispiel zu der Behauptung, dass Intel problembehaftete Projekte schnell wieder einstellen würde.
Lag es nicht in großen Teilen auch daran, dass man die iGPU und dGPU Sparte gegeneinander ausgespielt hat? (gemeinsames Budget, wer besser performt bekommt mehr). Larrabee ist am langem Arm finanziell verhungert.
 
Zuletzt bearbeitet:
Mit einer Leistungsverdopplung würde man ca. auf 3090 Niveau kommen in RT und in RR auf 3080Ti..
Bin jetzt noch mehr auf DRUID gespannt.

Zurück zu AMD aktuell insgesamt: Sie erscheinen großzügiger, weil das Preismatching gerade so merkwürdig ausfällt. Aus der 7900 XT, dem eigentlichen Gegner der 4080, wurde eine Karte, die jetzt mit der 4070ti konkurriert und entsprechend über viel mehr Speicher verfügt. Es ist klar, dass das an der generellen Schwäche von RDNA3 liegt und dass die V-Cache-Lösung anscheinend einfach nicht fertig geworden ist.
Nachdem AMD die (brachiale) Leistung der 4090 anerkennen musste, haben sie ganz klar vor Release von RDNA3 gesagt, dass die 7900XTX der Gegner der 4080 wird. Und in Preis sowie Leistung sind diese auch auf Augenhöhe.
Und die 7900XT mit der 4070Ti.
 

Anhänge

  • A770.jpg
    A770.jpg
    258,2 KB · Aufrufe: 13
  • A770 RR.jpg
    A770 RR.jpg
    251,8 KB · Aufrufe: 8
Zuletzt bearbeitet von einem Moderator:
Hallo Community,

erst einmal ein großes Dankeschön für das herzliche Willkommen heißen hier im Forum und der Community.

Danke auch für die sehr positive und konstruktive Kritik im Forum und per PN. Genauso stellt man sich das als Redakteur vor.

Wer über interessant Meldungen stolpern sollte, über die wir noch nicht berichtet haben, kann diese gerne jederzeit melden.

Liebe Grüße
Sven
 
Mit einer Leistungsverdopplung würde man ca. auf 3090 Niveau kommen in RT und in RR auf 3080Ti..
Bin jetzt noch mehr auf DRUID gespannt.


Nachdem AMD die (brachiale) Leistung der 4090 anerkennen musste, haben sie ganz klar vor Release von RDNA3 gesagt, dass die 7900XTX der Gegner der 4080 wird. Und in Preis sowie Leistung sind diese auch auf Augenhöhe.
Und die 7900XT mit der 4070Ti.
Sie haben auch ganz klar gesagt, dass sie auch ein 4090 Äquivalent entwickeln könnten aber den Sinn darin nicht sehen und die 7900 den Sweetspot darstellt.

@IntelArc
Warum hier gefordert wird, diese müsse irgend eine 4090 Leistung bieten, kann ich nicht nachvollziehen. Ich denke das Gros der Spieler währe mit einem 3060ti/3070/6700-6800xt Pendant zu besseren Konditionen mehr als zufrieden. Da könnte Intel Punkten. Die Frage ist nur, kann Intel auch günstig?!?

MfG
 
1. Auch wenn AMD eine Durtstrecke durchgemacht hat waren CPUs das Kerngeschäft und wurden nicht erst von Grund auf entwickelt.
2. AMD ging gezwungenermaßen "All-In" mit Ryzen und es war ein teuer erkaufter Sieg (Abstoßen der eigenen Fertigung mit Global-Foundries)
Wir sprechen von der Grafikartensparte, hier hatte AMD auch mehr als nur einen Grund das einzustampfen von der RX 400x bis Vega und Radeon 7 nahezu konkurrenzlos und kaum Marktanteile... Vega war auch ein Minusgeschäft, glaube die anderen mehr oder weniger auch. Darüber hinaus, wenndu schon CPUs ins spiel bringst, da gab es auch mehr als genug Gründe auszusteigen. Von Core Duo bis Ryzen 1 gabs da nix zu gewinnen für AMD. Bisher hast du kein einziges schlüssiges Argument für das einstampfen von Intels Grafikartensparte genannt. Eigentlich weiß ich gar nicht warum ich noch mit dir spreche. Der Graka Markt ist lukrativ und noch mehr in Hinsicht auf Workstations... Wenn Intel wachsen will, müssen Sie auch dort Fuß fassen und das es zäh wird, wissen die auch. Die entwickeln nicht zum erstmal Chips, oder glaubst du die sind einfach so mal eingestiegen, auf gut Glück und Naiv...
 
Sie haben auch ganz klar gesagt, dass sie auch ein 4090 Äquivalent entwickeln könnten aber den Sinn darin nicht sehen und die 7900 den Sweetspot darstellt.

@IntelArc
Warum hier gefordert wird, diese müsse irgend eine 4090 Leistung bieten, kann ich nicht nachvollziehen. Ich denke das Gros der Spieler währe mit einem 3060ti/3070/6700-6800xt Pendant zu besseren Konditionen mehr als zufrieden. Da könnte Intel Punkten. Die Frage ist nur, kann Intel auch günstig?!?

MfG
Ich persönlich finde ja immer, wenn eine Technik-Firma sagt:
"Wir können da mithalten, wollen aber nicht",
dass das in 99% der Fälle bedeutet:
"Wir können da technisch momentan noch nicht mithalten, aber das wäre schlechte PR es zu sagen".
 
Ich persönlich finde ja immer, wenn eine Technik-Firma sagt:
"Wir können da mithalten, wollen aber nicht",
dass das in 99% der Fälle bedeutet:
"Wir können da technisch momentan noch nicht mithalten, aber das wäre schlechte PR es zu sagen".
Und wozu? Da verdient man in dem Bereich nichts, dass ist nur "show". Soll doch Nvidia den Längsten haben, was zählt sind die midrange Absätze und da ist AMD gut aufgestellt. ;-)

MfG
 
Wir sprechen von der Grafikartensparte, hier hatte AMD auch mehr als nur einen Grund das einzustampfen von der RX 400x bis Vega und Radeon 7 nahezu konkurrenzlos und kaum Marktanteile... Vega war auch ein Minusgeschäft, glaube die anderen mehr oder weniger auch. Darüber hinaus, wenndu schon CPUs ins spiel bringst, da gab es auch mehr als genug Gründe auszusteigen. Von Core Duo bis Ryzen 1 gabs da nix zu gewinnen für AMD. Bisher hast du kein einziges schlüssiges Argument für das einstampfen von Intels Grafikartensparte genannt. Eigentlich weiß ich gar nicht warum ich noch mit dir spreche. Der Graka Markt ist lukrativ und noch mehr in Hinsicht auf Workstations... Wenn Intel wachsen will, müssen Sie auch dort Fuß fassen und das es zäh wird, wissen die auch. Die entwickeln nicht zum erstmal Chips, oder glaubst du die sind einfach so mal eingestiegen, auf gut Glück und Naiv...
Du scheinst wirklich 0 Verständnis von Betriebswirtschaft zu haben. Nur weil du meine Argumente nicht verstehst heißt das nicht, dass ich keine gebracht habe.

1. Nur weil man nicht die besten Karten hat und die Konkurrenz (vermeintlich) viel größer ist heißt das nicht, dass man defizitär ist. Nach der Argumentation müsste jeder Web-Shop zumachen, weil er nicht mit Amazon mithalten kann. Intel hat letztes Jahr mit der Grafiksparte 1.7 Mrd. $ Verlust gemacht. AMD machte mit GPUs während der von dir angeprangerten RX400-Vega Zeiten zwischen 600 Mio. und 1 Mrd. $ Gewinn pro Jahr.
2. Die GPU Sparte ist mit ein Hauptgrund dafür, das AMD die mageren CPU-Zeiten überlebt hat. Die Expertise beider Abteilungen konnte man in Custom Chips für Konsolen verwenden die eine Zeit lang einen Großteil des Einkommens generierten.

Nochmal: Ich sage nicht, dass Intel von heute auf morgen zudreht, noch wünsche ich es mir (im Gegenteil), allerdings ist es durchaus möglich. Nur weil sie viel Geld investiert haben heißt das nicht, dass sie nicht die Reißleine ziehen, gerade dann, wenn es auch in anderen Bereichen Probleme gibt (Server!) und sie das Geld nicht erübrigen können/wollen. Was du argumentierst ist ein perfektes Beispiel von Sunk-Cost-Fallacy.
 
Die sollen sich ruhig Zeit lassen mit der nächsten Generation. Erst mal schön weiter guten Wein mit den Alchemisten Karten machen. Weil so viele hier auch eine Arc Karte ihr eigenen nennen und noch immer von Treibern sprechen die Schlecht sind, kaufe ich natürlich von jedem unzufriedenem Arc Menschen seine Karte gebraucht ab.

Blöd ist, das ich kaum eine Gebrauchte finde. Wer eine hat, will sie wohl offensichtlich Selten wieder her geben.

Die Karten sind Preis Leistungssieger,

ganz ohne Frage in ihrem Bereich. Ändere gerne meine Meinung. ;-)


Ich verstehe nicht, warum manche was von 3060 und 66(5)00 faseln.... Von qualitativer Sicht alleine betrachtet, ist das ein Vergleich zwischen Äpfeln und Birnen. Die Karten dürfte so langsam wie geschnitten Brot über den Ladentisch gehen.

Übrigens hilft es nix, die Mindfactory Zahlen zu kennen, welche halt die billig China Designes verkloppen wollen, die keiner haben möchte. Weil DANN zählt wirklich der Vergleich zwischen oben genannten... Obwohl, ne, nicht mal dann.

Kauft euch ne Intel Karte, wenn ihr auf den längsten Balken verzichten könnt. Wie gesagt, wer sie nicht will darf mir gerne ein Angebot in der Kaufgesuche Sparte machen...

Salve
Alucian
 
Der Vergleich hinkt nicht mal mehr, der sitzt im Rollstuhl.

1. Auch wenn AMD eine Durtstrecke durchgemacht hat waren CPUs das Kerngeschäft und wurden nicht erst von Grund auf entwickelt.
2. AMD ging gezwungenermaßen "All-In" mit Ryzen und es war ein teuer erkaufter Sieg (Abstoßen der eigenen Fertigung mit Global-Foundries)

Intel schwimmen gerade genug im Kerngeschäft (Server) die Felle davon, sollten sie entscheiden müssen werden sie sich nicht aufs GPU-Geschäft konzentrieren.

Ehhh, das eine ist eine auf Desktop getrimmte Notebook-Karte (weil man selbst das verkaufen konnte), dass andere ein High-End Modell.
Aber eine 6700(XT) mit 24GB? Was macht die damit?

Lag es nicht in großen Teilen auch daran, dass man die iGPU und dGPU Sparte gegeneinander ausgespielt hat? (gemeinsames Budget, wer besser performt bekommt mehr). Larrabee ist am langem Arm finanziell verhungert.

Larrabee hatte nichts mit den damaligen iGPUs gemein und ging eher aus den Multi-Core-Forschungsprojekten (z.B. Polaris) hervor, welche die Grundlagen für Many-Core-CPUs legen sollten. Als Grafikkarte gescheitert ist Larrabee am grundsätzlich falschen Ansatz: Bei konventionellem Rendering hat man im Prinzip eine herkömmliche GPU in Software simuliert. Damit kann man gegen Hardware-Lösungen auf vergleichbarer Basis nur verlieren und auch zu besten "Alien Fab"-Tagen hatte Intel nicht genug Vorsprung, um das rauszuholen. Die ganze Grafik-Aktion war meiner Meinung nach eher ein "Lösung sucht Problem"-Stunt. Die Einzelteile von Larrabee ergeben sich aus diversen Entwicklungslinien und sie ergaben für den HPC-Markt, wo Phi letztlich endete, auch Sinn. Aber der ist träge, braucht viel Vorlaufzeit ehe eine neue Architektur genutzt wird. Bis dahin hat man sich überlegt, was man mit einem hochparallelen Universalprozessor noch so anstellen kann und siehe da: Der kann einen Raytraycing-Beschleuniger genauso gut respektive schlecht simulieren, wie eine Rasterizer-GPU. Und da es keine Hardware-Raytraycer gab, war das ansehnbare Ergebnis konkurrenzlos beeindruckend. Aber es war bei weitem nicht gut genug, um Rasterizing zu verdrängen, soviel Leistung haben wir selbst 20 Jahre später noch nicht, und niemand wollte eine Raytraycing-Karte kaufen.

Das war also auch eine ganze andere Situation als jetzt mit Arc: Larrabee war gelungen, aber in einem Bereich, den niemand wollte. Arc ist für einen Bereich entwickelt, den jeder will, aber nicht gut genug.
 
Larrabee hatte nichts mit den damaligen iGPUs gemein und ging eher aus den Multi-Core-Forschungsprojekten (z.B. Polaris) hervor, welche die Grundlagen für Many-Core-CPUs legen sollten. Als Grafikkarte gescheitert ist Larrabee am grundsätzlich falschen Ansatz: Bei konventionellem Rendering hat man im Prinzip eine herkömmliche GPU in Software simuliert. Damit kann man gegen Hardware-Lösungen auf vergleichbarer Basis nur verlieren und auch zu besten "Alien Fab"-Tagen hatte Intel nicht genug Vorsprung, um das rauszuholen. Die ganze Grafik-Aktion war meiner Meinung nach eher ein "Lösung sucht Problem"-Stunt. Die Einzelteile von Larrabee ergeben sich aus diversen Entwicklungslinien und sie ergaben für den HPC-Markt, wo Phi letztlich endete, auch Sinn. Aber der ist träge, braucht viel Vorlaufzeit ehe eine neue Architektur genutzt wird. Bis dahin hat man sich überlegt, was man mit einem hochparallelen Universalprozessor noch so anstellen kann und siehe da: Der kann einen Raytraycing-Beschleuniger genauso gut respektive schlecht simulieren, wie eine Rasterizer-GPU. Und da es keine Hardware-Raytraycer gab, war das ansehnbare Ergebnis konkurrenzlos beeindruckend. Aber es war bei weitem nicht gut genug, um Rasterizing zu verdrängen, soviel Leistung haben wir selbst 20 Jahre später noch nicht, und niemand wollte eine Raytraycing-Karte kaufen.
Alles wichtige Punkte, worauf ich mich aber bezog:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das war also auch eine ganze andere Situation als jetzt mit Arc: Larrabee war gelungen, aber in einem Bereich, den niemand wollte. Arc ist für einen Bereich entwickelt, den jeder will, aber nicht gut genug.
Das sowieso
 
Mooreslawisdead sagt, dass Battlemage und Celestial wohl nicht mehr erscheinen werden...
Scheint mir plausibel zu sein.
Kein Wunder legen sie bei jeder verkauften Karte mehr als das Doppelte oben drauf (Umsatz Grafiksparte Q4, 2022, 185 Mio. $ Verlust 378 Mio. $)

Auf das Jahr 2023 hochgerechnet wäre das ein Umsatz von 740 Mio. bei einem Verlust von 1500 Mio. $

Und wer weiß, vielleicht ist dies nur die Spitze des Eisberges wenn man bedenkt wie rückläufig der Grafikmarkt gerade ist.

Intel hat es momentan wirklich nicht leicht. Bei den CPUs's laufen sie gerade Gefahr von einer 3D Lawine überrollt zu werden und den Anschluss komplett zu verlieren.
Bei der Effizienz ist dies ja bereits der Fall, bzw. sind sie da jetzt bereits 2 -3 Generationen im Hintertreffen und dies
obwohl AMD noch ohne Effizienz-Kerne antritt.

Bei den GPU wiederum werden sie wohl schon bald die Reißleine ziehen müssen, bevor dieses Fass ohne Boden nicht mehr
abzudichten ist.
 
Zurück