Der Vergleich hinkt nicht mal mehr, der sitzt im Rollstuhl.Na und und, wen interessiert das jetzt? AMD war Jahrelang ************************ und vor dem konkurs. Und jetzt reiten sie davon…
Ehhh, das eine ist eine auf Desktop getrimmte Notebook-Karte (weil man selbst das verkaufen konnte), dass andere ein High-End Modell.Die 6500 gab es mit verdoppeltem VRAM und trug dann 8GiB. Als Option hat das Sinn ergeben, genauso wie eine 6600XT / 6650 XT mit 16GiB, 6700XT / 6750 XT mit 24GiB, eine 6800 (XT) / 6900 XT mit 32 GiB jeweils Sinn gehabt hätte. Eine 6500 mit nochmals verdoppeltem VRAM hätte dann 16GiB getragen, das hätte und halte ich für Ressourcenverschwendung. Selbst das wäre unterhalb der 24GiB angesiedelt, die du angegeben (parodistisch, nehme ich mal an...) hattest.
Lag es nicht in großen Teilen auch daran, dass man die iGPU und dGPU Sparte gegeneinander ausgespielt hat? (gemeinsames Budget, wer besser performt bekommt mehr). Larrabee ist am langem Arm finanziell verhungert.Xeon Phi wurde sechs bis sieben Jahre kommerziell angeboten. Soweit ich weiß ab der zweiten vertriebenen Generation auch mit genug Erfolg, um sich selbst zu tragen. Die Einstellung erfolgte eher, weil man wegen der Fertigungsprobleme nicht weiter skalieren konnte und das Phi-Zielgebiet im nächsten Node zwischen E-Core-Xeons, Co-Prozessoren in normalen Xeons und Xe HPC aufgeteilt werden soll(te). Gut, erstere gibt es immer noch nicht, mittlere erst jetzt und statt letzterer kam nur Datacenter-Max, aber Intel hat weder das Know-How hinter noch den Markt für Phi aufgegeben, obwohl der ganz große Durchbruch ausblieb. Nimmt man noch Larrabee sowie den Phi-Abverkauf mit dazu, lief MIC rund 1,5 Jahrzehnte und ist somit ein explizites Gegenbeispiel zu der Behauptung, dass Intel problembehaftete Projekte schnell wieder einstellen würde.
Nachdem AMD die (brachiale) Leistung der 4090 anerkennen musste, haben sie ganz klar vor Release von RDNA3 gesagt, dass die 7900XTX der Gegner der 4080 wird. Und in Preis sowie Leistung sind diese auch auf Augenhöhe.Zurück zu AMD aktuell insgesamt: Sie erscheinen großzügiger, weil das Preismatching gerade so merkwürdig ausfällt. Aus der 7900 XT, dem eigentlichen Gegner der 4080, wurde eine Karte, die jetzt mit der 4070ti konkurriert und entsprechend über viel mehr Speicher verfügt. Es ist klar, dass das an der generellen Schwäche von RDNA3 liegt und dass die V-Cache-Lösung anscheinend einfach nicht fertig geworden ist.
Educated Guess:Mooreslawisdead sagt, dass Battlemage und Celestial wohl nicht mehr erscheinen werden...
Sie haben auch ganz klar gesagt, dass sie auch ein 4090 Äquivalent entwickeln könnten aber den Sinn darin nicht sehen und die 7900 den Sweetspot darstellt.Mit einer Leistungsverdopplung würde man ca. auf 3090 Niveau kommen in RT und in RR auf 3080Ti..
Bin jetzt noch mehr auf DRUID gespannt.
Intel Arc Nachtest 2023: Von minus 20 bis plus 280 Prozent ist bei Intels Gaming-Grafikkarten fast alles dabei
Weiter geht es auf Seite 2 mit den Benchmarks. Was hat sich bei Arc seit dem Release getan? Das überprüfen wir anhand von zahlreichen Spielen.www.pcgameshardware.de
Nachdem AMD die (brachiale) Leistung der 4090 anerkennen musste, haben sie ganz klar vor Release von RDNA3 gesagt, dass die 7900XTX der Gegner der 4080 wird. Und in Preis sowie Leistung sind diese auch auf Augenhöhe.
Und die 7900XT mit der 4070Ti.
Wir sprechen von der Grafikartensparte, hier hatte AMD auch mehr als nur einen Grund das einzustampfen von der RX 400x bis Vega und Radeon 7 nahezu konkurrenzlos und kaum Marktanteile... Vega war auch ein Minusgeschäft, glaube die anderen mehr oder weniger auch. Darüber hinaus, wenndu schon CPUs ins spiel bringst, da gab es auch mehr als genug Gründe auszusteigen. Von Core Duo bis Ryzen 1 gabs da nix zu gewinnen für AMD. Bisher hast du kein einziges schlüssiges Argument für das einstampfen von Intels Grafikartensparte genannt. Eigentlich weiß ich gar nicht warum ich noch mit dir spreche. Der Graka Markt ist lukrativ und noch mehr in Hinsicht auf Workstations... Wenn Intel wachsen will, müssen Sie auch dort Fuß fassen und das es zäh wird, wissen die auch. Die entwickeln nicht zum erstmal Chips, oder glaubst du die sind einfach so mal eingestiegen, auf gut Glück und Naiv...1. Auch wenn AMD eine Durtstrecke durchgemacht hat waren CPUs das Kerngeschäft und wurden nicht erst von Grund auf entwickelt.
2. AMD ging gezwungenermaßen "All-In" mit Ryzen und es war ein teuer erkaufter Sieg (Abstoßen der eigenen Fertigung mit Global-Foundries)
Ich persönlich finde ja immer, wenn eine Technik-Firma sagt:Sie haben auch ganz klar gesagt, dass sie auch ein 4090 Äquivalent entwickeln könnten aber den Sinn darin nicht sehen und die 7900 den Sweetspot darstellt.
@IntelArc
Warum hier gefordert wird, diese müsse irgend eine 4090 Leistung bieten, kann ich nicht nachvollziehen. Ich denke das Gros der Spieler währe mit einem 3060ti/3070/6700-6800xt Pendant zu besseren Konditionen mehr als zufrieden. Da könnte Intel Punkten. Die Frage ist nur, kann Intel auch günstig?!?
MfG
Und wozu? Da verdient man in dem Bereich nichts, dass ist nur "show". Soll doch Nvidia den Längsten haben, was zählt sind die midrange Absätze und da ist AMD gut aufgestellt.Ich persönlich finde ja immer, wenn eine Technik-Firma sagt:
"Wir können da mithalten, wollen aber nicht",
dass das in 99% der Fälle bedeutet:
"Wir können da technisch momentan noch nicht mithalten, aber das wäre schlechte PR es zu sagen".
Du scheinst wirklich 0 Verständnis von Betriebswirtschaft zu haben. Nur weil du meine Argumente nicht verstehst heißt das nicht, dass ich keine gebracht habe.Wir sprechen von der Grafikartensparte, hier hatte AMD auch mehr als nur einen Grund das einzustampfen von der RX 400x bis Vega und Radeon 7 nahezu konkurrenzlos und kaum Marktanteile... Vega war auch ein Minusgeschäft, glaube die anderen mehr oder weniger auch. Darüber hinaus, wenndu schon CPUs ins spiel bringst, da gab es auch mehr als genug Gründe auszusteigen. Von Core Duo bis Ryzen 1 gabs da nix zu gewinnen für AMD. Bisher hast du kein einziges schlüssiges Argument für das einstampfen von Intels Grafikartensparte genannt. Eigentlich weiß ich gar nicht warum ich noch mit dir spreche. Der Graka Markt ist lukrativ und noch mehr in Hinsicht auf Workstations... Wenn Intel wachsen will, müssen Sie auch dort Fuß fassen und das es zäh wird, wissen die auch. Die entwickeln nicht zum erstmal Chips, oder glaubst du die sind einfach so mal eingestiegen, auf gut Glück und Naiv...
Der Vergleich hinkt nicht mal mehr, der sitzt im Rollstuhl.
1. Auch wenn AMD eine Durtstrecke durchgemacht hat waren CPUs das Kerngeschäft und wurden nicht erst von Grund auf entwickelt.
2. AMD ging gezwungenermaßen "All-In" mit Ryzen und es war ein teuer erkaufter Sieg (Abstoßen der eigenen Fertigung mit Global-Foundries)
Intel schwimmen gerade genug im Kerngeschäft (Server) die Felle davon, sollten sie entscheiden müssen werden sie sich nicht aufs GPU-Geschäft konzentrieren.
Ehhh, das eine ist eine auf Desktop getrimmte Notebook-Karte (weil man selbst das verkaufen konnte), dass andere ein High-End Modell.
Aber eine 6700(XT) mit 24GB? Was macht die damit?
Lag es nicht in großen Teilen auch daran, dass man die iGPU und dGPU Sparte gegeneinander ausgespielt hat? (gemeinsames Budget, wer besser performt bekommt mehr). Larrabee ist am langem Arm finanziell verhungert.
Alles wichtige Punkte, worauf ich mich aber bezog:Larrabee hatte nichts mit den damaligen iGPUs gemein und ging eher aus den Multi-Core-Forschungsprojekten (z.B. Polaris) hervor, welche die Grundlagen für Many-Core-CPUs legen sollten. Als Grafikkarte gescheitert ist Larrabee am grundsätzlich falschen Ansatz: Bei konventionellem Rendering hat man im Prinzip eine herkömmliche GPU in Software simuliert. Damit kann man gegen Hardware-Lösungen auf vergleichbarer Basis nur verlieren und auch zu besten "Alien Fab"-Tagen hatte Intel nicht genug Vorsprung, um das rauszuholen. Die ganze Grafik-Aktion war meiner Meinung nach eher ein "Lösung sucht Problem"-Stunt. Die Einzelteile von Larrabee ergeben sich aus diversen Entwicklungslinien und sie ergaben für den HPC-Markt, wo Phi letztlich endete, auch Sinn. Aber der ist träge, braucht viel Vorlaufzeit ehe eine neue Architektur genutzt wird. Bis dahin hat man sich überlegt, was man mit einem hochparallelen Universalprozessor noch so anstellen kann und siehe da: Der kann einen Raytraycing-Beschleuniger genauso gut respektive schlecht simulieren, wie eine Rasterizer-GPU. Und da es keine Hardware-Raytraycer gab, war das ansehnbare Ergebnis konkurrenzlos beeindruckend. Aber es war bei weitem nicht gut genug, um Rasterizing zu verdrängen, soviel Leistung haben wir selbst 20 Jahre später noch nicht, und niemand wollte eine Raytraycing-Karte kaufen.
Das sowiesoDas war also auch eine ganze andere Situation als jetzt mit Arc: Larrabee war gelungen, aber in einem Bereich, den niemand wollte. Arc ist für einen Bereich entwickelt, den jeder will, aber nicht gut genug.
Scheint mir plausibel zu sein.Mooreslawisdead sagt, dass Battlemage und Celestial wohl nicht mehr erscheinen werden...