• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel gelassen wegen Nvidia-CPUs: "Nvidia reagiert auf uns, nicht wir auf Nvidia"

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel gelassen wegen Nvidia-CPUs: "Nvidia reagiert auf uns, nicht wir auf Nvidia"

Nvidia hatte mit "Grace" jüngst eine eigene, ARM-basierte CPU-Architektur vorgestellt. Intels CEO Pat Gelsinger gibt sich jedoch unbeeindruckt. In einem Interview sagte er, dass es nicht Intel sei, die auf Nvidia reagieren müssen. Vielmehr reagiere Nvidia auf Technik, bei der Intel führend sei.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel gelassen wegen Nvidia-CPUs: "Nvidia reagiert auf uns, nicht wir auf Nvidia"
 

acc

Software-Overclocker(in)
wenn bei cpus der satz stimmt, dann bei gpus auch aber andersherum. von daher reagiert intel schon noch auf nvidia. war wieder nicht mehr als das übliche manager-getrolle.
 

slasher

Freizeitschrauber(in)
Langsam verliert Intel den Blick zur Realität.

Genauso Überheblich wie Derzeit gegenüber AMD. Man verliert ja nur erhebliche Marktanteile, wenn man auf seinem Standpunkt bleibt und nicht reagiert.
Liebe Intel CEO's IHR müsst auf den Markt reagieren und nicht andersherum!

Aber gut, wenn man in den frühen 2000er steckengeblieben ist, dem ist wohl nicht zu helfen ^^
 

FR4GGL3

PC-Selbstbauer(in)
Was erwartet ihr? Wenn da ein Satz kommt im Sinne von "wir nehmen diese Meldung sehr ernst (o.ä.)", dann reagiert sofort der Aktienmarkt. Was sie tatsächlich intern diskutieren und wie sie sich aufstellen wird sicherlich nicht öffentlich gemacht bevor Fakten geschaffen sind.
 

HoodHood

PC-Selbstbauer(in)
Kann das irgendjemand mit Fakten belegen? Also das Intel tatsächlich bei KI Anwendungen vorne liegt?
AMD und NV haben doch schon seit längerem Produkte im Portfolio die extra für diese Art der Anwendung konzipiert wurden oder? Ich denke da gerade spontan an die Instinct von AMD.
 

Pu244

Lötkolbengott/-göttin
Im Prinzip sagt er da nichts wirklich neues. Wer mit KI und neuronalen Netzen rumgeistert, der ist momentan sowieso mit Nvidia oder anderen unterwegs. Den x86er Markt kann Nvidia nicht angreifen und wer auf ARM CPUs setzen wollte, der konnte das schon seit etwa 30 Jahren. Das wichtige Duell gegen ARM, den Smartphone und Tabletmarkt, haben sie 2015 verloren.

Das einzige, bei dem es einen echten Unterschied gibt, sind Supercomputer, die auf Nvidia GPUs basieren. Da wird Intel in Zukunft wohl nichtmehr die CPUs liefern, die sich um die Koordination der Karten kümmert. Aber der Markt ist sowieso nicht so groß.

Ansonsten kann Intel recht gelassen sein, zumindest was Nvidia betrifft, sie werden in deren Markt einbrechen, nicht umgekehrt.

Problematisch ist AMD, wenn sie das nicht unter Kontrolle bringen, könnte es ihnen sehr langfristig extrem gefährlich werden.
 

CD LABS: Radon Project

Volt-Modder(in)
Schon wieder dieser große egoistische Protzanfall von Intel gegenüber Mitbewerbern.

Das haben die auch Lange über die CPU Sparte von AMD gedacht, und wo stehen wir da jetzt?

Nichts dazugelernt Intel, setzen Sechs.
Die explizite Aussage...
We announced our Ice Lake [a new microprocessor for servers] last week with an extraordinarily positive response. And in Ice Lake, we have extraordinary expansions in the A.I. capabilities. [Nvidia is] responding to us. It's not us responding to them.
...ist auf jeden Fall völliger Käse. Als ob es für Nvidia entscheidend war, dass Intel jetzt IceLake gelaunched hat. Wirklich, das ist vollkommener Unsinn; und es ist schade, dass Gelsinger sich für so etwas hergibt. Denn es wäre ein leichtes gewesen, die gleiche Botschaft ohne Unsinn rüberzubringen.
Einmal vorgemacht:
Schauen Sie sich doch mal an, was Nvidia in den letzten Jahren im CPU-Bereich erreicht hat. Bislang war das sehr schwach. Auf den Erfolgen der Tegra 3-Ära (2011 und 2012) haben sie sich lange ausgeruht, die Stärke wurde zu einer Nische und verschwand dann völlig und die weiteren Standbeine (Automotive, Konsole) konnten nur langsam aufgebaut werden. Entsprechend sind sie gerade wirklich nur am Aufholen und es dauert noch bis zu einem Release. Unsere IceLake-Plattform haben wir hingegen bereits jetzt schon gelaunched... //hier weiteres Marketing einfügen, wieso IceLake-SP toll ist...

Na, wäre das so viel verlangt gewesen?
 

bulli007

Freizeitschrauber(in)
Das Nvidia von heute auf morgen eine CPU herstellt, die Intel und AMD unter druck setzt, bezweifle ich schon sehr stark.
In einen Segment fuß zu fassen in dem man vorher nicht war ist extrem schwierig. Das sieht man ja auch gut an Intel und ihre Anstrengungen zu diskreten Grafikkarten, die nach wie vor keine rolle spielen, trotz Riesigen Investitionen. Auch AMD hat durch den Kauf von ATI lange gebraucht um auf schlagweite zu kommen, was ihnen jetzt endlich gelingt. Das AMD Intel mit den CPU gerade ordentlich einheizt liegt z.B. auch daran das sie mittlerweile 30 Jahre Erfahrung haben, viel anderen sind davor gescheitert.
Das der Aktienmarkt reagiert, liegt schlicht daran das Investoren oft keine Ahnung haben was die Nachrichten wirklich bedeuten, da ihnen nicht klar ist wie schwierig das technisch das zu bewerkstelligen ist und beruhigt sich in der Regeln ein paar Tage später wieder.
 

Basileukum

Software-Overclocker(in)
Naja, also irgendwie kommt da auch nicht mehr Markt und damit Qualität und gutes P/L Verhältnis für uns dabei heraus, wenn die immer gleichen Konzerne sich jetzt halt die Produktpalatten teilen.

Erstaunlich wie kartellmäßig hier der Markt verhärtet ist. Gibt ja auch mehr als 2-3 Autohersteller.
 

Bärenmarke

Software-Overclocker(in)
Im Prinzip sagt er da nichts wirklich neues. Wer mit KI und neuronalen Netzen rumgeistert, der ist momentan sowieso mit Nvidia oder anderen unterwegs. Den x86er Markt kann Nvidia nicht angreifen und wer auf ARM CPUs setzen wollte, der konnte das schon seit etwa 30 Jahren. Das wichtige Duell gegen ARM, den Smartphone und Tabletmarkt, haben sie 2015 verloren.

In dem Markt für KI und neuronale Netze sind vor allem auch FPGAs sehr interessant und da ist intel dank dem Altera Zukauf auch vertreten. Wobei Xilinx da als Marktführer (FPGA) mehr zu bieten hat.
Dazu hab ich auch hier einiges gepostet:

Ist sehr interessant sich da mal einzulesen, was man mit den Lösungen von Xilinx so machen kann.
Aber zur Aussage von intels CEO, da muss ich ihm ausnahmsweise recht geben. Was sollte intel da auch befürchten, nvidia hat eine Spezial CPU designt um ihre GPUs im HPC Markt besser auszulasten. Perfromancetechnisch sind sie gegen die aktuelle Epyc und Xeon Generation weit abgeschlagen, haben sie ja selbst zugegeben. Und sind wir mal ehrlich, so ein spezielles Design könnten halt auch AMD und intel designen... Ist für die beiden nur nicht lukrativ, wieso sie das für nvidia tun sollten.
Bin da mal sehr gespannt, was uns die nächsten 1-3 Jahre so an Lösungen um die Ohren gehauen wird.
 

gerX7a

BIOS-Overclocker(in)
Kann das irgendjemand mit Fakten belegen? Also das Intel tatsächlich bei KI Anwendungen vorne liegt?
AMD und NV haben doch schon seit längerem Produkte im Portfolio die extra für diese Art der Anwendung konzipiert wurden oder? Ich denke da gerade spontan an die Instinct von AMD.
Gelsinger bezieht sich in diesem Kontext ausschließlich auf CPUs und da ist es nicht schwer Intel als führend zu sehen. Die haben bereits spätestens in 2019 zusätzliche AI-Funktionalität als AVX-Subset integriert und bspw. mit Cooper Lake folgte der bfloat16-Support und die Weiterentwicklung setzt man mit Sapphire Rapids fort, der einerseits selbst weiter ausgebaut wird und andererseits auch auf eine deutlich tiefere Integration mit Blick auf das Gesamtsystem setzt (CXL, Unified Memory, AMX, ...). Hier sind die tatsächlich auf einem guten Weg.
nVidia dagegen ist hier dabei in 2023 überhaupt erst mal ihre erste Server-CPU abzuliefern. Aufgrund der allgemeinen ARM-Entwicklung (bei allen Herstellern) wird das sicherlich auch ein beachtenswertes Design werden, jedoch darf man durchaus davon ausgehen, dass Intel sich da (vorerst) keine allzu großen Sorgen machen muss. Und bspw. in 2023 wird man bereits mit Granite Rapids SP im Markt sein (wenn der Name noch bestand hat, denn hier zeichneten sich mögliche Umbenennungen ab).

Zudem haben sie mit ihrer Habana-Sparte eine komplett eigenständige AI-Sparte und auch ihre FPGAs werten sie mittlerweile schon mit AI-Funktionalität aus, d. h. auch in dem Bereich sind sie keinesfalls unbedarft, wobei hier jedoch in Form von GPGPUs zweifellos nVidia führend ist (und genau diese Bastion gedenkt man ja auch mit Xe-HPC anzugreifen).

Die explizite Aussage...

...ist auf jeden Fall völliger Käse. Als ob es für Nvidia entscheidend war, dass Intel jetzt IceLake gelaunched hat. [... ]Wirklich, das ist vollkommener Unsinn; und es ist schade, dass Gelsinger sich für so etwas hergibt. Denn es wäre ein leichtes gewesen, die gleiche Botschaft ohne Unsinn rüberzubringen.
Einmal vorgemacht:
Schauen Sie sich doch mal an, was Nvidia in den letzten Jahren im CPU-Bereich erreicht hat. Bislang war das sehr schwach. Auf den Erfolgen der Tegra 3-Ära (2011 und 2012) haben sie sich lange ausgeruht, die Stärke wurde zu einer Nische und verschwand dann völlig und die weiteren Standbeine (Automotive, Konsole) konnten nur langsam aufgebaut werden. Entsprechend sind sie gerade wirklich nur am Aufholen und es dauert noch bis zu einem Release. Unsere IceLake-Plattform haben wir hingegen bereits jetzt schon gelaunched... //hier weiteres Marketing einfügen, wieso IceLake-SP toll ist...

Na, wäre das so viel verlangt gewesen?
"Als ob es für Nvidia entscheidend war, dass Intel jetzt IceLake gelaunched hat." Hat auch keiner behauptet, nicht einmal Gelsinger. Für nVidia ist hier schlicht entscheidend gewesen, ein größeres Stück vom Kuchen abzubekommen, so wie bspw. Apple auch, indem man nun "alles" selbst liefern kann und nicht nur ein wenig Netzwerk und die GPGPUs.
Darüber hinaus ist dein eigenes Wording nicht besser, bzw. eher noch fragwürdiger, da er mit einem "bashing" auf den Konkurrenten beginnt.
Was er da von sich gegeben hat, war schlichtes Marketing und in dem Kontext nicht einmal nennenswert übertrieben, zumal bspw. Dell EMC, Cisco und Lenovo bereits wenige Tage nach der offiziellen VForstellung (Ice Lake wird an ausgewählte Kunden schon seit Ende letzten Jahres ausgeliefert) ihr aktualisiertes LineUp veröffentlicht haben. Zudem ist es nicht so als wenn die OEMs/ODMs hier eine große Wahl hätten, denn AMD ist schlicht zu klein für einen vollwertigen Ersatz.

Hier wird man einfach abwarten müssen, wie sich das entwickeln wird. Ice Lake ist nett, kam aber zu spät (vermutlich weil die Fertigung nicht mithalten bzw. zeitig liefern konnte). Die umfangreichen Erweiterungen von Sapphire Rapids machen diesen eigentlich deutlich interessanter und in 2023, wenn es konkret wird, sind die Karten eh neu gemischt, denn dann steht man Zen4 und Granite Rapids SP gegenüber (und bspw. auch schon möglicherweise einer weiterentwickelten Xe-Generation).

Ist ja auch ARM und nicht x86...
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
 
Zuletzt bearbeitet:

PCTom

BIOS-Overclocker(in)
Kennt man von Intel, die waren auch so selbstsicher was den Desktopmarkt anging. Tja warum hört man so ein hochtrabendes Statement nicht von AMD?
 

hrIntelNvidia

Software-Overclocker(in)
Auf den ersten Blick kann ich das Statement von Intel auch nicht verstehen. Es ist doch eigentlich jeder Nennenswerte Halbleiterhersteller und Chipentwickler an Intel vorbeigezogen.

Natürlich wissen wir auch nicht, was Intel noch in der Hinterhand hat. Vielleicht ist der 7nm Prozess jetzt schon so weit fortgeschritten und auch so leistungsfähig, dass Intel zurecht positiv in die Zukunft blickt.

Uns als Kunden, im Sinne eines gesunden Wettbewerbs, würde ich es wünschen.
 

CD LABS: Radon Project

Volt-Modder(in)
"Als ob es für Nvidia entscheidend war, dass Intel jetzt IceLake gelaunched hat." Hat auch keiner behauptet, nicht einmal Gelsinger.
Doch, genau das. Siehe das Zitat. Er stellt es als "(Nvidia) responding" dar.
Darüber hinaus ist dein eigenes Wording nicht besser, bzw. eher noch fragwürdiger, da er mit einem "bashing" auf den Konkurrenten beginnt.
Es war auch so gedacht, dass es ansonsten aggressiv bleibt bzw. noch aggressiver wird. Dreistes Bashing statt dreistem Unsinn halt. Oder eben, wenn man es positiv formulieren will: Selbstbewusstes Bashing statt selbstbewussten Unsinn.
P.s.: Ich fände es schön, wenn es ein Kommunikationsfehler gewesen wäre. Bislang hatte ich nämlich eine sehr positive Meinung von Gelsinger, die jetzt natürlich gelitten hat.
 
Zuletzt bearbeitet:

WhoRainZone

BIOS-Overclocker(in)
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
Haben die Unterschiedlichen Architekturen nicht grundverschiedene Usecases, in dem jeder irgendwo seine Stärken hat?
 

Bevier

Volt-Modder(in)
In ihrem Segment bleibt Intel auch unangreifbar, AMD ist nach wie vor zu klein und nVidia darf kein x86, mussen alle Anwendungen Imulieren, was noch einen hohen Leistungsverlust bedeutet oder den kompletten Umbau der Software auf x64, was die großen Softwareschmieden Aufgrund der noch immer nachrangigen Nachfrage danach, nicht machen werden...
Auch die Abstürze des Aktienkurses bei der Meldung neuer ARM-CPUs war keine echte Reaktion auf nVidias CPUs sondern eine dringend notwendige Anpassung an den echten Aktienwert der vollkommen zu Unrecht überbewerteten Unternehmen Intel und AMD...

Effektiv kommen jetzt nur ein paar neue Supercomputer mit ARM-Technologie, hinter denen nun nVidia steht, davor kamen solche von irgendwelchen anderen Herstellern, waran aber schon lange am Markt und teilweise recht erfolgreich.
 

CD LABS: Radon Project

Volt-Modder(in)
Haben die Unterschiedlichen Architekturen nicht grundverschiedene Usecases, in dem jeder irgendwo seine Stärken hat?
Auch bei grundverschiedenen Usecases kann am Ende eine Variante die andere wegdominieren, wenn sie nur genügend überlegen ist. Berühmtes und eindeutigstes Beispiel der jüngsten Technikgeschichte ist wohl das Duell Akkustaubsauger vs Kabelstaubsauger...
 

User-22949

Freizeitschrauber(in)
Und genau das ist das Problem bei Intel.
Arrogant sich über andere Hersteller stellen und ignorieren, bis man von der Konkurrenz überholt wird.
 

onkel-foehn

Software-Overclocker(in)
"Vielmehr reagiere Nvidia auf Technik, bei der Intel führend sei"

Die Technik im Strom verbraten vielleicht !! Obwohl nVidia mit Ampere diesbezüglich gut "aufgeschlossen" hat.
Bestimmt haben sie (wieder mal) geschmiert, dass ihre Produkte NICHT verboten werden, sowie die 100 Watt Glühbirne ... :crazy:

MfG Föhn.
 

cuthbert

Software-Overclocker(in)
Dass sich Intel überhaupt zu einem Statement gewungen sieht, sagt schon so einiges...

Ich bin gespannt, wo es zukünftig hingeht, klar ist dass ARM-CPUs von Apple, Nvidia, Qualcomm, Samsung, Google usw. immer mehr Anteile einnehmen werden, die bisher x86 und anderen Architekturen (SPARC? PowerPC?...) vorbehalten waren.

Für uns Endkunden ist es wahrscheinlich erst mal egal. Ich schätze ARM und x86 werden im Consumer Markt eben so wie heute schon bei Servern eine ganze Weile erst mal eine Koexistenz führen. Wenn Microsoft hier schnell zu Potte kommt und es schafft Windows (besser als bisher) auf ARM zu etablieren, hat das für uns nur Vorteile. Allerdings befürchte ich auch, dass es dann zu einer stärkeren Segmentierung der Windows Versionen kommt. Nicht nur x86 vs ARM sondern auch ARM von Hersteller 1 gegen ARM von Hersteller 2. So wie es derzeit ja bei Android ist... Vllt schaffen sie es aber auch hier striktere Vorgaben als Google durchzusetzen...
 

gaussmath

Lötkolbengott/-göttin
Gegenüber Fortune sagt er: "Wir haben letzte Woche unseren Ice Lake [in Form neuer Server-CPUs] angekündigt mit außergewöhnlich viel Zuspruch. Und in Ice Lake stecken unwahrscheinlich viele Erweiterungen in den K.I.-Fähigkeiten. [Nvidia] reagiert auf uns. Nicht wir sind es, die auf Nvidia reagieren." Es stehe außer Frage, dass Intel im Bereich der Künstlichen Intelligenz weit in Führung liegt.
In meiner Wahrnehmung sieht das aber nicht so aus. Nvidia hat den bärenstarken A100, ist führend im Automotive Bereich und hat so was wie DLSS. Was hat Intel?
 

Govego

Software-Overclocker(in)
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
Man wird kein Multimilliarden Dollar Unternehmen wenn man kein Selbstbewusstsein hat.
Wann sie die Aussage zurückgeworfen bekommen? Beim Release der Intel GPUs! Mit NVIDIA werden sie anfänglich bestimmt nicht mithalten können.

Das Intel-Zitat "Nvidia reagiert auf uns, nicht wir auf Nvidia" ist aber vollkommen sinnloses Gelaber. Vorher hatte Nvidia ja auch keine CPUs. Realistisch betrachtet, reagiert Nvidia aber auf den CPU Markt und nicht explezit auf Intel. AMD soll da doch auch mitmischen, habe ich irgendwo gehört :D
 

Rollora

Kokü-Junkie (m/w)
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
ach, das ist wie bei Politikern. Da kann noch so viel Mist gesagt worden sein, das Kollektive Gedächtnis ist ziemlich dumm und man vergisst wieder.

Das ist wie bei der Aussage von wegen zusammengeklebter Chips. Da hat auch die Community schon vergessen gehabt, dass es eigentlich zuerst AMD war, die sich da über Intel lustig gemacht haben. Man merkt sich halt gerne nur das letzte Ereignis.
 

hanfi104

Volt-Modder(in)
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
Zen 4 mit 96 Kernen ist nicht mehr weit. Das wird sicher ausreichend Konkurrenz sein zu Altra.
Intel will ja mit der OneAPI ein riesen Ding aufziehen, das ja auch u.a. auf AI abziehlt.
Schade nur, dass der größte Einsatzzweck von AI Überwachung ist :/
 

ceDon

Schraubenverwechsler(in)
mich würde mal eher interessieren wer die 50mrd für die fertigung im eigenen land bekommen soll wenn intel selbst "nur" 20 mrd investiert. und laut meiner letzten info sind micron und intel die einzigen beiden die noch in den usa fertigen. lässt sich intel jetzt seine fabs von der regierung bezahlen oder fördert die regierung mit 50mrd die zufahrtsstrassen (mal grob als infrastruktur zusammengefasst) zu den fabs ?
 

Khabarak

BIOS-Overclocker(in)
In meiner Wahrnehmung sieht das aber nicht so aus. Nvidia hat den bärenstarken A100, ist führend im Automotive Bereich und hat so was wie DLSS. Was hat Intel?

Auf Automotive gesamt gesehen ist Nvidia ein echt kleines Licht... oder auch ein sehr kleiner Fisch im großen Teich.
Intel hat mit der Tochter Mobileye den führenden Hersteller von Kamerasystemen gekauft.

Die waren schon vor dem Kauf durch Intel Marktführer in dem Bereich.

Außerhalb von autonomen Fahren findet Nvidia praktisch nicht mehr statt - sie schaffen es jedes Mal, ihre Multimedia Coops an die Wand zu fahren und eine Generation später wieder rauszufliegen.

In anderen Bereichen gibt es noch größere Player, wie Bosch.


Nvidias Ansatz zu autonomen Fahren ist, jede Kamera und jeden dazu gehörendne Sensor an einem zentralen Steuergerät auszuwerten.
Aktuell sind die Systeme aber verteilt auf diverse Steuergeräte und bilden im Zusammenspiel die Grundlage für autonomes Fahren.

Sollten die Hersteller in Zukunft wirklich mal auf ein, zwei Steuergeräte runter gehen (von den aktuell 40+ in den gut ausgestatteten Fahrzeugen), hätte Nvidia eine Teilchance mit ihrem Konzept.
Aber auch da wären sie eher eine Teilfunktion, anstelle *der* Controller nur für autonomes Fahren allein zu sein.

Wie ich schon sagte: Für die Grundentwicklung sehr gut, aber für den Serieneinsatz eher nicht zu gebrauchen.

Edit:
Nvidias Ansatz mit 10+ Kameras kann MobilEye übrigens auch - ohne Wasserkühlung:
 
Zuletzt bearbeitet:

BxBender

BIOS-Overclocker(in)
Solange der hausinterne Worddokumenteladenbenchmark Intel vorne sieht, ist doch alles in guter Butter!?
Das Glas ist immer halb voll, niemals halb leer. :-)
mich würde mal eher interessieren wer die 50mrd für die fertigung im eigenen land bekommen soll wenn intel selbst "nur" 20 mrd investiert. und laut meiner letzten info sind micron und intel die einzigen beiden die noch in den usa fertigen. lässt sich intel jetzt seine fabs von der regierung bezahlen oder fördert die regierung mit 50mrd die zufahrtsstrassen (mal grob als infrastruktur zusammengefasst) zu den fabs ?
Hm, gute Frage.
Vielleicht wird mit den anderen 30 Mrd. dann das gekauft, was vom Fließband fällt? lol ^^
Aber auch nur in deiner Wahrnehmung! Schon mal was von FPGAs gehört? Die sind im Bereich autonomes Fahren viel performanter, einfach mal über die Vorteile von FPGAs in dem Bereich informieren!
Wen hat AMD denn gerade übernommen? Machen die nicht auch was mit FPGA? Oder was war das noch?
 

Bärenmarke

Software-Overclocker(in)
Wen hat AMD denn gerade übernommen? Machen die nicht auch was mit FPGA? Oder was war das noch?

Sie wollen Xilinx übernehmen, wenn alles klappt und die sind im Bereich FPGAs mit 50% Marktführer und haben sehr interessante Lösungen im Portfolio auch was das 2.5 Stacking betrifft. Sollte man sich mal anschauen was die so alles anbieten, hatte ich die letzten Tage mal gemacht und ich fand es sehr spannend!
 

gerX7a

BIOS-Overclocker(in)
Doch, genau das. Siehe das Zitat. Er stellt es als "(Nvidia) responding" dar.
Das ist eine Auslegungsfrage. Will man das in einer kurfristigen Perspektive sehen, dann ist es sicherlich nicht wortlich zu nehmen, denn derartige Entwicklungen nehmen Jahre in Anspruch, wie auch von nVidia explizit skizziert, die schon seit vor dem ARM-Deal an der CPU dran sind. Und nVidia hat hier zurzeit und auch im nächsten Jahr nichts anzubieten, während Intel hier schon seit langem AI-fähige CPUs anbietet und jetzt gerade offiziell eine neue Version veröffentlicht.
Legt man dagegen die Deutung langfristig aus, dann fällt es leicht das als Reaktion auf Intels Xe-Ankündigungen in 2018 zu verstehen, denn mit der Aufkündigung des Xeon Phi und der Entwicklung einer komplett neuen Architektur die vornehmlich auf HPC abzielt, war vollkommen klar, dass das für nVidia mittelfristig problematisch werden wird, denn Intel kann dann erneut alles aus einer Hand anbieten und wird seine Systemkomponenten hochgradig aufeinander abstimmen. *) An Gelsingers Außerung ist überhaupt nichts verkehrt/nachteilig auszulegen.
Wie schon erklärt geht es hier für nVidia schlicht darum ein größeres Stück vom Kuchen abzubekommen und sie können damit ein Komplettsystem bieten, das sie ihren eigenen Bedürfnissen nach auslegen können, während sie andernfalls immer darauf angewiesen sind, was Inte, AMD, IBM an Möglichkeiten bereitstellen. Neben dem gesteigerten Umsatz versprechen sie sich hiervon natürlich auch eine erhöhte Konkurrenzfähigkeit, denn die weiterreichenden Systemdesignmöglichkeiten werden sie auch benötigen, denn man kann sich an zwei Fingern ausrechnen, dass Intel bspw. hier bzgl. Sapphire Rapids SP und Xe-HPC aus den Vollen schöpfen und die Komponenten möglichst optimal aufeinander abstimmen wird. Da wird die Luft spätestens mittelfristig dünn für jemnanden, der nur eine wesentliche aber einzelne Komponente beisteuert und dementprechend geht nVidia hier den nächsten logischen Schritt.

Und Intel ist hier offensichtlich schneller, denn das "Aurora-Design" wird schon zum Jahreswechsel vorgestellt werden, während nVidia bspw. Mitte 2022 erst mal nur erneut eine neue Datacenter-GPU **) vorstellen wird und noch ein weiteres Jahr benötigt, bevor Grace fertig sein wird.


*) Und absehbar kann man sich ebenso an zwei Fingern ausrechnen: Warum sollten hier Intel und AMD nVidia mit ihrer x86-Plattform zukünftig übermäßig entgegenkommen? Die konkurrieren beide auf gesamter Front mit nVidia (Intel in Kürze, AMD wird aufgrund des Volumens und SW-Defizits effektiv noch länger brauchen) und dementsprechend werden die ihre eigenen Lösungen favorisieren. Der einzige Grund, warum die beiden nVidia nicht direkt "schneiden" können, ist die beträchtliche Marktverbreitung von nVidia's Hardware. ;-)

**) Hier mit hoher Wahrscheinlichkeit schon MCM-basiert, den andernfalls wäre man voraussichtlich dem Intel-Design zumindest rein gemäß der bisher technisch kolportierten Specs hoffnungslos unterlegen. (Btw, es spricht nach wie vor nichts dagegen, dass das Datacenter-MCM-Design Hopper heißen wird. ;-) Rund ein Jahr später könnte man Grace und Hopper zusammenführen.)

Haben die Unterschiedlichen Architekturen nicht grundverschiedene Usecases, in dem jeder irgendwo seine Stärken hat?
Eher nicht. Du kannst natürlich Standard-HPC-Software von der Stange nutzen, aber in dem Bereich und bei den Aufwand (Time is Money) kompiliert man die Software üblicherweise (hochoptimiert) selbst und auch im Bereich des Ökosystems sind ARM sowie alle anhängenden Hersteller natürlich bestrebt etwaige Lücken schnellstmöglich zu schließen.
Beispielsweise der derzeit mit deutlichem Abstand weltschnellste Supercomputer ist ein ARM-basiertes System ohne Beschleunigerkarten. Hier setzt man rein auf die Vektoreinheiten in den CPU-Kernen der Fujitsu A64FX-CPUs ("nur" 48 Kerne). Das System leistet bspw. 2,78 TFlops pro CPU, ein Wert, den voraussichtlich nicht einmal ein aktueller Epyc auf Basis von Zen3 erreichen wird, was auch der Grund sein wird, dass AMD voraussichtlich die Vektoreinheit in Zen4 verbreitern wird. (Beispielsweise die 7H12 des Joliot-Curie Rome erreichen gerade mal 2,27 TFlops Rmax pro CPU.)

[...] Was hat Intel?
Natürlich alles unter Vorbehalt, wobei MLisDead hier zumindest bzgl. Teilen dieser Werte mit einer sehr hohen Sicherheit/Zuversicht spricht in Verbindung mit Xe-HPC:
  • rd. 46 TFlops FP64 (ebenso FP32 da 1:1)
  • > 1 PFlops FP16 AI-Performance
  • knapp über 400 MiB Cache (exklusive RamboCache)
  • 128 GiB HBM2E
  • PCIe5, CXL, Unified Memory
  • rd. 600 W pro Package
Mit den Eckdaten übertrifft das Design den (G)A100 bei Weitem sowohl bzgl. abbsoluter Leistung als auch bzgl. Performance/Watt. Der Aurora kombiniert 6 x Xe-HPC in einem Node.
Nimmt man hier konservativ 12 Nodes pro Schrank an, hat man bereits 3,3 PFlops FP64-HPC-Performance und 72 PFlops AI-Performance in einem einzigen Schrank. Würde man diese HPC-Leistung 1:1 in Rmax ummünzen, würde sich so ein einziger Schrank bereits direkt auf etwa Platz 93 der Top500-Liste einordnen und wäre zudem mit deutlichem Abstand effizienter als alles, was da derzeit gelistet wird. *)
(Der Aurora wird aus voraussichtlich über 200 Schränken/Cabinets bestehen.)

*) Eines der effizientesten Systeme an der Position ist der derzeit an Platz 89 geführte Cedar, Xeon Silver kombiniert mit nVidia V100 mit 310 kW bei 3,37 PFlops Rmax.

Randbemerkung zu Xe-HPG: Hier ist zudem von XeSS als Projektcodename als vermutlichem DLSS-Konkurrenten die Rede. Zudem, entgegen RDNA2 verfügt Xe-LP/HGP zudem über Inferencing-spezifische ISA-Bestandteile für eine zusätzliche Beschleunigung.

Zen 4 mit 96 Kernen ist nicht mehr weit. Das wird sicher ausreichend Konkurrenz sein zu Altra [Q80-33, Quicksilver, 80 Kerne bei konstanten 3,3,GHz und mit unter 250 W].
Intel will ja mit der OneAPI ein riesen Ding aufziehen, das ja auch u.a. auf AI abziehlt.
Schade nur, dass der größte Einsatzzweck von AI Überwachung ist :/
Doch, der kommt erst nächstes Jahr, so wie es sich das derzeit abzeichnet gar erst im 2HJ22. ;-)
Der 128-Kerner Mystique (M128-30) von Ampere Computing kommt noch dieses Jahr in den Markt und das Tapeout des 5nm-Nachfolgers Siryn hat schon in 2020 stattgefunden. Das Design ist ebenfalls für 2022 vorgesehen, d. h. da wird es erneut spannend.

Ergänzend: Das OneAPI zielt nicht speziell auf AI ab sondern generell auf das Thema Heterogeneous Computing.

Sie wollen Xilinx übernehmen, wenn alles klappt und die sind im Bereich FPGAs mit 50% Marktführer und haben sehr interessante Lösungen im Portfolio auch was das 2.5 Stacking betrifft. Sollte man sich mal anschauen was die so alles anbieten, hatte ich die letzten Tage mal gemacht und ich fand es sehr spannend!
Ergänzend: Xilinx und Intel halten hier bzgl. FPGAs den Großteil des Marktes in der Hand. Weitere, kleinere Mitspieler sind Achronix Semiconductor Corp., Altera Corporation, Cypress Semiconductor, Microsemi Corporation, Texas Instruments und bspw. Aeroflex, Inc.
Darüber hinaus sind genaue Zaheln zu exakten Marktanteilen bei FPGAs schwer zu bekommen, da diese hier gemeinhin zu kommerziellen Marktanalysen führen. Intel hatte jedoch gemäß IHS bereits in 2015 bei FPGAs rd. 37 % Marktanteil gemäß Revenue, während man zu der Zeit Xilinx 50 % zuschrieb. Mit den weiteren Ausbauten bei Intel dürfte man sich in den letzten Jahren weiter angenähert haben und mit ihren Agilex- und Stratix-Produkten dürften sie relativ konkurrenzfähig dastehen.
 
Zuletzt bearbeitet:

LarryMcFly

PC-Selbstbauer(in)
Wenn sie gleich Rotz & Wasser deswegen heulen, würden doch alle Investoren - vom Hedgefonds bis zum Kleinanleger - alle Viere von sich strecken wie eine Ziege in Schockstarre.
Das ist typisches gorillamäßiges Brusttrommeln um den Markt in Sicherheit zu wiegen.
Hinter dem Vorhang wird sich schon so mancher Manager die Sorgenfalten aus dem Gesicht botoxen lassen. ;)
 

BigBoymann

Software-Overclocker(in)
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
Selbstbewusstsein ist es aber nur, wenn man den Worten auch Taten folgen lassen kann. Bei Intel ist das in jüngerer Vergangenheit wohl eher als Überheblichkeit zu sehen.

Ich meine klar sind sie gg. Nvidia im Bereich CPUs vorne, allerdings sehen wir zunehmend, wie ARM sich auf dem Markt breit macht und immer mehr und mehr eine echte Alternative zu x86 zu werden scheint. Man profitiert meist von einem günstiegren Aufbau und kann daher bereits sehr früh in kleinen Strukturen fertigen, aktuell so beim M1 von Apple, der bereits in 5nm gefertigt wird, während Intel eben noch 14nm nutzen muss (auch wenn die Bezeichnungen nicht gleich sind, zwei Nodes Differenz ist doch schon mal ein Wort)
Wenn NV jetzt eine CPU ankündigt und Intel sich dann wieder lässig in den Stuhl wirft, dann wird ihnen das Ryzen Debakel wieder passieren und ihr Ruf als bester und führender Hersteller von CPUs wird zunehmend Schaden nehmen.
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
Aktuell sehe ich unter Anwendung der gleichen Fertigung (Altra 7nm und Epyc 7nm) keine wirklichen Unterschiede, einzig Intel hängt halt deutlich hinterher, aber eben auch in der Fertigung. Der M1 kann x86 teilweise krass distanzieren (wobei auch deutliche Schwächen vorhanden sind), wird aber eben schon in 5nm gerfertigt, alles andere sind in meinen Augen nicht wirklich relevante Unterschiede. In der Effizienz sieht dies teilweise anders aus, da ist ARM, weil eben auch einfacher gestrickt meist besser, wobei man auch dort sieht, dass je komplexer die Architektur wird (was eben auch teilweise notwendig ist) die Effizienz im Vergleich zu x86 eben auch abnimmt (wobei immer noch vorne).

Dennoch glaube ich mittlerweile, dass im Datacenter die Zukunft ARM spricht.
 
Zuletzt bearbeitet:

Bärenmarke

Software-Overclocker(in)
Darüber hinaus sind genaue Zaheln zu exakten Marktanteilen bei FPGAs schwer zu bekommen, da diese hier gemeinhin zu kommerziellen Marktanalysen führen. Intel hatte jedoch gemäß IHS bereits in 2015 bei FPGAs rd. 37 % Marktanteil gemäß Revenue, während man zu der Zeit Xilinx 50 % zuschrieb. Mit den weiteren Ausbauten bei Intel dürfte man sich in den letzten Jahren weiter angenähert haben und mit ihren Agilex- und Stratix-Produkten dürften sie relativ konkurrenzfähig dastehen.

Wieso sollte intel mehr Marktanteile bekommen haben? Weil du eine extrem blaue Brille auf hast? Hättest du dich mit dem Thema FPGAs befasst und etwas gegoogelt, dann würdest du wissen dies eben nicht der Fall ist und intel die FPGAs eher stiefmütterlich behandelt.
Zumal Xilinx ihre neusten FPGAs auch n 7nm fertigt. Das hier ist zwar nur ein kleiner Teil, aber da führt Xilinx mit 60:40 gegenüber intel und ich glaube nicht, dass sich das ändern wird. Xilinx schläft nicht.
 
Oben Unten