Intel gelassen wegen Nvidia-CPUs: "Nvidia reagiert auf uns, nicht wir auf Nvidia"

Haben die Unterschiedlichen Architekturen nicht grundverschiedene Usecases, in dem jeder irgendwo seine Stärken hat?
Auch bei grundverschiedenen Usecases kann am Ende eine Variante die andere wegdominieren, wenn sie nur genügend überlegen ist. Berühmtes und eindeutigstes Beispiel der jüngsten Technikgeschichte ist wohl das Duell Akkustaubsauger vs Kabelstaubsauger...
 
"Vielmehr reagiere Nvidia auf Technik, bei der Intel führend sei"

Die Technik im Strom verbraten vielleicht !! Obwohl nVidia mit Ampere diesbezüglich gut "aufgeschlossen" hat.
Bestimmt haben sie (wieder mal) geschmiert, dass ihre Produkte NICHT verboten werden, sowie die 100 Watt Glühbirne ... :crazy:

MfG Föhn.
 
Dass sich Intel überhaupt zu einem Statement gewungen sieht, sagt schon so einiges...

Ich bin gespannt, wo es zukünftig hingeht, klar ist dass ARM-CPUs von Apple, Nvidia, Qualcomm, Samsung, Google usw. immer mehr Anteile einnehmen werden, die bisher x86 und anderen Architekturen (SPARC? PowerPC?...) vorbehalten waren.

Für uns Endkunden ist es wahrscheinlich erst mal egal. Ich schätze ARM und x86 werden im Consumer Markt eben so wie heute schon bei Servern eine ganze Weile erst mal eine Koexistenz führen. Wenn Microsoft hier schnell zu Potte kommt und es schafft Windows (besser als bisher) auf ARM zu etablieren, hat das für uns nur Vorteile. Allerdings befürchte ich auch, dass es dann zu einer stärkeren Segmentierung der Windows Versionen kommt. Nicht nur x86 vs ARM sondern auch ARM von Hersteller 1 gegen ARM von Hersteller 2. So wie es derzeit ja bei Android ist... Vllt schaffen sie es aber auch hier striktere Vorgaben als Google durchzusetzen...
 
Gegenüber Fortune sagt er: "Wir haben letzte Woche unseren Ice Lake [in Form neuer Server-CPUs] angekündigt mit außergewöhnlich viel Zuspruch. Und in Ice Lake stecken unwahrscheinlich viele Erweiterungen in den K.I.-Fähigkeiten. [Nvidia] reagiert auf uns. Nicht wir sind es, die auf Nvidia reagieren." Es stehe außer Frage, dass Intel im Bereich der Künstlichen Intelligenz weit in Führung liegt.
In meiner Wahrnehmung sieht das aber nicht so aus. Nvidia hat den bärenstarken A100, ist führend im Automotive Bereich und hat so was wie DLSS. Was hat Intel?
 
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
Man wird kein Multimilliarden Dollar Unternehmen wenn man kein Selbstbewusstsein hat.
Wann sie die Aussage zurückgeworfen bekommen? Beim Release der Intel GPUs! Mit NVIDIA werden sie anfänglich bestimmt nicht mithalten können.

Das Intel-Zitat "Nvidia reagiert auf uns, nicht wir auf Nvidia" ist aber vollkommen sinnloses Gelaber. Vorher hatte Nvidia ja auch keine CPUs. Realistisch betrachtet, reagiert Nvidia aber auf den CPU Markt und nicht explezit auf Intel. AMD soll da doch auch mitmischen, habe ich irgendwo gehört :D
 
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
ach, das ist wie bei Politikern. Da kann noch so viel Mist gesagt worden sein, das Kollektive Gedächtnis ist ziemlich dumm und man vergisst wieder.

Das ist wie bei der Aussage von wegen zusammengeklebter Chips. Da hat auch die Community schon vergessen gehabt, dass es eigentlich zuerst AMD war, die sich da über Intel lustig gemacht haben. Man merkt sich halt gerne nur das letzte Ereignis.
 
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
Zen 4 mit 96 Kernen ist nicht mehr weit. Das wird sicher ausreichend Konkurrenz sein zu Altra.
Intel will ja mit der OneAPI ein riesen Ding aufziehen, das ja auch u.a. auf AI abziehlt.
Schade nur, dass der größte Einsatzzweck von AI Überwachung ist :/
 
mich würde mal eher interessieren wer die 50mrd für die fertigung im eigenen land bekommen soll wenn intel selbst "nur" 20 mrd investiert. und laut meiner letzten info sind micron und intel die einzigen beiden die noch in den usa fertigen. lässt sich intel jetzt seine fabs von der regierung bezahlen oder fördert die regierung mit 50mrd die zufahrtsstrassen (mal grob als infrastruktur zusammengefasst) zu den fabs ?
 
In meiner Wahrnehmung sieht das aber nicht so aus. Nvidia hat den bärenstarken A100, ist führend im Automotive Bereich und hat so was wie DLSS. Was hat Intel?

Auf Automotive gesamt gesehen ist Nvidia ein echt kleines Licht... oder auch ein sehr kleiner Fisch im großen Teich.
Intel hat mit der Tochter Mobileye den führenden Hersteller von Kamerasystemen gekauft.

Die waren schon vor dem Kauf durch Intel Marktführer in dem Bereich.

Außerhalb von autonomen Fahren findet Nvidia praktisch nicht mehr statt - sie schaffen es jedes Mal, ihre Multimedia Coops an die Wand zu fahren und eine Generation später wieder rauszufliegen.

In anderen Bereichen gibt es noch größere Player, wie Bosch.


Nvidias Ansatz zu autonomen Fahren ist, jede Kamera und jeden dazu gehörendne Sensor an einem zentralen Steuergerät auszuwerten.
Aktuell sind die Systeme aber verteilt auf diverse Steuergeräte und bilden im Zusammenspiel die Grundlage für autonomes Fahren.

Sollten die Hersteller in Zukunft wirklich mal auf ein, zwei Steuergeräte runter gehen (von den aktuell 40+ in den gut ausgestatteten Fahrzeugen), hätte Nvidia eine Teilchance mit ihrem Konzept.
Aber auch da wären sie eher eine Teilfunktion, anstelle *der* Controller nur für autonomes Fahren allein zu sein.

Wie ich schon sagte: Für die Grundentwicklung sehr gut, aber für den Serieneinsatz eher nicht zu gebrauchen.

Edit:
Nvidias Ansatz mit 10+ Kameras kann MobilEye übrigens auch - ohne Wasserkühlung:
 
Zuletzt bearbeitet:
Solange der hausinterne Worddokumenteladenbenchmark Intel vorne sieht, ist doch alles in guter Butter!?
Das Glas ist immer halb voll, niemals halb leer. :-)
mich würde mal eher interessieren wer die 50mrd für die fertigung im eigenen land bekommen soll wenn intel selbst "nur" 20 mrd investiert. und laut meiner letzten info sind micron und intel die einzigen beiden die noch in den usa fertigen. lässt sich intel jetzt seine fabs von der regierung bezahlen oder fördert die regierung mit 50mrd die zufahrtsstrassen (mal grob als infrastruktur zusammengefasst) zu den fabs ?
Hm, gute Frage.
Vielleicht wird mit den anderen 30 Mrd. dann das gekauft, was vom Fließband fällt? lol ^^
Aber auch nur in deiner Wahrnehmung! Schon mal was von FPGAs gehört? Die sind im Bereich autonomes Fahren viel performanter, einfach mal über die Vorteile von FPGAs in dem Bereich informieren!
Wen hat AMD denn gerade übernommen? Machen die nicht auch was mit FPGA? Oder was war das noch?
 
Wen hat AMD denn gerade übernommen? Machen die nicht auch was mit FPGA? Oder was war das noch?

Sie wollen Xilinx übernehmen, wenn alles klappt und die sind im Bereich FPGAs mit 50% Marktführer und haben sehr interessante Lösungen im Portfolio auch was das 2.5 Stacking betrifft. Sollte man sich mal anschauen was die so alles anbieten, hatte ich die letzten Tage mal gemacht und ich fand es sehr spannend!
 
Doch, genau das. Siehe das Zitat. Er stellt es als "(Nvidia) responding" dar.
Das ist eine Auslegungsfrage. Will man das in einer kurfristigen Perspektive sehen, dann ist es sicherlich nicht wortlich zu nehmen, denn derartige Entwicklungen nehmen Jahre in Anspruch, wie auch von nVidia explizit skizziert, die schon seit vor dem ARM-Deal an der CPU dran sind. Und nVidia hat hier zurzeit und auch im nächsten Jahr nichts anzubieten, während Intel hier schon seit langem AI-fähige CPUs anbietet und jetzt gerade offiziell eine neue Version veröffentlicht.
Legt man dagegen die Deutung langfristig aus, dann fällt es leicht das als Reaktion auf Intels Xe-Ankündigungen in 2018 zu verstehen, denn mit der Aufkündigung des Xeon Phi und der Entwicklung einer komplett neuen Architektur die vornehmlich auf HPC abzielt, war vollkommen klar, dass das für nVidia mittelfristig problematisch werden wird, denn Intel kann dann erneut alles aus einer Hand anbieten und wird seine Systemkomponenten hochgradig aufeinander abstimmen. *) An Gelsingers Außerung ist überhaupt nichts verkehrt/nachteilig auszulegen.
Wie schon erklärt geht es hier für nVidia schlicht darum ein größeres Stück vom Kuchen abzubekommen und sie können damit ein Komplettsystem bieten, das sie ihren eigenen Bedürfnissen nach auslegen können, während sie andernfalls immer darauf angewiesen sind, was Inte, AMD, IBM an Möglichkeiten bereitstellen. Neben dem gesteigerten Umsatz versprechen sie sich hiervon natürlich auch eine erhöhte Konkurrenzfähigkeit, denn die weiterreichenden Systemdesignmöglichkeiten werden sie auch benötigen, denn man kann sich an zwei Fingern ausrechnen, dass Intel bspw. hier bzgl. Sapphire Rapids SP und Xe-HPC aus den Vollen schöpfen und die Komponenten möglichst optimal aufeinander abstimmen wird. Da wird die Luft spätestens mittelfristig dünn für jemnanden, der nur eine wesentliche aber einzelne Komponente beisteuert und dementprechend geht nVidia hier den nächsten logischen Schritt.

Und Intel ist hier offensichtlich schneller, denn das "Aurora-Design" wird schon zum Jahreswechsel vorgestellt werden, während nVidia bspw. Mitte 2022 erst mal nur erneut eine neue Datacenter-GPU **) vorstellen wird und noch ein weiteres Jahr benötigt, bevor Grace fertig sein wird.


*) Und absehbar kann man sich ebenso an zwei Fingern ausrechnen: Warum sollten hier Intel und AMD nVidia mit ihrer x86-Plattform zukünftig übermäßig entgegenkommen? Die konkurrieren beide auf gesamter Front mit nVidia (Intel in Kürze, AMD wird aufgrund des Volumens und SW-Defizits effektiv noch länger brauchen) und dementsprechend werden die ihre eigenen Lösungen favorisieren. Der einzige Grund, warum die beiden nVidia nicht direkt "schneiden" können, ist die beträchtliche Marktverbreitung von nVidia's Hardware. ;-)

**) Hier mit hoher Wahrscheinlichkeit schon MCM-basiert, den andernfalls wäre man voraussichtlich dem Intel-Design zumindest rein gemäß der bisher technisch kolportierten Specs hoffnungslos unterlegen. (Btw, es spricht nach wie vor nichts dagegen, dass das Datacenter-MCM-Design Hopper heißen wird. ;-) Rund ein Jahr später könnte man Grace und Hopper zusammenführen.)

Haben die Unterschiedlichen Architekturen nicht grundverschiedene Usecases, in dem jeder irgendwo seine Stärken hat?
Eher nicht. Du kannst natürlich Standard-HPC-Software von der Stange nutzen, aber in dem Bereich und bei den Aufwand (Time is Money) kompiliert man die Software üblicherweise (hochoptimiert) selbst und auch im Bereich des Ökosystems sind ARM sowie alle anhängenden Hersteller natürlich bestrebt etwaige Lücken schnellstmöglich zu schließen.
Beispielsweise der derzeit mit deutlichem Abstand weltschnellste Supercomputer ist ein ARM-basiertes System ohne Beschleunigerkarten. Hier setzt man rein auf die Vektoreinheiten in den CPU-Kernen der Fujitsu A64FX-CPUs ("nur" 48 Kerne). Das System leistet bspw. 2,78 TFlops pro CPU, ein Wert, den voraussichtlich nicht einmal ein aktueller Epyc auf Basis von Zen3 erreichen wird, was auch der Grund sein wird, dass AMD voraussichtlich die Vektoreinheit in Zen4 verbreitern wird. (Beispielsweise die 7H12 des Joliot-Curie Rome erreichen gerade mal 2,27 TFlops Rmax pro CPU.)

[...] Was hat Intel?
Natürlich alles unter Vorbehalt, wobei MLisDead hier zumindest bzgl. Teilen dieser Werte mit einer sehr hohen Sicherheit/Zuversicht spricht in Verbindung mit Xe-HPC:
  • rd. 46 TFlops FP64 (ebenso FP32 da 1:1)
  • > 1 PFlops FP16 AI-Performance
  • knapp über 400 MiB Cache (exklusive RamboCache)
  • 128 GiB HBM2E
  • PCIe5, CXL, Unified Memory
  • rd. 600 W pro Package
Mit den Eckdaten übertrifft das Design den (G)A100 bei Weitem sowohl bzgl. abbsoluter Leistung als auch bzgl. Performance/Watt. Der Aurora kombiniert 6 x Xe-HPC in einem Node.
Nimmt man hier konservativ 12 Nodes pro Schrank an, hat man bereits 3,3 PFlops FP64-HPC-Performance und 72 PFlops AI-Performance in einem einzigen Schrank. Würde man diese HPC-Leistung 1:1 in Rmax ummünzen, würde sich so ein einziger Schrank bereits direkt auf etwa Platz 93 der Top500-Liste einordnen und wäre zudem mit deutlichem Abstand effizienter als alles, was da derzeit gelistet wird. *)
(Der Aurora wird aus voraussichtlich über 200 Schränken/Cabinets bestehen.)

*) Eines der effizientesten Systeme an der Position ist der derzeit an Platz 89 geführte Cedar, Xeon Silver kombiniert mit nVidia V100 mit 310 kW bei 3,37 PFlops Rmax.

Randbemerkung zu Xe-HPG: Hier ist zudem von XeSS als Projektcodename als vermutlichem DLSS-Konkurrenten die Rede. Zudem, entgegen RDNA2 verfügt Xe-LP/HGP zudem über Inferencing-spezifische ISA-Bestandteile für eine zusätzliche Beschleunigung.

Zen 4 mit 96 Kernen ist nicht mehr weit. Das wird sicher ausreichend Konkurrenz sein zu Altra [Q80-33, Quicksilver, 80 Kerne bei konstanten 3,3,GHz und mit unter 250 W].
Intel will ja mit der OneAPI ein riesen Ding aufziehen, das ja auch u.a. auf AI abziehlt.
Schade nur, dass der größte Einsatzzweck von AI Überwachung ist :/
Doch, der kommt erst nächstes Jahr, so wie es sich das derzeit abzeichnet gar erst im 2HJ22. ;-)
Der 128-Kerner Mystique (M128-30) von Ampere Computing kommt noch dieses Jahr in den Markt und das Tapeout des 5nm-Nachfolgers Siryn hat schon in 2020 stattgefunden. Das Design ist ebenfalls für 2022 vorgesehen, d. h. da wird es erneut spannend.

Ergänzend: Das OneAPI zielt nicht speziell auf AI ab sondern generell auf das Thema Heterogeneous Computing.

Sie wollen Xilinx übernehmen, wenn alles klappt und die sind im Bereich FPGAs mit 50% Marktführer und haben sehr interessante Lösungen im Portfolio auch was das 2.5 Stacking betrifft. Sollte man sich mal anschauen was die so alles anbieten, hatte ich die letzten Tage mal gemacht und ich fand es sehr spannend!
Ergänzend: Xilinx und Intel halten hier bzgl. FPGAs den Großteil des Marktes in der Hand. Weitere, kleinere Mitspieler sind Achronix Semiconductor Corp., Altera Corporation, Cypress Semiconductor, Microsemi Corporation, Texas Instruments und bspw. Aeroflex, Inc.
Darüber hinaus sind genaue Zaheln zu exakten Marktanteilen bei FPGAs schwer zu bekommen, da diese hier gemeinhin zu kommerziellen Marktanalysen führen. Intel hatte jedoch gemäß IHS bereits in 2015 bei FPGAs rd. 37 % Marktanteil gemäß Revenue, während man zu der Zeit Xilinx 50 % zuschrieb. Mit den weiteren Ausbauten bei Intel dürfte man sich in den letzten Jahren weiter angenähert haben und mit ihren Agilex- und Stratix-Produkten dürften sie relativ konkurrenzfähig dastehen.
 
Zuletzt bearbeitet:
Wenn sie gleich Rotz & Wasser deswegen heulen, würden doch alle Investoren - vom Hedgefonds bis zum Kleinanleger - alle Viere von sich strecken wie eine Ziege in Schockstarre.
Das ist typisches gorillamäßiges Brusttrommeln um den Markt in Sicherheit zu wiegen.
Hinter dem Vorhang wird sich schon so mancher Manager die Sorgenfalten aus dem Gesicht botoxen lassen. ;)
 
An Selbstbewusstsein mangelt es Intel und den Mitarbeitern offensichtlich nicht. Mal schauen wann sie diese Aussage wieder aufs Brot geschmiert bekommen.
Selbstbewusstsein ist es aber nur, wenn man den Worten auch Taten folgen lassen kann. Bei Intel ist das in jüngerer Vergangenheit wohl eher als Überheblichkeit zu sehen.

Ich meine klar sind sie gg. Nvidia im Bereich CPUs vorne, allerdings sehen wir zunehmend, wie ARM sich auf dem Markt breit macht und immer mehr und mehr eine echte Alternative zu x86 zu werden scheint. Man profitiert meist von einem günstiegren Aufbau und kann daher bereits sehr früh in kleinen Strukturen fertigen, aktuell so beim M1 von Apple, der bereits in 5nm gefertigt wird, während Intel eben noch 14nm nutzen muss (auch wenn die Bezeichnungen nicht gleich sind, zwei Nodes Differenz ist doch schon mal ein Wort)
Wenn NV jetzt eine CPU ankündigt und Intel sich dann wieder lässig in den Stuhl wirft, dann wird ihnen das Ryzen Debakel wieder passieren und ihr Ruf als bester und führender Hersteller von CPUs wird zunehmend Schaden nehmen.
Und? Das hat in dem Bereich wenig Relevanz. Bereits ein Altra Q80-33 kann den größten, aktuellen Epcy durchaus unter Druck setzen und noch in diesem Jahr folgt ein 128-Kerner. Und die ARM-Entwickung im Allgemeinen geht weiter und diese Architektur wird immer weiter in den Servermarkt einfallen und x86 Marktanteile kosten. Das ist absehbar. Die Frage ist, wie weit hier x86 dagegen halten können wird, bzw. wie bspw. die Datacenterlandschaft zum Endes des Jahrzehnts hin aussehen wird.
Aktuell sehe ich unter Anwendung der gleichen Fertigung (Altra 7nm und Epyc 7nm) keine wirklichen Unterschiede, einzig Intel hängt halt deutlich hinterher, aber eben auch in der Fertigung. Der M1 kann x86 teilweise krass distanzieren (wobei auch deutliche Schwächen vorhanden sind), wird aber eben schon in 5nm gerfertigt, alles andere sind in meinen Augen nicht wirklich relevante Unterschiede. In der Effizienz sieht dies teilweise anders aus, da ist ARM, weil eben auch einfacher gestrickt meist besser, wobei man auch dort sieht, dass je komplexer die Architektur wird (was eben auch teilweise notwendig ist) die Effizienz im Vergleich zu x86 eben auch abnimmt (wobei immer noch vorne).

Dennoch glaube ich mittlerweile, dass im Datacenter die Zukunft ARM spricht.
 
Zuletzt bearbeitet:
Darüber hinaus sind genaue Zaheln zu exakten Marktanteilen bei FPGAs schwer zu bekommen, da diese hier gemeinhin zu kommerziellen Marktanalysen führen. Intel hatte jedoch gemäß IHS bereits in 2015 bei FPGAs rd. 37 % Marktanteil gemäß Revenue, während man zu der Zeit Xilinx 50 % zuschrieb. Mit den weiteren Ausbauten bei Intel dürfte man sich in den letzten Jahren weiter angenähert haben und mit ihren Agilex- und Stratix-Produkten dürften sie relativ konkurrenzfähig dastehen.

Wieso sollte intel mehr Marktanteile bekommen haben? Weil du eine extrem blaue Brille auf hast? Hättest du dich mit dem Thema FPGAs befasst und etwas gegoogelt, dann würdest du wissen dies eben nicht der Fall ist und intel die FPGAs eher stiefmütterlich behandelt.
Zumal Xilinx ihre neusten FPGAs auch n 7nm fertigt. Das hier ist zwar nur ein kleiner Teil, aber da führt Xilinx mit 60:40 gegenüber intel und ich glaube nicht, dass sich das ändern wird. Xilinx schläft nicht.
 
Zurück