News Nvidia-CEO: "Unsere Lebensaufgabe ist es nicht, CUDA-GPUs zu bauen"

Ich kann an der Aussage weder Verwerfliches noch Strebsames erkennen, auch wenn ein CEO wie Jensen wahrscheinlich immer ein bisl ein Wendehals ist. Ich sehe in diesem Verhalten mehr Intelligenz denn Sturheit, auch wenn unsere aktuelle Entwicklung, mit dem ganzen Gieren nach Hypes, für mich eigentlich nicht viel Gutes für die längerfristige Zukunft zu bedeuten hat. Ich habe das Gefühl, dass die Menschen aktuell eine Art Zwangsbefriedigung leben, ohne überhaupt genau zu wissen, was fehlt.
Nur meine Meinung.
 
Och, naja, oft ist die "beste" Softwarelösung "proprietär". SAP, fast alles von Microsoft (jaja, Linux, das ist allerdings deutlich komplizierter für Firmen zu nutzen wenn es um Endanwender geht), diverse Ticketsysteme, fast alles muss man "kaufen". Für Endanwender zuhause gibt es viel Open Source Software die OK ist, aber für Firmen kommt das kaum in Frage aufgrund des fehlenden Supports.
CUDA ist keine Anwendung sondern eine API bzw. eine Library (ist bei CUDA ein bisschen schwierig) und da werden in der Industrie sehr viele Open-Source Ansätze genutzt (Oder zumindest lieber offene Standards als Properitäre). Vulkan, Protobuf, ein haufen Zeug von Google und Apache, die hälfte der offenen Libraries für Java oder Typescript, ein haufen Zeug für Python, OpenGL und sehr viele andere Libraries etc.

Abgesehen davon, dass auch Programmier-Tools oft als Open-Source rauskommen und verwendet werden. Wie z.B. CMake, Maven und Gradle. Visual Studio Code ist was nutzer angeht auch explodiert.

Gerade sowas wie CUDA wird sehr oft in offene Standards gegossen oder als Open-Source-Ansatz verfolgt und Änderungen in einem Kommitee beschlossen weil es mehrere Stakeholder gibt, die an den APIs interessiert sind und die Industrie nicht einen Gatekeeper wie Nvidia will dem sie ausgeliefert sind. Open Source ist in Industriebereichen gigantisch und absolut üblich. Gerade in der Entwicklung was genau das Feld ist wo CUDA zum Einsatz kommt.
 
CUDA lässt sich auch vollständig unter Linux nutzen, sieh F@h, sogar performanter als unter Win.
Lediglich GFE oder ein geeignetes Undervolting Tool wie der MSI AB fehlen noch derzeit für Linux, soweit mir bekannt?
Dann hätte Linux eine echte Chance als alternativ - OS, da schneller und sparsamer.

CUDA ist für mich eine optimierte Software - Schnittstelle um das Maximum aus der Hardware zu holen, ähnlich effektiv wie ein AMIGA 500 damals, AMIGA OS war auch nicht Open Source.
 
Jetzt ist Ihre Meinung gefragt zu Nvidia-CEO: "Unsere Lebensaufgabe ist es nicht, CUDA-GPUs zu bauen"
Das ist der Unterschied kleinerer Unternehmer geführter Firmen gegenüber großen Konzernen. Chancen werden erkannt und Veränderungen umgesetzt. Große Konzerne setzen viel zu oft auf tote Pferde und lassen sich mit Subventionen am Leben erhalten.

Jensen ist ein Segen für die Technikwelt, ähnlich hoch einzuschätzen wie Steve Jobs.
 
Das Meckern juckt nicht, da AMD auch keine besseren Preise hat, aber zu sagen, die Gaming Sparte sei nicht von Bedeutung ist natürlich wieder ausgemachter Unsinn. Die Zahlen sind so gut wie lange nicht mehr.
Das wird natürlich ein Standbein bleiben. Diese Sparte aufzugeben wäre extrem kurzsichtig und steht auch gar nicht zur Debatte.
Aus Umsatzsicht ist die Gaming-Sparte kein Standbein mehr, sondern eher ein Standzeh.

Der Umsatz an Gaming und OEM bei Nvidia beträgt 10%.
 
Schon lange nicht mehr? Naja, der richtige KI-Hype ging dieses Jahr erst los. Und bisher kannibalisiert sich Nvidia ja nicht, die Produkte sind "sauber" getrennt.
Davor war es halt eine lange Zeit Mining. Die fokussieren sich halt immer auf den Markt, der gerade den meisten Gewinn abwirft. Was aus wirtschaftlicher Sicht zwar Sinn macht, aber schlecht für Enthusiasten ist, die Grafikkarten für ihren eigentlich ursprünglich gedachten Zweck nutzen wollen.
 
Warum ist das wichtig? Ich mag ihm den Erfolg gönnen. Sein eigenes Unternehmen soweit zu bringen ist schon beeindruckend.

Ich frage mich eher was mittel bis langfristig mit Nvidia geschehen wird sollte Er eines Tages nicht mehr da sein.

"Er" hat gar nix so weit gebracht.
Das waren Fanboys, die seinem Marketinggesummse
auf den Leim gegangen und NV Milliarden hinterhergetragen
haben, mehr nicht....

Thats all of the "magic"

Kim Kardashian machts genauso....

Hat auch ihre Follower...
 
Cuda ist auf lange Sicht konkurrenzlos,
deshalb widmet man sich neuen Aufgaben und betreibt keinen Salamistillstand wie Intel.

So interpretiere ich es. 😏

Es sollen echte Innovationen folgen, und zwar bald und für jeden!!!

Diese Open Source Initiative von Intel ist de facto eine Bankrott Erklärung.
 
Aus Umsatzsicht ist die Gaming-Sparte kein Standbein mehr, sondern eher ein Standzeh.

Der Umsatz an Gaming und OEM bei Nvidia beträgt 10%.
Das ist sicherlich richtig, aber es ist eine relativ sichere Bank. Andere Themen wie Mining oder KI sind schwer abschätzbar und können ein riesiger Markt werden oder durch gesetzliche Restriktionen ganz schnell wegfallen. Ein sicheres Geschäft wie die Gamingsparte, in der man quasi nur Cashcows hat, nimmt man mit. Warum sollte man das fallen lassen? Der Markt wird vermutlich nicht expandieren, aber der Umfang ist ordentlich. Solange also der MAakt nicht von anderen Herstellern übernommen wird, melkt man, was geht.

Ein Problem wird es natürlich, wenn ein neuer Markt wie KI "explodiert" und man nicht schnell genug Fertigungskapazitäten bekommt und umschichtet. Dann kann es den Gamingkarten schnell an den Kragen gehen. Und sollte Nvidia z.B. Speicherchipmangel haben, dann können 12GB Karten durchaus möglich sein, um mehr Chips für professionelle und KI-Karten zu haben.
 
Zuletzt bearbeitet:
Wenn Di so unrentabel oder die Umsätze Peanuts sind, sollen die doch die Gaminsparte abstossen?
Na dämmert da was, also ist es immer noch mehr als lukrativ die Gamingsparte....
 
Ohne Gaming mit der ungeheuren Pixelsucht, ergo Produktionsexpansion wäre Mining und KI niemals über den Visionsstatus gekommen.

PR ist wichtiger als Inhalte, leider.
 
Ja schon leider ist man nicht auf die klassische Pixel Berechnung geblieben. Also nicht raytracing sondern die klassische wie man es ja gewohnt war. Ich frage mich immer noch ob es diese Art der Berechnung nicht doch möglich gewesen wäre. Klar wären die Sprünge kleiner geworden aber sie wären nach wie vor vorhanden gewesen.
Also hat nvidia da teilweise gelogen gehabt. Sie hätten mit Tricks durchaus in dieser richtung was schaffen können.
Aber gut, es scheitert halt an dem Willen mehr nicht.
 
Zurück