Nvidia im Q3/2018: Umsatz und Gewinn explodieren mit Geforces und Teslas

Was soll man dazu sagen aber da NV im Midrange Bereich quasi keine Konkurrenz hat 1060 VS RX 580, die Mondpreise für ne RX 580 bezahle ich jedenfalls nicht denke mittlerweile an ne 1070 nur noch etwas weiter sparen :-)
 
... wenn Intel versucht eine Gaming-Compute-GPU-Architektur zu basteln, dann könnten davon durchaus auch die iGPUs ihrer Mainstream-APUs profitieren...

INTEL hat zu 100% sicher kein Interesse, eine "Gaming-Compute-GPU-Architektur" zu basteln, solche Design-Fehler macht nur AMD mit ihren 300+ Watt GPU's, die alles können - aber nichts richtig!

=> siehe Hawaii (FirePRO), Polaris, Fiji und Vega (Radeon Instinct). INTEL ist sicher nicht so dumm wie AMD .... INTEL will in 3-4 Jahren eigene GPU's für HPC Supercomuting, AI & DeepLearning - und keine 30$ oder 80$ APU mit bisschen KI Features für schnödes Gaming!

siehe hier: Nvidias Chef kommentiert die Intel-AMD-Zusammenarbeit => Zeitraum für eine HighEnd GPU Entwicklung ~ 3 Jahre! Die anfallende Kosten sind hoch und der Aufwand für tausende Chip Entwickler (Engineers) ist sehr gross.

CEO Jen-Hsun Huang lies sich auf die Frage eines Analysten im Rahmen des Conference Calls bezüglich der Zusammenarbeit von Intel mit AMD und dem Weggang von Raja Koduri als Grafik-Chef von AMD zu Intel um dort neue High-End-GPUs zu entwickeln. => Quartalszahlen: Gaming bleibt Nvidias wichtigstes Zugpferd - ComputerBase

[..] first of all, Raja leaving AMD is a great loss for AMD. And it's a recognition by Intel probably that the GPU is just incredibly, incredibly important now. [..] But these processors are domain specific parallel accelerators. And they're enormously complex. They're the most complex processes built by anybody on the planet today.

So if you look at the way we do things, we plan a roadmap about five years out. It takes about three years to build a new generation and we build multiple GPUs at the same time. And on top of that, there's some 5,000 engineers working on system software and numeric libraries and solvers and compilers and graph analytics and cloud platforms and virtualization stacks in order to make this computing architecture useful to all of the people that we serve.

And then lastly, with respect to the chip that they built together, I think it goes without saying now that the energy efficiency of Pascal GeForce and the Max-Q design technology and all of the software that we created has really set a new design point for the industry. It is now possible to build a state-of-the-art gaming notebook with the most leading-edge GeForce processors and be able to deliver gaming experiences that are many times greater than a console in 4K and had that be in a laptop that's 18 millimeters thin. The combination of Pascal at Max-Q has really raised the bar. And I think that that's really the essence of it. [..]
 
Zuletzt bearbeitet:
Der Umsatz steigt auf über 2,6 Milliarden US-Dollar, der Gewinn explodiert förmlich auf 838 Millionen USD.
32% Umsatzrendite in Zeiten, in denen Geld für quasi 0% zu leihen sind. Verdammt gute Rendite, darum ist klar, warum Intel in den Markt stürmt. Vermutlich hat Nvidia übertrieben und wird sich damit langfristig das Wasser abgraben, wenn bedingt durch masslose Gewinne, Wettbewerber in den Markt drängen. Der Markt wird durch autonomes Fahren massiv wachsen.

Ob das für den Konsumenten gut ist, sei dahingestellt. Nvidiakarten machen schon Spaß, wären sie 15% billiger, würde sich Nvidia immer noch dumm und dusselig verdienen, die Wettbewerber würden aber zögern. Ob wir fünf Hersteller benötigen, die alle für bestimmte Szenarien optimiert sind, wird sich herausstellen. Im Einzelfall werden in Zukunft dann bestimmte Spile auf Nvidia sehr gut, ander bei AMD, Intel, Samsung und wer weiß wem noch gut laufen.
 
Zuletzt bearbeitet von einem Moderator:
INTEL hat sicher kein Interesse, eine "Gaming-Compute-GPU-Architektur" zu Bastel - solche Fehler macht nur AMD mit ihren 300+ Watt GPU's, die alles können - aber nichts richtig! => siehe Hawaii (FirePRO), Polaris, Fiji und Vega (Radeon Instinct). INTEL ist sicher nicht so dumm wie AMD .... INTEL will in 2-3 Jahren eigene GPU's für HPC Supercomuting, AI & DeepLearning - und keine 30$ oder 80$ APU mit bisschen KI Features für schnödes Gaming!

siehe hier: Nvidias Chef kommentiert die Intel-AMD-Zusammenarbeit => Zeitraum für eine HighEnd GPU Entwicklung ~ 3 Jahre! Die anfallende Kosten sind hoch und der Aufwand für tausende Chip Entwickler (Engineers) ist sehr gross.[..]

Ich finde du siehst das ein bisschen verkehrt:
Es mag zwar aufwändig sein eine Gaming-GPU zu entwickeln aber gerade die Quartalszahlen von Nvidia zeigen doch das Gaming der stärkste Markt ist und das nicht nur in diesem Quartal sondern in allen aufgezeigten hier seit 2 Jahren.
Gaming hat dreimal mehr Umsatz als die Datacenter also Tesla und Quadros wo hier einem die Leute vorher weiß machen wollten das dort das Geld verdient wird- Falsch beim Gaming!

Intel riecht Geld beim Gaming denn Nvidia macht es doch seit Jahren vor und diktiert auch die Preise bei den GPU´s wo Intel bei den CPU´s die Preise diktiert doch AMD mischt jetzt wieder mit im CPU-Sektor.
Alle 3, Nvidia- AMD und Intel wollen nur Geld machen und der Gaming-Sektor war und ist da lukrativ. Es hieß auch immer der PC seit tot aber ohne PC läuft keine GPU fürs Gaming und diese Firmen machen ordentlich Geld damit auch wen nes aufwändig ist eine GPU zu entwickeln aber wer hat jemals gesagt das dieses Leicht sei?
 
Wenn AMD immer weniger dezidierte Grafikkarten verkauft und somit bedeutungslos auf dem Markt wird, was anzunehmen ist, dann müsste nVidia den Laden auch mit Aktienmehrheit übernehmen können. Das Geld hätten sie vermutlich, oder aber würden es zumindest geliehen kriegen.

-> Dann hätte Intel wirklich Konkurrenz.... Möglicherweise bereitet sich Team Blau schon darauf vor mit Radja und Co ?
 
Und wenn die Karten dann verkauft werden, dann ist das ganze wohl aufgegangen.

Nach Angebot und Nachfrage wohl alles richtig gemacht.

Oder man macht einfach unheimlich viel Gewinn / Karte !!??

Wundert mich immer wieder, wie es NVidia schafft mit jahrealten Chips/Designs derartig viel Gewinn zu machen. Allein dieser Umstand verdient meinen Respekt.
Fortschritte im Bereich GPU, VRam, Anbindung, .. gibt es in meinen Augen aber trotzdem nicht von NVidia; Ausnahme evtl. G-Sync, welches aber wohl auch eher für die Kundenbindung als für die Allgemeinheit entwickelt wurde.

Mal schauen was wird, wenn Intel einsteigt mit jemandem, der einen Plan hat und Ressourcen die, im Vergleich zum vorherigen Partner, wohl sehr viel mehr sind. AMD hatte ja ATI gekauft, AMD hat das Ruder in der Hand, AMD war ein CPU-Hersteller (wobei das für Intel irgendwo auch gilt). Bin mir aber sicher, dass Kodouri (hoffentlich richtig geschrieben) hier nochmal richtig abgehen könnte (im Bereich Entwicklung und Hardware).

Gruß
Rum
 
Oder man macht einfach unheimlich viel Gewinn / Karte !!??

Wundert mich immer wieder, wie es NVidia schafft mit jahrealten Chips/Designs derartig viel Gewinn zu machen. Allein dieser Umstand verdient meinen Respekt.
Fortschritte im Bereich GPU, VRam, Anbindung, .. gibt es in meinen Augen aber trotzdem nicht von NVidia; Ausnahme evtl. G-Sync, welches aber wohl auch eher für die Kundenbindung als für die Allgemeinheit entwickelt wurde.

Mal schauen was wird, wenn Intel einsteigt mit jemandem, der einen Plan hat und Ressourcen die, im Vergleich zum vorherigen Partner, wohl sehr viel mehr sind. AMD hatte ja ATI gekauft, AMD hat das Ruder in der Hand, AMD war ein CPU-Hersteller (wobei das für Intel irgendwo auch gilt). Bin mir aber sicher, dass Kodouri (hoffentlich richtig geschrieben) hier nochmal richtig abgehen könnte (im Bereich Entwicklung und Hardware).

Gruß
Rum

Mal abgesehen von der kleinen kartellrechtlichen Sache wäre das toll, weil wir dann nicht mehr Painkillers dümmliche nVidia Werbung bzw. AMD gehate lesen müssten.

@Painkiller: du hast im letzten Post noch die unterstützenden Bilder vergesssen...
 
@Chicien

Ja 'Aktuell' ist der Gaming Markt noch der stärkste, aber nicht der mit den grössten Wachstum's Chancen! Ich denke das grösste Wachstum-Potential liegt nach wie vor im AI 'Artificial Intelligence' Computing Bereich und der wird in den nächsten Jahren weiter enorm wachsen, nicht ohne Grund gehört dieser Bereich zu den treibenden Kräften der 4. industriellen Revolution (Künstliche Intelligenz ) ....

- Alle Nvidia Gaming GPU's haben heute etwa ~1,6 Milliarden Umsatz pro Quartal => in 2025 dann evtl. eine Verdopplung auf 4 Milliarden .... also nur etwa Faktor 2x
- Artificial Intelligence (DataCenter / HPC Supercomputing, AI & DeepLearning GPU's) haben heute einen Umsatz von erst ~500 Millionen => in 2025 aber dann ggf. bereits über 10 Milliarden .... Faktor 10x - 20x

Schau Dir mal das Wachstum im DataCenter Bereich an => Q4 FY16 ~100 Mio. - - - > zu ~500 Mio. in Q3 FY18 (Faktor 5x) Das bestätigen auch zahlreiche Markt-Studien ... Artificial Intelligence = AI bringt das grosse Wachstum über Jahre !

Market for Artificial Intelligence Projected to Hit $36 Billion by 2025 | TOP500 Supercomputer Sites /// NVIDIA's Graphics Processing Story: Gaming and Beyond - Market Realist
 

Anhänge

  • DeepLearning Growth.jpg
    DeepLearning Growth.jpg
    37,7 KB · Aufrufe: 59
  • Nidia 2017 - Revenue by Segments.png
    Nidia 2017 - Revenue by Segments.png
    35,2 KB · Aufrufe: 45
  • Revenue by Segments.png
    Revenue by Segments.png
    49,1 KB · Aufrufe: 49
Zuletzt bearbeitet:
Bin echt gespannt auf Volta, in Deep Learning waren die Benchs 130% over Pascal... :D

Hoffe echt nVidia rockt es im Gaming, da die 144 Hz 4K Monitore im anmarsch sind... :D

Gesendet von meinem SM-G935F mit Tapatalk
 
INTEL hat zu 100% sicher kein Interesse, eine "Gaming-Compute-GPU-Architektur" zu basteln, solche Design-Fehler macht nur AMD mit ihren 300+ Watt GPU's, die alles können - aber nichts richtig!
(...)
Architektur, nicht einzelne Karten. Auch alle Nvidia-Architekturen der letzten Jahren sind "Gaming-Compute-GPU-Architekturen", nur hat sich Nvidia immer mehr dahin bewegt bei den aus der Architektur gezogenen Chips einen klareren Cut zwischen GPGPU und RTR zu setzen. (letzter Fall GP100 und GP102, bei GV100 und dem hypothetischen GV102 wird es wohl ähnlich oder noch hefitger aussehen. Man darf gespannt sein!
Die aktuelle Architektur von Intel ist hingegen nur bei superschmalen GPUs halbwegs brauchbar. Dass sich das nun ändern dürfte, das war das, worum es mir ging.
 
Waumr sind die Üreise überzogen? Ich meine ja, die Karten sind teuer aber AMD ruft den gleichen Preis für die gleiche Leistung auf. Also warum ist jetzt NV schuld? Oder kann NV auch etwas für dass der Dollar jetzt nicht mehr 1,35€ kostet sondern irgendwo um 1,15€ dümpelt? Bitte erläutere deine Aussage.

Preis der GTX970, dem Quasi Vorläufer der 1070, Startpreis GTX 970 350,-
GTX1070 beim Start: 480,-
Und du glaubst wirklich das diese Steigerung durch 20 Cent Verlust beim Euro zum Dollar kommen?
Und ja die karten haben mehr Leistung, aber ist das nicht normal bei einer neuen Generation?
Wenn man das daran fest macht, muss bei jeder neuen Generation der Preis steigen nach der Logik.
Nvidia kann das nur machen weil,
A: AMD zu langsam war und
B: die Preise für AMD karten und auch die Verfügbarkeit durch das Mining beim Preis in die höhe und bei Verfügung nach unten gegangen ist.
C: die Leute jede Relation verloren zu haben und diese karten dann auch noch kaufen, als sie vielleicht mal im Regal stehen zu lassen und erst mal weiter ihre 980TI zu nutzen.
Von den ehemals angegebenen UVP bei AMD Karten ist man nämlich weit entfernt.

Und das hier auch noch einige nVidia abfeiern, das sie nun dicke Kohle gemacht haben, nun dazu sage ich jetzt lieber nichts, sonst riskiere ich eine Sperrung, das ist es mir nicht wert.
 
Vielleicht solltest du mal deinen Beruf wechseln, anstatt zu erwarten, dass alles verschenkt wird ? Ich fande bereits die ~600€+ für meine Gamerock GTX 1080 preislich angemessen. Vor allem wenn man sieht, was AMD ein Jahr später abgeliefert hat. ;)
In welcher Berufssparte lässt man sich denn gerne ein Mittelklasseprodukt (die 1080 ist ja kein großer Chip, die Konfiguration ist alles andere als Highend) zu einem solchen übertriebenen Preis andrehen? Oder anders gesagt: wer zahlt den Preis eines Porsches, wenn er eigentlich nur einen Golf bekommt?
Was aber nicht heißt, dass selbst ein weiteres vor die Wand laufen Intels nicht doch gut für die Kunden sein könnte. Denn wenn Intel versucht eine Gaming-Compute-GPU-Architektur zu basteln, dann könnten davon durchaus auch die iGPUs ihrer Mainstream-APUs profitieren...

Wobei die ja schon hervorragend sind. Betrachtet man Chipgröße und Verbrauch/Effizienz ist man hier sogar deutlich vor AMD.
 
In welcher Berufssparte lässt man sich denn gerne ein Mittelklasseprodukt (die 1080 ist ja kein großer Chip, die Konfiguration ist alles andere als Highend) zu einem solchen übertriebenen Preis andrehen? Oder anders gesagt: wer zahlt den Preis eines Porsches, wenn er eigentlich nur einen Golf bekommt?

Er hat vielleicht den "Motor" eines Golfs, dafür aber letztendlich die Leistung eines Porsches. Letztendlich kann Nvidia eben diese Preise verlangen, bei AMD sind ja nun mal weder Customs verfügbar, noch überzeugt die Leistungsaufnahme (und die dadurch enstehenden deutlich höheren Temperaturen) und in Relation dazu die Leistung im Vergleich zu GP104.
 
Er hat vielleicht den "Motor" eines Golfs, dafür aber letztendlich die Leistung eines Porsches. Letztendlich kann Nvidia eben diese Preise verlangen, bei AMD sind ja nun mal weder Customs verfügbar, noch überzeugt die Leistungsaufnahme (und die dadurch enstehenden deutlich höheren Temperaturen) und in Relation dazu die Leistung im Vergleich zu GP104.
Versteh mich nicht falsch, ich bin normalerweise Bewunderer wie Effektiv und Effizient der GP 104 ist, und natürlich kann man ihn "zum Preise eines Porsches" verkaufen. Letztlich hat der Kollege aber gemeint, man solle keine Geschenke erwarten. Aber Tatsache ist, dass eine solche Karte früher ~200 € gekostet hätte.
 
Zurück