AW: Nvidia mit Gewinnwarnung und Kurssturz: Weihnachtsgeschäft enttäuscht
Oha... man konnte ja nicht ahnen, dass derartige Preisanstiege nicht einfach von den potenziellen Kunden hingenommen wird.. nicht wahr?
Neja, an den Preisanstiegen wird es sicherlich nicht liegen. Pascal kostete ja genausoviel und war genausoteuer.
GTX 1070 und GTX 1080 sowie Titan X unterscheiden sich preislich quasi gar nicht von RTX 2070 RTX 2080 und RTX 2080 Ti.
Es wird wohl eine Mischung aus der Miningblase, der geringen Mehrleistung aufgrund des fehlenden Shrinks sein und wohl auch daran liegen, dass Nvidia auch überbewertet war.
Prinzipiell muss man aber sagen, Nvidia geht es ausgezeichnet. Es muss ja nicht immer so fette Umsätze und Gewinne geben, wie in den letzten 1 bis 2 Jahren.
Vorher lief es ja auch schon hervorragend, aber diesen Trend konnte man dauerhaft eben einfach nicht halten.
NVidia - it Just works
Kein Wunder dass der Kurs fällt, wenn der Nachfolger der überaus erfolgreichen Pascal-Karten völlig überteuert und weniger Performant als erhofft ist. Darüber hinaus ist Raytracing kein Killerfeature, welches den Preis der aktuellen Turing-Karten rechtfertigen würde. Als Nutzer einer GTX 1070/80(ti) / Vega 56/64 würde ich jedenfalls nicht auf eine der Turing-Karten upgraden.
Es wundert mich eigentlich nicht dass die üblichen Verdächtigen sofort auf die News anspringen und ja, man muss zweifelsohne sagen, dass Nvidia für dieses Quartal einen Dämpfer erhalten hat, aber gemessen an den Umsätzen von vor 2 oder 3 Jahren sieht es immernoch hervorragend aus.
Und das liegt mit Sicherheit auch an Turing, aber aber sicherlich nicht daran, dass diese Produkte in irgendeiner Form schlecht wären.
Du kannst eben einfach nicht in jeder Generation diesen Sprung hinlegen, AMD kämpft mit diesem Problem ja schon die letzten 3 Generationen.
Schaut man sich im Vergleich mal die AMD Zahlen der Grafiksparte an, muss man sich über manche Kommentare hier schon wundern.
Wenn man die Börsenzahlen genauer anschaut, hat sich ihr Netto- Gewinn von 30% auf fast 23% des Umsatzes verringert. Natürlich war die Marge bei Pascal hoch, aber dennoch zeigt das, dass Turing-Karten deutlich teurer in der Produktion sind. Es gibt zu viele verschiedene Masken, die Chips sind riesig etc.
Das wollten die Nörgler eben in den vielen Turing Threads nicht einsehen. Es wird durchaus etwas für den Preis geboten, wenn der Netto Gewinn um 7% fällt und somit auch die Margen.
Das heißt ja nicht dass man es kaufen muss.
Soviel also dazu die Turing Preise wären viel zu hoch.
Sind sie ganz offensichtlich nicht, genausowenig wie AMDs´ Radeon 7.
Die Preise passen ergo schon in etwa.
Die beste nVidia News seit langem für uns, denn genau dass ist das einzige was solche Firmen zum umdenken bewegt, Geld
Umdenken zu genau was? Wenn die Margen sinken, dann bedeutet es, dass die Hersteller die Preise mit 7nm noch weiter anziehen werden.
Oder eben diesen Einbruch des Gewinns bei 7nm durch höhere Margen korrigieren werden.
Preise, Defekte, wenig Mehrleistung (meiner Titan Xp gegenüber, siehe Speicher 2080Ti und Titan) und fehlende Implentierung von Features machen die 2080Ti für mich unattraktiv und ich könnte mir vorstellen, dass das anderen Leuten in verschiedenen Preisklassen ähnlich ergeht.
Genau das passiert eben, wenn man Produkte am Rande der Wirtschaftlichkeit baut.
Genau das wollen Gamer doch eigentlich - Fortschritt. Ob jetzt die Chips dicker werden, oder ob die neue Fertigung mehr Platz schafft - wayne.
Da war Nvidia und auch eine Wenigkeit zu gutgläubig und haben wohl die User einfach unterschätzt.
Mit der neuen Generation hätte man somit auch auf 7nm warten können, offenbar schätzen die User keine Weiterentwicklung am Rande der Wirtschaftlichkeit.
So dürfte es auch AMD mit ihrer Radeon 7 für stolze 700 Euro ergehen.
Dass nVidia jetzt mit vielen Problemen zu kämpfen hat im Bezug auf die Turing Karten ist eigentlich Selbstverschulden.
Es ist einfach der Umstand der Stagnation. Jede weitere Steigerung der Performance wird schwieriger und kostspieliger.
Und Nvidia ist hier wohl einfach an ein natürliches Limit gestoßen und sie suchen mit Raytracing wohl jetzt einen mittelfristigen Ausweg um die Käufe anzukurbeln.
Dafür braucht es aber auch Software und da stockt es zu stark.
Sie hätten einen kleineren, kostengünstigeren Chip ohne HTC-Kramm erst in 7nm speziell für die Gamer herausbringen sollen. Das alles ist nicht nur dem Ende des Miningbooms geschuldet. Das war astreine Fehleinschätzung des Marktes. Nvidia könnte richtig Ärger mit den Aktionären kriegen.
Das kann schon sein. Nur ist mir als User der Gewinn eines Unternehmens eigentlich ziemlich egal. Ich bin dafür neue Tech früher zu bringen, auch wenn der arme Huang dann ein bisschen weniger an seine Aktionäre ausschütten kann. Ich bin der Ansicht, Nvidia verdient noch gut genug.
Wenn sie etwas Leistungsfähigere Karten gebracht hätten ohne den bisher (flächendeckend) noch unbrauchbaren RT gedöns, das hätte besser geklappt. Zumal der geringeren Preise...
Das muss man stark in Zweifel ziehen, denn der größte Anteil an dem gewachsenen Chip ist nicht wegen Tensor und RT Cores, sondern bei der aufgebohrten Grafikpipeline, die an vielen Punkten massiv an Breite zugelegt hat, zu suchen.
Die Tensor oder RT Cores fressen für sich alleine gesehen eher nur einen Bruchteil davon.
- RT ist noch nicht wirklich relevant. Wenn RT wirklich relevant ist, wird Turing veraltet und viel zu lahm sein.
Wie kann etwas relevant sein, wenn es erst eben eingeführt wurde?
Selbiges kann man auch zu Directx12, Async Compute, RapidPackedMath, Shadern und den unzählig anderen Features die nach und nach kommen sagen.
Es muss irgendwann einmal eingeführt werden, damit man es auch nutzen kann und Anfangs zahlen immer die Early Adopter den Aufschlag dafür.
Außerdem kauft niemand eine Karte für 1.200 € um dann nur 60 fps in FHD zu genießen.
Abgesehen von der generell schlechten Implementierung von Directx12 bei Battlefield 5, kann ich es auf ultra meistens sogar mit 100 FPS zocken.
Also 60 FPS in Full HD, vielleicht auf einer RTX 2060 oder 70.
- Tensor-Cores sind ein Abfallprodukt aus dem Deep Learning Bereich, die man dank DLSS versucht an Gamer zu verkaufen
Tensor Cores eröffnen dir ganz neue Methodiken in der Spieleentwicklung.
Zum Beispiel könnten sie die KI je nach Vorgehend es Spielers ganz individuell "trainieren".
Nein, das ist kein Abfallprodukt, sondern ein notwendiger Schritt nach vorne, auch für die Spieleindustrie und Glättungverfahren.
Man könnte es unter anderem für Haarmodelle in Spielen nutzen.
Microsoft arbeitet schon seit einigen Monaten an neuen AI basierten Haarsimulationen mit deutlich höherem Detailgrad.
“Realistic hair modeling is one of the most difficult tasks when digitizing virtual humans,” the researchers say. “In contrast to objects that are easily parameterisable, like the human face, hair spans a wide range of shape variations and can be highly complex due to its volumetric structure and level of deformability in each strand.”
“Our deep learning approach, in contrast, is highly efficient in storage and can run 1000 times faster while generating hair with 30K strands. The convolutional neural network takes the 2D orientation field of a hair image as input and generates strand features that are evenly distributed on the parameterized 2D scalp. We introduce a collision loss to synthesize more plausible hairstyles, and the visibility of each strand is also used as a weight term to improve the reconstruction accuracy.”
“The hair from our method can preserve better local details and looks more natural,” the researchers say. “Especially for curly hairs”. via
PCGamesN
- Speichermenge im Vergleich zu Pascal identisch
Das ist ein Kritikpunkt den ich genauso sehen, womöglich hätte man aber hier die Margen dann zu weit gesenkt.
Relevant wäre das trotzdem nur für Nvidia und für die Kunden wäre mehr Speicher vielleicht noch eher ein Kaufgrund gewesen.
- kein HDMI 2.1 (für mich ein riesiger Fehler)
Wegen Displayport relativ irrelevant.
- Leistungsanstieg in traditionellen Spielen für die Lange Zeit zwischen Pascal und Turing ist enttäuschend
Siehe AMD.
- Preisanstieg ist lächerlich
Nein, für die Technik ist der Preisanstieg wie man an den sinkenden Margen sieht gerechtfertigt.
Vielleicht nicht in den Köpfen der Konsumenten, aber wenn man etwas tiefer in die Thematik hineingeht, sind die Preise keinesfalls zu hoch.
==> Nvidia hat sich in eine Sackgasse gefahren. Da aber AMD seit Jahren im Dornröschen-Schlaf ist, nutzt niemand die Situation aus. Meine Hoffnung in Intel ist bei diskreten Grafikkarten auch eher mittelmäßig.
Das glaube ich nun überhaupt nicht. Diese Generation ist eher eine Brückengeneration, die aber ganz offensichtlich notwendig ist.
Unter der Haube hat sich ziemlich viel getan. Gut, der gemeine Gamer schaut nur auf die FPS und interessiert sich weniger für die Tech an sich.