Nvidia-Aktie: Kurs seit Oktober mehr als halbiert

Das sieht nicht rosig aus fürs Nvidia, was ich sehr begrüße aufgrund ihrer Preispolitik!

Der beste Zeitpunk für starken Umsatz (Gamer) ist/war Weihnachten/ Cyberweek und ist somit beendet. Sollten die Preise nicht fallen, werden das demnächst schlechte Zeiten für Nvidia.
 
Geht es hierbei nicht eher um mögliche Anwendungsfälle von Deep Learning Technologien/Algorithmen im Allgemeinen? DLSS ist doch imo nur im Gaming Context bisher aufgetaucht...(?) Und anscheinend versprechen sich hierdurch einige Unternehmen durchaus positive Effekte:
Deep Learning in Medicine | NVIDIA

Du tust ja gerade so, als ob nur noch irgendein ein DL-Algorithmus über das Wohl und Weh eines Patienten entscheiden soll... (zumal das hier ziemlich OT ist)

Da hast du mich falsch verstanden. Der Algorithmus entscheidet nicht über Wohl und Wehe - die Idioten, die den Algo auf die Bilder loslassen haben entschieden.
Deep Learning hat aktuell noch so unglaublich viele Probleme und ist mehr oder minder vollkommen am Ziel vorbei.
Wenn du mehr lesen willst, schau in die letzten c't Ausgaben.

Edit:
ich habe inzwischen eine 2080 verbaut, hab für die 1080 nen sehr gutes Angebot bekommen. Ich überlege auch schon ne weile ob ich weiterhin Nvidia treu bleiben werde. Eigentlich interssiert mich eine Vega 64 und nen toller 32" Monitor mit Freesync extrem stark. Das Problem ist einfach das der Wertverlust das ganze halt wieder zu einer echt miesen Sache macht. Mein G-Sync Monitor würde derzeit maximal 350€ bringen wenn überhaupt und die 2080 muss man wenn sie paar Tage alt ist schon fast für 600€ anbieten. Man könnte zwar für deutlich weniger als 900€ eine Vega Kombi kaufen die auch nicht extrem viel schlechter ist, aber der Wertverlust bleibt halt bestehen.

Der Kopf ist hier eher das Problem als da Geld :D

Wenn du nicht bereit bist, deine Investitionen komplett abzuschreiben, solltest du niemals in High End Hardware investieren.
Allerspätestens die nächste Generation macht die aktuelle obsolet.
Mit dem aktuellen Stand von RTX wird Nvidia sicher nicht 2 Jahre warten, um 7nm Varianten zu veröffentlichen.

Ich habe bis jetzt nicht eine einzige Karte weiterverkauft. Die sind alle bei Freunden, oder in der Familie gelandet, wo sie gebraucht wurden.
Der eine, oder andre hat drauf bestanden, mir Geld dafür zu geben.. dann gingen die Karten eben für 10€ an den / die betroffene/n.

Freesync wird bei mir Einzug halten, wenn meine aktuellen Displays abrauchen - bzw. mein Hauptmonitor.
Also so in 4-5 Jahren mal.
Das hat zusätzlich den Charme, dass ich in den nächsten Generationen nicht im High End kaufen muss, sondern gemütlich im Bereich von €200-350 bleiben kann.
Was ja vor kurzem noch deutlich am unteren Rand des High End Segments gekratzt hat.
Sofern sich in dem Preisbereich weiter so wenig in der Performance tut, wird sich keiner der beiden Großen über Geld von mir freuen. Da reicht die R9 290 dann noch 1-2 Jahre mehr.
 
Zuletzt bearbeitet:
Wenn du nicht bereit bist, deine Investitionen komplett abzuschreiben, solltest du niemals in High End Hardware investieren.

das weis ich, ich verstehe allerdings nicht warum du mich diesbezüglich zitierst da ich das nie behauptet habe und du mir vermutlich etwas unterstellen möchtest.

Allerspätestens die nächste Generation macht die aktuelle obsolet.

das ist nicht unbedingt der Fall, man sieht es auch immer öfter das diese Aussage eben doch nicht stimmt

Mit dem aktuellen Stand von RTX wird Nvidia sicher nicht 2 Jahre warten, um 7nm Varianten zu veröffentlichen.

Da täuscht sich aber jemand. RTX steht keinesfalls schlecht da. RTX wird nur ( zum großteil wegen den preises) von der Community deutlich schlechter gemacht als es ist.

Ich habe bis jetzt nicht eine einzige Karte weiterverkauft. Die sind alle bei Freunden, oder in der Familie gelandet, wo sie gebraucht wurden.
Der eine, oder andre hat drauf bestanden, mir Geld dafür zu geben.. dann gingen die Karten eben für 10€ an den / die betroffene/n.

In meiner Familie ist egal wie weit ich gehe keiner interessiert an Technik und PC und auch keiner würde eine Karte von mir bekommen wollen weil er damit nichts anzufangen wüsste. Das mag für einen Fall toll sein ist aber keinesfalls als eine echte Alterantive zu werten. Selbst ich als absoluter PC Freak sener zeit der immer mal wieder das neuste haben muss obwohl er es nicht brauch überlege inzwischen was das eigentlich soll.

Das sieht nicht rosig aus fürs Nvidia, was ich sehr begrüße aufgrund ihrer Preispolitik!

Der beste Zeitpunk für starken Umsatz (Gamer) ist/war Weihnachten/ Cyberweek und ist somit beendet. Sollten die Preise nicht fallen, werden das demnächst schlechte Zeiten für Nvidia.

Das ist totaler Quatsch was du da geschrieben hast, schade das du es nicht selbst gemerkt hast. Ich hoffe nur du bist nicht 100% davon überzeugt das du recht hast.
 
Verstehe ich auch nicht, wenn man das Geld hat ist für 10 Euro der Verwandtschaft schenken ja ganz nett, wenn ich die Karte aber stattdessen für 300Euro bei eBay verkaufen kann und die mir einen Monat meinen Mietanteil bezahlt mach ich doch lieber das. Ich hab auch schon ne GTX560 oder ähnliches verschenkt, aber Karten die sich vom Wert noch im dreistelligen Bereich befinden, nein danke.
Das mit der nächsten Generation trifft auch nicht immer zu, wie man an Pascal->Turing sieht. Habe nicht das Gefühl das meine 1080 groß im Preis gerutscht ist, und wirklich Mehrleistung fürs selbe Geld würde ich auch nicht bekommen.
 
@Rollora

Die Frage ist doch eher warum du bei dem Vorsprung dann im September Aktien abgestoßen hast.
Naja das hatte 2 Gründe.

Erstens habe ich mit den AMD und Nvidia Aktien völlig überraschend alle meine Kredite abzahlen können (ich habe vor einigen Jahren begonnen mehrere Wohnungen zu kaufen). Und zum anderen war ja auch ersichtlich, dass der Kurs in nächster Zeit nicht steigen würde (alter Prozess, keine große Steigerung, Ende des Mining-Booms) und somit das Geld nur rumsitzt, im worst case an Wert verliert.
Aber für mich war der erste Grund der entscheidende: ich bin kein gieriger Mensch. Klar hätte ich das Geld weiter in andere Aktien investieren können, aber mir war lieber ein schulden und sorgenfreies Leben zu haben - 20 Jahre früher als geplant (so lange wären die Kredite noch gelaufen).
 
das weis ich, ich verstehe allerdings nicht warum du mich diesbezüglich zitierst da ich das nie behauptet habe und du mir vermutlich etwas unterstellen möchtest.
Dann lies nochmal deinen Post und reib deine Hirnzellen an einander...
Du hast vom großen Wertverlust geredet, der dich vom Wechsel abhält.
Nu rate mal, was meinen Kommentar da wohl angestoßen hat...


Da täuscht sich aber jemand. RTX steht keinesfalls schlecht da. RTX wird nur ( zum großteil wegen den preises) von der Community deutlich schlechter gemacht als es ist.

Sorry, aber schau dir die einzelnen Karten doch mal an...
die kommende 2060 hat kaum noch RT Kerne, ist sonst nicht schneller als eine 1070 und hat weniger RAM...
Die 2070 ist em Ehesten Vergleichbar mit der 1080...

RT an sich musste in BF V schon mehrfach nochmal in der Qualität reduziert werden, damit es inzwischen halbwegs anständig läuft...

Alles in allem: Viel zu wenige RT Kerne, vollkommen zu viele Tensor Kerne auf den Chips, da letztere für den Endnutzer nahezu keinen Mehrwert bieten - wie die Qualitätsprobleme bei DLSS zeigen.

In meiner Familie ist egal wie weit ich gehe keiner interessiert an Technik und PC und auch keiner würde eine Karte von mir bekommen wollen weil er damit nichts anzufangen wüsste. Das mag für einen Fall toll sein ist aber keinesfalls als eine echte Alterantive zu werten. Selbst ich als absoluter PC Freak sener zeit der immer mal wieder das neuste haben muss obwohl er es nicht brauch überlege inzwischen was das eigentlich soll.

Hab ich irgendwo geschrieben, dass es meine Familie interessiert, was ich da kaufe?
Nein.
Ich habe nur geschrieben, dass ich KEINE EINZIGE Karte gegen Geld abgegeben, sondern als Geschenk weiter gereicht hab, sobald bei mir was neues in den Rechner kam.
So wird das auch weiterhin laufen.
Wenn du dir das Geld zurückholen willst / musst ist das dein Ding.
Unterstell dann aber auch nie wieder jemandem, er / sie könne sich eine bestimmte Karte nicht leisten und würde deshalb so schlecht über sie reden.

Das ist totaler Quatsch was du da geschrieben hast, schade das du es nicht selbst gemerkt hast. Ich hoffe nur du bist nicht 100% davon überzeugt das du recht hast.

Da wär ich mal dankbar für echte Argumente... Gegenpunkte, die mir und ihm aufzeigen, weshalb es Quatsch ist - alles andere ist halt nur vollkommen belangloses "Gegenreden" deinerseits.


Edit:
Verstehe ich auch nicht, wenn man das Geld hat ist für 10 Euro der Verwandtschaft schenken ja ganz nett, wenn ich die Karte aber stattdessen für 300Euro bei eBay verkaufen kann und die mir einen Monat meinen Mietanteil bezahlt mach ich doch lieber das. Ich hab auch schon ne GTX560 oder ähnliches verschenkt, aber Karten die sich vom Wert noch im dreistelligen Bereich befinden, nein danke.
Das mit der nächsten Generation trifft auch nicht immer zu, wie man an Pascal->Turing sieht. Habe nicht das Gefühl das meine 1080 groß im Preis gerutscht ist, und wirklich Mehrleistung fürs selbe Geld würde ich auch nicht bekommen.

Dagegen sag ich doch nichts.
Johnny gehört nur zu den Kandidaten, die immer unterstellen, man könne sich eine teure Karte nicht leisten und würde sie deshalb schlecht reden.

Und wenn ich es so mache muss es nicht jeder genauso machen.
Ich gehöre auch nicht zu den Leuten, die ihre Karten alle 6 Monate austauschen.
Bei der letzten Karte bin ich von einer 7870 auf eine R9 290 gewechselt.
Erstere hat dann eine Freundin für ein paar € bekommen, weil sie sie nicht geschenkt nehmen wollte.
Wenn ich nach den Preisen auf eBay gehe, kann ich meine R9 290 noch immer für dreistellige Beträge verkaufen.
Allerdings halte ich das für vollkommen überbewertet und werde beim nächsten Wechsel mal wieder eine Karte verschenken.

Ich bin in der glücklichen Lage, mir alles, bis einschließlich der Titan locker leisten zu können - andererseits nutze ich meine Hardware so lange wie möglich.
Und bei meinen beiden 1200p 60 Hz Displays sind aktuelle High End Karten vollkommen übertrieben.
Daher wird die nächste Karte wieder in der €300 Klasse sein.
Mein Wunschdenken wäre natürlich, dass Navi den Leaks entspricht.
Andererseits bin ich realistisch und glaube erst mal nicht dran und warte auf die Benchmarks.
 
Zuletzt bearbeitet:
RT an sich musste in BF V schon mehrfach nochmal in der Qualität reduziert werden, damit es inzwischen halbwegs anständig läuft...

Also der Kollege hatte nicht ganz unrecht mit dem Schlechtreden. Da werden die erstbesten Schlagzeilen aufgeschnappt und in die Welt posaunt, als seien sie der Wahrheit letzter Schluss. Richtig hätte Dein Satz wie folgt lauten müssen:

"RT an sich musste in BF V schon ein mal (1 mal) in seiner Ausprägung geändert werden. In Bereichen, die zuvor mit Raytracing berechnet wurden (z.B. fallende Blätter) hat man RTX ausgeschaltet, in anderen Bereichen hingegen, die zuvor nicht mit Raytracing berechnet wurden, hat man es angeschaltet".

Fakt ist nämlich, dass die Qualität nicht reduziert wurde (und schon gar nicht mehr als einmal), sondern optimiert. Indem man Bereiche, in denen es keinen Sinn macht, vom Raytracing ausgenommen hat. Zudem wurde ein massiver Bug in der RTX Implementation gefixt, der teilweise für die sehr schlechte Performance verantwortlich war. Das hat in Summe so viel Resourcen freigeschaufelt, dass man RTX dann an Stellen einschalten konnte, wo dies zuvor nicht der Fall war. Man kann hier also in keinster Weise von einer Reduzierung der Qualität sprechen. Eher von einer Verschiebung.

Aber wie war das mit Confirmation Bias nochmal? Man liest und hört nur das, was die eigene, bereits festgezurrte Meinung bestätigt. Auf Kosten der tatsächlichen Faktenlage.

Alles in allem: Viel zu wenige RT Kerne, vollkommen zu viele Tensor Kerne auf den Chips, da letztere für den Endnutzer nahezu keinen Mehrwert bieten - wie die Qualitätsprobleme bei DLSS zeigen.

Auf diese Aussage trifft mein Statement von oben genauso zu. Man zerreißt etwas in der Luft wegen vermeintlicher Qualitätsprobleme, ohne der Sache in der Breite gerecht zu werden. Fast schon schadenfroh. Die Fakten werden auch an dieser Stelle ausgeblendet: Zum Beispiel, dass es sich bei den gezeigten Demos in FF um eine erste Beta Implementierung von DLSS handelt, und nicht um eine fertige Fassung. Oder dass die "Qualitätsprobleme" sich auf sehr überschaubare Einzelheiten reduzieren, die den Gesamteindruck der Leistung kaum beeinträchtigen (ein paar flimmernde Linien am Horizont oder ein flimmernder Zaun, der nur aus einem bestimmten Blickwinkel flimmert). Oder man blendet komplett aus, dass bei den gezeigten Demos nur 1xDLSS zum Einsatz kam, das in dieser Ausprägung nicht auf Bildqualität sondern auf Performance ausgelegt ist. Die Qualitätsprobleme, die TAA so mit sich bringt, werden gleich komplett verschwiegen. Man könnte fast meinen, der Kritiker habe sich so gar nicht mit der Materie auseinander gesetzt. Das würde ich Dir aber natürlich nicht unterstellen.

Ich bin in der glücklichen Lage, mir alles, bis einschließlich der Titan locker leisten zu können - andererseits nutze ich meine Hardware so lange wie möglich.

Wenn mich meine fast 50-jährige Lebenserfahrung eines gelehrt hat, dann dass Leute, die wirklich Geld haben, das in der Regel nicht an die große Glocke hängen. Es mag natürlich den ein oder anderen Angeber geben, der sich gerne unsympathisch macht.

Nix für ungut.
 
Also der Kollege hatte nicht ganz unrecht mit dem Schlechtreden. Da werden die erstbesten Schlagzeilen aufgeschnappt und in die Welt posaunt, als seien sie der Wahrheit letzter Schluss. Richtig hätte Dein Satz wie folgt lauten müssen:

"RT an sich musste in BF V schon ein mal (1 mal) in seiner Ausprägung geändert werden. In Bereichen, die zuvor mit Raytracing berechnet wurden (z.B. fallende Blätter) hat man RTX ausgeschaltet, in anderen Bereichen hingegen, die zuvor nicht mit Raytracing berechnet wurden, hat man es angeschaltet".

Fakt ist nämlich, dass die Qualität nicht reduziert wurde (und schon gar nicht mehr als einmal), sondern optimiert. Indem man Bereiche, in denen es keinen Sinn macht, vom Raytracing ausgenommen hat. Zudem wurde ein massiver Bug in der RTX Implementation gefixt, der teilweise für die sehr schlechte Performance verantwortlich war. Das hat in Summe so viel Resourcen freigeschaufelt, dass man RTX dann an Stellen einschalten konnte, wo dies zuvor nicht der Fall war. Man kann hier also in keinster Weise von einer Reduzierung der Qualität sprechen. Eher von einer Verschiebung.

Aber wie war das mit Confirmation Bias nochmal? Man liest und hört nur das, was die eigene, bereits festgezurrte Meinung bestätigt. Auf Kosten der tatsächlichen Faktenlage.

Aha... Abschalten von RT in manchen Spiegelungen ist also keine Reduktion in der Qualität?
Dice hat dann noch Heatmaps gezeigt, wie sie z.B. an dem berüchtigten Straßenbahnwaggon die RT Qualität je nach Fläche unterschiedlich abstufen, um mehr Performance bei wenig Qualitätsverlust zu haben.
Im Vergleich zur Präsentation haben sie z.B. schon alle Fenster eines Gebäudes zu einer Instanz zusammen geschlossen und somit per copy&paste RT Effekte benutzt und damit Rechenpower gespart.
Dazu noch das adaptive RT.
BLätter und Partikel werden nicht mehr erfasst... was dann bei den Blättern auch zu kleinen Effektenn, wie bei screen space Reflektionen führt... Störungen in den Spiegelungen.
YAY... Quality at its best...

Und natürlich gibt es Möglichkeiten zum Optimieren - nur sollte das auch ohne Qualitätsverlust gehen...

Auf diese Aussage trifft mein Statement von oben genauso zu. Man zerreißt etwas in der Luft wegen vermeintlicher Qualitätsprobleme, ohne der Sache in der Breite gerecht zu werden. Fast schon schadenfroh. Die Fakten werden auch an dieser Stelle ausgeblendet: Zum Beispiel, dass es sich bei den gezeigten Demos in FF um eine erste Beta Implementierung von DLSS handelt, und nicht um eine fertige Fassung. Oder dass die "Qualitätsprobleme" sich auf sehr überschaubare Einzelheiten reduzieren, die den Gesamteindruck der Leistung kaum beeinträchtigen (ein paar flimmernde Linien am Horizont oder ein flimmernder Zaun, der nur aus einem bestimmten Blickwinkel flimmert). Oder man blendet komplett aus, dass bei den gezeigten Demos nur 1xDLSS zum Einsatz kam, das in dieser Ausprägung nicht auf Bildqualität sondern auf Performance ausgelegt ist. Die Qualitätsprobleme, die TAA so mit sich bringt, werden gleich komplett verschwiegen. Man könnte fast meinen, der Kritiker habe sich so gar nicht mit der Materie auseinander gesetzt. Das würde ich Dir aber natürlich nicht unterstellen.

TAA ist mir vollkommen egal, da ich nicht viel davon halte und meine Karten es auch nicht so performant darstellen können.
DLSS wurde eben als "It just works" angepriesen - genau wie RT... Entsprechend muss man sich auch daran messen lassen.
Und diesem Anspruch wird weder DLSS, noch RT gerecht.

Den Qualitätsverlust sieht man nicht nur in FF XV, sondern auch in Nvidias eigener Infiltrator Demo.
Bei letzterer fällt es nicht so sehr auf, weil die ganze Szenerie viel dunkler ist.
Bitte schau dir das Video von Gamers Nexus an.

Da werden Probleme bei TAA durchaus genannt - nur sind die von DLSS deutlich massiver:

YouTube

Wenn ich flimmernde Zäune, Stromleitungen und gar ganze Baukräne will, kann ich das auch gleich aus lassen.
Im Hintergrund werden oft Details in der Landschaft und bei dem Grünzeug weggelassen - man sieht es nicht unbedingt bewusst, aber es macht den ganzen Hintergrund unscharf und matschig - wie im Video auch vor dem Reinzoomen zu sehen ist.

Neuronale Netze und KI Bearbeitungen sind eben doch deutlich schwerer richtig hinzubekommen, als man oft Glauben machen will.

Wie schon mehrfach in den verschiedenen Diskussionen von mir gesagt:
RT ist und bleibt eine super Technik.
Leider fehlt es hier noch deutlich an Rechenpower, um es vernünftig - und vor allem in mehr als einem Aspekt gleichzeitig - in ein Spiel zu implementieren.
Und so lange das nicht selbst bei Karten der €200 Klasse reibungslos funktioniert, wird RT ein Nischen-Feature bleiben.

DLSS krankt noch dran, dass es laut Digital Foundry Analyse noch nicht besser aussieht, als 1800p nativ - bei gleicher Performance.
Die Jungs sind eigentlich dicke Fans von den RTX Karten - wie sie in einem Video direkt nach dem Release Event deutlich gemacht haben.


Wenn mich meine fast 50-jährige Lebenserfahrung eines gelehrt hat, dann dass Leute, die wirklich Geld haben, das in der Regel nicht an die große Glocke hängen. Es mag natürlich den ein oder anderen Angeber geben, der sich gerne unsympathisch macht.

Nix für ungut.

Immerhin hat dich die Lebenserfahrung nicht davor bewahrt, den einen Post aus dem Kontext gerissen zu betrachten. Schau meine anderen Posts an und du siehst, wie ich mehr drauf eingehe, dass jeder machen will, was er soll.. so lange er andren nicht vorwirft, einfach zu arm zu sein, um sich eine Karte zu kaufen.
Johnny und ein paar andere gehören eben zu denen, die in den bisherigen Diskussionen mit folgender Einstellung von sich Reden machen: Wenn du die Karte nicht magst, kannst du sie dir einfach nicht leisten.
Das geht mir eben gehörig auf den Zeiger.
 
@Khabarak

Du reitest halt weiter auf Dingen herum, die man noch als Beta Test bezeichnen muss. Wer sagt Dir, dass die von Dir bemängelten DLSS Probleme nicht noch gefixt werden können? Es wurde beim Release des FF DLSS Patches dick und fett darauf hingewiesen, dass es sich um eine noch nicht fehlerbereinigte Beta handelt. Aus diesem Zustand abzuleiten, es handele sich dabei um etwas, woran sich nVidia "messen lassen müsse" wird der Sache nicht gerecht. Es bescheinigt Dir höchstens eine gewisse Ignoranz. Ich denke, das weißt Du auch. Oder Du blendest die Fakten weiterhin aus. Mag auch sein.

Auch die Aussage, DLSS sähe nicht mal so gut aus, wie 1080p, ist - mit Verlaub - eine völlig absurde Aussage. Dabei ist es mir auch völlig wumpe, was irgend eine Digital Foundry da "analysiert" - Es reicht ein Blick auf die Videos, bei denen nativ 4K und 4K DLSS nebeneinander gehalten werden, um festzustellen, dass man - insbesondere im bewegten Bild - quasi keine Unterschiede zum nativen 4K feststellen kann - bis auf die bereits erwähnten Schwächen. In Teilen ist 4K DLSS sogar sauberer und detailreicher als natives 4K mit TAA. So jedenfalls mein persönlicher Eindruck, nachdem ich mir die Videos auf einem 4K Monitor angesehen habe. Pixel-Pieperei am Standbild oder Reinzoomen ist Banane (wer zoomz beim Gameplay rein?). Es geht ums bewegte Bild, um nichts anderes.

Was Du in der ganzen Diskussion zudem komplett außen vorlässt, ist die Tatsache (!), das DLSS - zumindest in der Ausführung 1xDLSS - nicht dafür da ist, das Bild schöner zu machen oder qualitativ hochwertiger, sondern schlicht und ergreifend um die Performance im Vergleich zu nativen 4K mit TAA zu erhöhen. Es geht also nicht um hübsch, sondern um schnell. Hübsch kriegst Du mit 2xDLSS, aber dafür dürfte die Performance der aktuellen Generation nicht ausreichen.

Was Deinen Eindruck hinsichtlich KI und Machine Learning im Allgemeinen betrifft, so empfehle ich Dir, Dich mal mit KI-gestützter Grafik abseits vom Gaming zu beschäftigen. Also im professionellen Umfeld. Mal ein Beispiel: Man ist heute in der Lage, aus einem 30 FPS Video eine 240 FPS Superzeitlupe zu errechnen, ohne dass Du auch nur im Ansatz einen Unterschied zur real gefilmten Superzeitlupe erkennen würdest. KI errechnet hier also 210 Zwischenframes, die so realistisch aussehen, dass Du den "Fake" nicht mehr erkennen kannst. Das ist nur ein Beispiel.

KI-gestützte Techniken wie DLSS sind in letzter Konsequenz eine strategische Notwendigkeit für die Hersteller, da sich in ein paar wenigen Jahren schon keine weiteren Performance Zuwächse mehr aus Silizium herauskitzlen lassen werden. Ich bin gespannt, was AMD dem in Zukunft entgegen zu setzen hat. nVidia ist bereits positioniert.
 

Ich mach es kurz und schmerzlos für dich.
Deine Ausführungen in allen Ehren, aber das ist echt tldr und definitiv deutlich mehr, als diese Features verdienen.

Btw. Ich schrieb 1800p... und das mit Absicht. 1080p erwähne ich bei DLSS nicht ein einziges Mal.

1) wozu brauch ich DLSS 1x, wenn es genauso gut aussieht, wie 1800p mit der gleichen Performance?
Dann wähl ich doch einfach 1800p im Menü...

2) Nvidias KI trainiert seit Monaten auf Dicken Supervomputern, um DLSS 1x in Ff XV einzusetzen. Die Skalierungsdetails etc. Sind doch laut Nvidia alle vorberechnet und als kleine Datei im RTX Treiber enthalten.

3) Das heißt also, Nvidia hat diverse hundert kWh (wohl eher ein paar 1000) verbraten, nur um bei einer Qualität und Performance von 1800p zu landen... Yay... Fortschritt...

4)Ob es Beta Implementierungen sind, ist mir vollkommen Latte.
Jensen himself hat knapp 2 Stunden darüber lamentiert, wie einfach die Implementierung doch sei und "it just works".
Daran wird er eben gemessen.
Und dem wird er schlicht nicht gerecht.

5) KI gestützte Grafik ist keine Notwendigkeit, weil sie aktuell noch viel zu viel Rechenleistung braucht.
All die Demos sind schön und gut, aber ohne das richtige Training ist das alles nichts wert - und das dauert lange und ist sehr fehleranfällig.
Daher auch mein Hinweis auf die c't Artikel.
Und bis Silizium am Ende ist, vergehen noch diverse Jahre.
Bis dahin ist die heutige, sehr fehleranfällige KI bzw. Die neuronalen Netze schon durch einen besseren Ansatz ersetzt.
Dazu gab es vor kurzem auch Artikel und einen Vortrag.
Im Grunde kann man die heutige Struktur und Hardware für neuronale Netze eher wegwerfen, denn der neue Ansatz ist deutlich näher an der aktuellen Hirnforschung, während die aktuelle Version auf den Daten der Hirnforschung aus den 1960ern basiert...
 
Zurück