Nvidia-Aktie: Kurs seit Oktober mehr als halbiert

Also ich finde der Vergleich hinkt, wenn man sagt die 2080ti ist 80- 100% schneller als die 1080ti während die 1080ti in 4K rendert und die 2080ti und FHD oder so.
Das Konsolen-ähnliche hochskalieren der Grafik trifft so überhaupt nicht meinen Geschmack.
Wenn sie es Iwan mal schaffen von Haus aus jedes Spiel zu unterstützen ohne Training in der Serverfarm, also wirklich in Echtzeit dann wäre es was anderes

Also erstens rendert die 2080 ti in diesem Fall in WQHD, nicht Full HD. Das Resultat wird mit 64-fachem Supersampling auf 4K hochgerechnet. Das Ganze wird mit Machine Learning trainiert. Du siehst faktisch keinen Unterschied zum original 4K Bild. Es gibt noch ein paar Glitches (flackernde Linien in bestimmten Szenen, z.B.), aber nichts ist perfekt. TAA macht das Bild unscharf.

Mit "konsolen-ähnlichem hochskalieren der Grafik" hat das wenig bis nichts zu tun.
 
Also erstens rendert die 2080 ti in diesem Fall in WQHD, nicht Full HD. Das Resultat wird mit 64-fachem Supersampling auf 4K hochgerechnet. Das Ganze wird mit Machine Learning trainiert. Du siehst faktisch keinen Unterschied zum original 4K Bild. Es gibt noch ein paar Glitches (flackernde Linien in bestimmten Szenen, z.B.), aber nichts ist perfekt. TAA macht das Bild unscharf.

Mit "konsolen-ähnlichem hochskalieren der Grafik" hat das wenig bis nichts zu tun.

Ganz interessant und passt in diese Diskussion

Nvidia DLSS in Final Fantasy XV im Test - ComputerBase
 
Nvidia hat dies Jahr soviel falsch gemacht und es gab bis auf den fallenden Aktienkurs noch keine Reaktionen die Nvidia gespürt hat. Für den Anfang wäre es gut wenn der Kurs so weit fällt das Lederjacke seinen Posten verliert und gefeuert wird .
Die Technick die sie entwickeln und auf den Markt bringen sind ja gut,aber ihr Verhalten den Mitbewerbern und Partnern gegenüber geht gar nicht .
 
Ein Vergleich von Vorgänger zum aktuellen Produkt wird NIEMALS Sinn machen.

nVidia ist doch schon seit Jahren dafür bekannt, das optimierte Treiber dann nur für die aktuelle Generation kommen.
Unterstützt werden die "alten" natürlich noch.

Aber jetzt von 80% Mehrleistung zu sprechen ist schon mehr als Wunschdenken.

Man muss seinen (Fehl-)Kauf auch nicht gegenüber der Öffentlichkeit rechtfertigen.
Wer für die geringe Mehrleistung nen Haufen Geld bezahlt, wollte das so und das is auch gut so.

Der Fortschritt (RT) muss schließlich bezahlt werden.

Ich war in den Jüngeren Jahren auch immer dabei, bei höher, schneller, weiter ...

Mittlerweile hab ich begriffen, das die Endkunden nur die Lemminge der Hersteller sind.
Generell sollte man sich hinterfragen, wie oft, und wie intensiv man "spielen" will.
Die paar Prozent 4k´ler, dürfen dann auch die Preise bezahlen, die sie haben wollen.

Der Massenmarkt ist das nicht.

Die Masse ist bis 350 €uro ...
jedoch hat dort, die PR Einflussnahme durch den Marktführer schon ihre Früchte getragen.

Nehmt es mir nicht übel ... aber für 99% würde eine 1060/RX 580 + Sync Monitor weit mehr Spielgefühl bringen, als RTX 2080(ti) + 4k + RT + Sync

Ne Runde Lemmings zur Besinnung, wäre für einige vielleicht monatlich oder sogar wöchentlich, ein Teil zum Nachdenken.

Bestenfalls sollte man bei jedem Neukauf, den Hersteller wechseln ...

Und ja!!! Auch mit einer Vega kann man zocken!
 
Oder man ärgert sich einfach, dass einem die Karten zu teuer sind. Das muss man dann auch irgendwie rechtfertigen. Sachlich ist eine solche Argumentation wenigstens nicht.

Was für mich so ziemlich der einzige Grund ist warum ich nicht kaufen werde.
Ich hab mir für meine gtx 1080 schon hart auf die Lippe beissen müssen um einen derart verschwenderischen Kauf mit meinem Gewissen zu vereinbaren.
Jetzt, mal eben so, den Preis nochmal um gefühlte 100% Aufpreis zu steigern, so soll man denn da hinkommen?

Und wenn damit zu rechnen ist, dass die Preise noch in absehbarer Zeit wieder um die Hälfte abfallen, dann wäre man schön blöd gewesen in der derzeitigen Blase so eine Karte gekauft zu haben.:rollen:
 
Aber jetzt von 80% Mehrleistung zu sprechen ist schon mehr als Wunschdenken.

Siehe FF, 2080ti mit DLSS vs. 1080ti TAA. 80%.

Der Massenmarkt ist das nicht.

Das hat auch niemand behauptet. Das waren die Karten am oberen Ende des Prduktportfolios noch nie.

Gleiches gilt für die turbogeladenen 6-Zylinder Modelle von [insert favorite car maker], 65 Zoll OLED Flachbildglotzen, und so weiter.

Nehmt es mir nicht übel ... aber für 99% würde eine 1060/RX 580 + Sync Monitor weit mehr Spielgefühl bringen, als RTX 2080(ti) + 4k + RT + Sync

Sagt jemand, der noch nie selbst mit der Kombi "RTX 2080(ti) + 4k + RT + Sync" gespielt hat. Das verleiht einer solchen Aussage natürlich unheimlich viel Gewicht :P

Man kann von sich selbst auf andere schließen. Sollte man aber nicht.
 
Auf der 1080 ti war TAA eingeschaltet, auf der 2080 ti DLSS. Alle anderen Settings gleich. Vorsprung der 2080 ti etwa 80% ggü. der 1080 ti. Stellenweise war die 2080 ti auch 100% drüber. Bei quasi nicht unterscheidbarer Bildqualität (es gibt noch ein paar Glitches).



Das muss jeder für sich selbst entscheiden. Niemand zwingt Dich. Man kann aber auch stur alle Fakten ausblenden, überlesen und leugnen, um den eigenen Bias zu bestätigen. Die durschnittlichen 35% sind nämlich nur die halbe Wahrheit.

DLSS ist eine Schlüsseltechnologie für nVidia. Das Moorsche Gesetz ist längst überholt. Aus Silizium lässt sich immer weniger Performance rauskitzeln, spätestens beim 5 nm Prozess ist dann irgendwann mal schluss. nVidia lässt sich hier andere Methoden einfallen, um die Performance zu erhöhen, und das ist ihnen mit DLSS eindrucksvoll gelungen. Damit ist die 2080 ti wie bescrhieben etwa 80% schneller als die 1080 ti. Das kann man ignorieren oder von mir aus auch leugnen. Ändert aber nichts an den Tatsachen.

Zu behaupten, dass RT der einzige Kaufgrund für die Turing Karten sei, zeugt davon, dass man sich entweder nicht ausreichend oder nicht unvoreingenommen mit der Materie auseinandergesetzt hat. Oder man ärgert sich einfach, dass einem die Karten zu teuer sind. Das muss man dann auch irgendwie rechtfertigen. Sachlich ist eine solche Argumentation wenigstens nicht.

Gut das Nvidia mich (noch?) nicht zum Kauf zwingen kann... ;)

DLSS alleine ist für mich kein Kaufgrund, vor allem weil es mich im Vergleich zu bisherigen "Bildverbesserern" nicht übermässig überzeugt.
Mehr FPS am Ende ja, aber zu welchem Preis?
Und das ständige "Big brother is watching you" ist auch nicht so mein Fall mit Nvidia experience...

Ja, die Karten sind zu teuer, aber nicht weil ich sie mir nicht leisten kann, sondern weil ich das "Nividia-Spiel" in dieser Art nicht (weiterhin) mitmachen, oder unterstützen werde. :nene:
Könnte mir auch sofort 2 Titan für 5300€ holen, ohne das meine Bank anruft, aber der "gesunde" Menschenverstand schiebt solchen niederen Instinkten ( :sabber: ) einen Riegel vor... :D

mfg
 

"Allerdings kann DLSS nicht darüber hinwegtäuschen, dass die native Auflösung reduziert wird. Und das bringt zwei Nachteile mit sich. Der erste betrifft den Detailgrad der Darstellung, denn während manche Oberflächen mit DLSS zwar schärfer aussehen, wirken andere aufgrund der geringeren Auflösung zugleich weniger detailliert.

Danke!
Schärfe und Detailgrad sind zwei paar Schuhe, und eine (geringere) nicht native Auflösung auf einem Monitor sieht natürlich immer unschärfer, evtl. auch detailärmer aus, als wenn der Monitor mit "seiner" Auflösung betrieben wird.

mfg
 
Also erstens rendert die 2080 ti in diesem Fall in WQHD, nicht Full HD. Das Resultat wird mit 64-fachem Supersampling auf 4K hochgerechnet. Das Ganze wird mit Machine Learning trainiert. Du siehst faktisch keinen Unterschied zum original 4K Bild. Es gibt noch ein paar Glitches (flackernde Linien in bestimmten Szenen, z.B.), aber nichts ist perfekt. TAA macht das Bild unscharf.

Mit "konsolen-ähnlichem hochskalieren der Grafik" hat das wenig bis nichts zu tun.

Mhm... Laut Gamers Nexus schafft es DLSS sogar, komplette Baukräne zum Flimmern zu bringen... von Zäunen und Stromleitungen mal ganz zu schweigen:
YouTube

Nette Idee, leider eine 4- in der Auführung.
 
Schärfe und Detailgrad sind zwei paar Schuhe, und eine (geringere) nicht native Auflösung auf einem Monitor sieht natürlich immer unschärfer, evtl. auch detailärmer aus, als wenn der Monitor mit "seiner" Auflösung betrieben wird.

Man sollte schon den ganzen Text lesen bzw. zitieren. Daraus geht nämlich hervor, dass der Detailgrad an manchen Stellen höher ist, als bei 4K TAA. Laut dem Text ist TAA bei mittleren bis hohen Entfernungen detailreicher, DLSS in nahen Entfernungen. Dafür macht TAA das komplett Bild unscharf.

Irgend einen Tod stirbt man immer.
 
Also Ende 2013 hatte AMD ne ganz neue Preisklasse mit Grafikkarten erschaffen .... weil AMD's strom-hungrigen GCN GPU's (seit Hawaii) viel zu leistungsschwach gegenüber der starken Konkurrenz von Nvidia (Kepler, Maxwell, Pascal) waren.

Damals wurde z.B. eine AMD Radeon R9 295X2 (über >400 Watt Verbrauch) für über 1'300 Euro verkauft - nur um die schnellste Grafikkarte den Fans präsentieren zu können - und jene AMD Fans, hatten dies damals auch noch bejubelt, wie toll doch AMD sei!

>>> AMD Radeon R9 295X2 im Test - PC-WELT

Heutzutage gibt es von Nvidia eine ganz neue GPU 'Turing' Architektur - die 2 ganze Generationen von AMD GCN Polaris & Vega GPU's völlig obsolete machen - weil AMD nur noch veraltete Technik (bald als 7nm Refesh / GCN Vega20 - nicht für Gamer / Radeon Instinct MI60 only oder midrange Navi 7nm) ohne bahnbrechende FEATURES, wie Tensor-Cores oder RT Cores .... und immer noch ohne CUDA Support anbieten kann. AMD sollte möglichst bald - wie Nvidia Milliarden in neue fortschrittliche GPU Features & Technologien investieren - um nicht völlig den Anschluss zu verlieren. RTG's GCN ist Tod - lang lebe CUDA 10!

Nvidia sind auch heutzutage mit fast 75% - die meistverkauften GPU's weltweit für PC Gaming - also verkauft Nvidia 5x so viele GPU's wie AMD (nur 15%) >>> Steam Hardware & Software Survey

Ausserdem bietet nur Nvidia die komplette Grafikkarten Palette an, die von low-end GTX 1060 6GB Einstiegs-Grafikkarten, über Midrange GTX 1080 8GB bis hin zu Performance GTX 1080Ti 11GB, als auch Top Enthusiasten Level RTX mittels RTX 2080Ti 11GB GDDR6 mit Raytracing, alles und somit den ganzen Markt abdecken.

Die neue Nvidia Geforce RTX 2080Ti ... bietet für 1'200 Euro (Zotac Gaming GeForce RTX 2080 Ti Twin Fan ab €'*'1138,99 (2019) | Preisvergleich Geizhals Deutschland) viel mehr Leistung, viele neue Features (RayTracing) und knapp 3x soviel Speicher wie die AMD Radeon R9 295X2 .... und ist zudem noch billiger!

Bald, in ein paar Wochen, erscheint die Geforce RTX 2060 .... jene macht dann die komplette erst kürzlich vorgestellte Polaris 3x Refresh GPU Reihe als RX590 und all dessen Vorgänger .... auch völlig überflüssig!
 
Zuletzt bearbeitet:
Die ständigen Schwanzvergleiche zwischen AMD und nVidia bringen allerdings auch niemanden weiter. Darum geht es hier doch gar nicht.
 
Ein Vergleich von Vorgänger zum aktuellen Produkt wird NIEMALS Sinn machen.

nVidia ist doch schon seit Jahren dafür bekannt, das optimierte Treiber dann nur für die aktuelle Generation kommen.
Unterstützt werden die "alten" natürlich noch.

Aber jetzt von 80% Mehrleistung zu sprechen ist schon mehr als Wunschdenken.

Man muss seinen (Fehl-)Kauf auch nicht gegenüber der Öffentlichkeit rechtfertigen.
Wer für die geringe Mehrleistung nen Haufen Geld bezahlt, wollte das so und das is auch gut so.

Der Fortschritt (RT) muss schließlich bezahlt werden.

Ich war in den Jüngeren Jahren auch immer dabei, bei höher, schneller, weiter ...

Mittlerweile hab ich begriffen, das die Endkunden nur die Lemminge der Hersteller sind.
Generell sollte man sich hinterfragen, wie oft, und wie intensiv man "spielen" will.
Die paar Prozent 4k´ler, dürfen dann auch die Preise bezahlen, die sie haben wollen.

Der Massenmarkt ist das nicht.

Die Masse ist bis 350 €uro ...
jedoch hat dort, die PR Einflussnahme durch den Marktführer schon ihre Früchte getragen.

Nehmt es mir nicht übel ... aber für 99% würde eine 1060/RX 580 + Sync Monitor weit mehr Spielgefühl bringen, als RTX 2080(ti) + 4k + RT + Sync

Ne Runde Lemmings zur Besinnung, wäre für einige vielleicht monatlich oder sogar wöchentlich, ein Teil zum Nachdenken.

Bestenfalls sollte man bei jedem Neukauf, den Hersteller wechseln ...

Und ja!!! Auch mit einer Vega kann man zocken!

Ich habe bei solchen Aussagen, wie "....wenn es dir zu teuer ist, dann kauf es halt nicht...", oder "....ist anscheinend zu teuer für dich....", immer eher das Gefühl, diese Leute wollen mich dazu animieren, bzw. meinen "Stolz" wecken, dennoch zu kaufen, damit Nvidia und deren RT/Turing Kampagne (doch) zu einem Erfolg wird, und ihre (frühe) Investition nicht umsonst war... ;)

Für die "Masse" ist 350€ zu hoch gegriffen, eine "2" muss da davor stehen, und hier reden wir noch von Spielern, bei den meisten steht eine "1"an der ersten Stelle des Preises...

mfg
 
Man sollte schon den ganzen Text lesen bzw. zitieren. Daraus geht nämlich hervor, dass der Detailgrad an manchen Stellen höher ist, als bei 4K TAA. Laut dem Text ist TAA bei mittleren bis hohen Entfernungen detailreicher, DLSS in nahen Entfernungen. Dafür macht TAA das komplett Bild unscharf.

Irgend einen Tod stirbt man immer.

Habe alles gelesen, aber wenn der Detailgrad an einigen Stellen höher und anderen niedriger ist, als mit TAA, dann ist dass (für mich) ein noch größeres Fiasko, weil das noch mehr auffällt, als wenn es gleichmäßig "mittelmäßig" ist! ;)

Wenn bei 4K TAA dadurch der Detailgrad sinkt, dann lasse ich TAA einfach weg (sollte mich das stören), oder nehme evtl. einen anderen "Bildverbesserer"! Voila!
Der Detailgrad kann nie höher sein, als nativ von der Textur/Polygonen vorgegeben...alles andere ist "Fake", bzw. eine Verfälschung der Originaldarstellung (wie auch diverse TV-Bildaufhübscher, die aber meist genau das Gegenteil bewirken...) ;)

Sorry, aber sich wegen sowas aufzuhängen, während ständig gepredigt wird, dass ohne RT alles trist und grau aussieht, ist irgendwie....

mfg
 
Zuletzt bearbeitet:
Ich denke, dass Nvidia auch nicht ewig weitermachen können wird, mit ihrem Kurs, den sie jetzt fahren, im Gegenteil, ich finde Nvidia wird bald in einer ähnlichen Situation wie Intel jetzt stecken. Deshalb muss Nvidia zwangsläufig andere Märkte erschließen.

Eine gewisse Vermutung habe ich: Es wäre durchaus möglich, dass sich Nvidia dazu entschließen wird, in den lukrativen x86 CPU Markt einzusteigen(Intel ist nicht ohne Grund in den GPU Markt eingestiegen mit massiven Summen), CPU oder GPU-only allein reißt nix mehr. Man sieht ja an AMD,welche Vorteile es hat, wenn man sowohl Grafik, als auch CPU bauen kann.

Nvidia hat auch als einer der wenigen wirklich die Mittel dazu, das Know how für konkurrenzfähige Produkte zu haben, und im Thema Marketing sind sie Intel ohnehin in nichts nach. Nehmen wir dann ohnehin noch einen großen Bekanntheitsgrad dazu und einer guten Zukunft, auch für uns Kunden, steht nichts im Wege.

Mit 3 großen Playern wird es richtig interessant, ebenso wie die neuen und bisher noch nie dagewesenen Fanboy-Kriege zwischen Intel und Nvidia^^
 
Also das was man immer an den Konsolen bemängelt bezüglich flimmern, bekommt man jetzt auch für den PC :schief:
Das muss nicht so bleiben. Während einfaches DLSS die Auflösung reduziert (wie derzeit angewendet), kann 2xDLSS die Auflösung mit zusätzlichen Pixeln erhöhen.

Derzeit nutzt man nur "einfaches" DLSS weil man vermutlich noch viel optimieren muss und alles ziemlich neu ist. Daher ist auch natives UHD+TAA nicht durch UHD+DLSS zu ersetzen, unter 2x hätte man dann vermutlich schon 5K zu bewundern, was die Karten dann kaum ausreichend schnell schaffen.

Derzeit scheint nVidia eher Geschwindigkeit, als denn noch höhere Qualität zu suchen, wobei DLSS einen höheren Schärfegrad bestimmter Texturen erzeugt. Das Ganze ist wie bei jedem Aliasing Verfahren Winkel abhängig.

1440p+ sieht auf einem nativen UHD Display einfach nicht gut aus und für WQHD oder UHD 2xDLSS+Denoising+RT hätte nVidia einfach mehr VRAM verbauen müssen. So scripten sie mal wieder hin was möglich ist.

Ich kritisere das schon seit Anfang an, nur wird das hier nicht wahrgenommen. Da wird eher BF V als Vorzeigespiel vorgehalten, wo jeder weiss - dass bei geometirelastigen Engines mit höherer Auflösung auch der Qualitätseindruck merklich steigt.
 
Zuletzt bearbeitet:
Habe alles gelesen, aber wenn der Detailgrad an einigen Stellen höher und anderen niedriger ist, als mit TAA, dann ist dass (für mich) ein noch größerers Fiasko, weil das noch mehr auffällt, als wenn es gleichmäßig "mittelmäßig" ist! ;)

Das Ding ist: Es fällt nicht wirklich auf. Du könntest Dir einfach selbst mal ein Bild machen und Dir *Videos* ansehen, die beide Varianten nebeneinander halten. Beim flüssigen Spielablauf siehst Du quasi keine Unterschiede - sieht man von den Glitches an vereinzelten Stellen ab (Flimmern von sehr dünnen Linien). Diese Glitches lassen sich sicher noch korrigieren, es handelt sich um eine Betaversion und wir haben bisher nur eine einziges Spiel, bei dem es implementiert ist.

Man muss schon sehr genau hinschauen (Pixel Peeping), um tatsächlich Unterschiede wahrzunehmen.

Man kann es auch einfach aus lassen und hat im Schnitt immer noch rund 35% mehr Performance, als eine 1080ti. DLSS ist bestimmt nicht für jeden, aber es ist eine gute Alternative und Zusatzoption. Es sei denn, man redet halt grundsätzlich immer alles schlecht. Und dazu tendieren hier doch einige Thread-Teilnehmer.
 
Man kann es auch einfach aus lassen und hat im Schnitt immer noch rund 35% mehr Performance, als eine 1080ti. DLSS ist bestimmt nicht für jeden, aber es ist eine gute Alternative und Zusatzoption. Es sei denn, man redet halt grundsätzlich immer alles schlecht. Und dazu tendieren hier doch einige Thread-Teilnehmer.
Es geht nicht darum ob es schlechtgeredet wird, es geht darum das es sich nicht um eine native Auflösung handelt (wie eingestellt und suggeriert) und "herunter scalieren" immer Qualitätsverlust bedeutet. Egal wie man den "aufpeppt".

Genau das hat nVidia auch nirgends mitgeteilt, zudem verglichen sie 2xDLSS mit UHD+TAA und rendern jetzt mit DLSS in geringerer Auflösung. Es dürfte jedem klar sein, wie das aussehen wird und das nicht native Auflösungen ersetzen wird können. So flexibel sind Displays nicht, dass sie diesen Effekt kaschieren könnten.
 
Das Ding ist: Es fällt nicht wirklich auf. Du könntest Dir einfach selbst mal ein Bild machen und Dir *Videos* ansehen, die beide Varianten nebeneinander halten. Beim flüssigen Spielablauf siehst Du quasi keine Unterschiede - sieht man von den Glitches an vereinzelten Stellen ab (Flimmern von sehr dünnen Linien). Diese Glitches lassen sich sicher noch korrigieren, es handelt sich um eine Betaversion und wir haben bisher nur eine einziges Spiel, bei dem es implementiert ist.

Man muss schon sehr genau hinschauen (Pixel Peeping), um tatsächlich Unterschiede wahrzunehmen.

Man kann es auch einfach aus lassen und hat im Schnitt immer noch rund 35% mehr Performance, als eine 1080ti. DLSS ist bestimmt nicht für jeden, aber es ist eine gute Alternative und Zusatzoption. Es sei denn, man redet halt grundsätzlich immer alles schlecht. Und dazu tendieren hier doch einige Thread-Teilnehmer.

"Schlecht" ist etwas, wenn es nicht (wesentlich) besser (oder gleich) ist. als das bereits Vorhandene, oder nur einen Kompromiss durch einen Anderen ersetzt, und dabei gleichzeitig auch noch teurer ist, entweder leistungstechnisch, qualitativ, oder preislich... ;)

Und vor allem am letzten Punkt happerts es, zumindest derzeit, noch gewaltig! ;)

Und nochmal zur Erlärung meiner Einstellung zu Turing und RT:
Ich finde die technische "Idee" dahinter gut, aber nicht das aktuelle Produkt von Nvidia, und wie sie versuchen (auch solche Preise!) dieses zu etablieren.

Keiner kauft ein teures Auto, wenn der Händler sagt: "Hey, bei dem Modell schafft der Motor nur max. Tempo 80 auf gerader Strecke, aber was solls, nächstes Jahr kommt schon das neue Modell, welches schon Tempo 100 erreicht, wenn auch dann zum doppelten Preis... ;)

mfg
 
Zurück