AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen
Du bist herzlich eingeladen zur Abwechslung auch mal Links zu posten statt immer nur gepostete Quellen zu kritisieren...
Inwiefern muss ich eine Gegendarstellung zu einer provokanten Zukunftsprognose bringen. Das wird sich selbst erledigen.
Selbs der Kommentar, der von dir verlinkt ist erwähnt zumindest, dass es sich um neue Techniken handelt, wenngleich er diese als Nebelkerzen abtut. Letztendlich braucht es für ein Feuer nunmal einen Funken. Oder für eine technische Wende einen Anfang. Der ist leider nicht besonders eindrucksvoll geglückt, aber auch nicht schlecht. Immerhin gibts wesentlich früher RT Spiele als gedacht. Hätte ich ehrlich gesagt vor 2030 nicht erwartet.
Du hast bemerkt dass ich die Topmodelle miteinander verglichen habe... Deren MSRP ist mehr oder weniger stabil geblieben und erst mit Turing gab es einen Massiven Anstieg. Steigende Preise sind das eine, wenn sie sich im vertretbaren Rahmen bewegen, nicht wenn sie auf einmal deutlich angehoben werden.
Hmm mit Turing gab es WIEDER einen Anstieg. Ja. Aber Sprünge gabs auch davor schon. Dann wurde halt über der xx80 Serie noch Titan eingeführt. Ein Chip der eben früher als xx80 Verkauft worden wäre, ist halt jetzt eine noch höhere Klasse geworden. Das Spiel geht, seit AMD mit GCN nicht wirklich was dagegen stellen kann. Aber auch davor gabs schon massive Preiserhöhungen (etwa mit der 5850)
YT sind nicht die einzige Wahrheit - aber es ist auch nicht automatisch falsch was dort gesagt wird eben nur weil das Medium Youtube ist und nicht das Deutsche Ärzteblatt.
Ich glaube ich habe etwas überreagiert und dafür möchte ich mich entschuldigen. Ich meine mich erinnern zu können, dass du einfach nur einen Youtube Link gepostet hast (Edit: grad gesehen, das warst gar nicht du) und das entweder kommentarlos oder nur mit dem Kommentar (im sinne vonn) "das ist die absolute Wahrheit". Und das hat mich dann gestört, denn dieser Jay ist mir immer schon mal aufgefallen als Anti Nvidia geprägt, als oberflächlich und als "Meinungsflexibel" (Fähnchen im Wind). Sagt heute dies, morgen das, hauptsache die Leute klicken drauf. Sowas stört mich. Mich stört vorallem aber der allgemeine Trend zum "Video schauen und sich berieseln lassen" statt lesen und verstehen. Damit bist jetzt nicht du gemeint, aber es fällt mir auch bei den SchülerInnen auf. Lies da mal nach, da steht was darüber - "Gibts da kein Video dazu?"
Ich hab vor allem im Nachrichtenwesen eines gelernt, wenn du von vornerein eine Quelle diskreditierst, dann ist das Voreingenommenheit und das kann böse enden.
Das stimmt natürlich.
Aber die wenigsten Youtuber geben ihre Daten an. In Tabellenform oder ähnliches. Das Medium ist schwer zitierbar (copy und paste einzelner Aussagen oder Textpassagen) und letzten Endes ist die Verarbeitung damit im Falle einer Suche auch mühsam. Einen Text scannen geht halt schneller und ist zielführender, wenn ich nicht gerade das Grafische brauche (die Darstellung wie man eine Grafikkarte einbauen kann geht natürlich besser durch ein Video, manche Dinge aber besser im Text). Ich muss ständig wissenschaftliche Arbeiten Peer-Reviewen und da würde es halt im Traum niemanden einfallen YT zu verwenden, obwohl wir in der IT arbeiten.
Auch ein Biologe würde aber wohl eher ein Paper über Bienen zitieren, als eine N24 Doku auf Youtube.
Das DLSS nicht funktioniert wie angekündigt ist wohl unbestreitbar, das es eine Enttäuschung ist ebenso.
Ich bin mir nicht sicher. Es sind sicherlich einige enttäuscht, aber da muss ich halt glatt fragen: was hat man sich erwartet von Upscaling. Wenn Upscaling perfekt funktionieren würde, bräuchte es ja sowieso keine höheren Auflösungen mehr.
Und natürlich habe ich einen gewissen Erfahrungsvorsprung der mir ermöglicht mit mehr Realitätssinn an die Sache heranzugehen: Deep Learning funktioniert nunmal noch länger nicht perfekt und ist außerdem immer ein - wie das Wort schon sagt - Lernprozess. Es wird halt mit der ZEIT immer besser, aber sicher nicht von Anfang an.
Ich weiß also nicht, ob es "so funktioniert wie angekündigt", es funktioniert aber fürs erste mal so, wie ichs mir erwartet habe. Wenn es aber in ein paar Jahren (und die wirds dauern, sowas reift halt erst durch Erfahrung) immer noch nicht besser ist, dann darf mans als gescheitert betrachten. Solange es aber Fortschritte gibt, nicht. Dann ist es nämlich sogar eine tolle Technologie die in einzelfällen ermöglicht, dass man mit schwacher Hardware auf hohen Settings spielen kann. Ersparnis durch Hochrechnen, Culling usw usf. unsere moderne 3D Grafik ist kaum viel in Echtzeit berechnet, bzw realistisch. Alles sind nur Tricks. Bis auf Raytracing, das wär das erste annähernd physikalisch korrekte Verfahren für 3d Grafik. Deshalb ist es für die Zukunft auch so wichtig. Und wer weiß, vielleicht in 5+ Jahren sogar ordentlich eingesetzt. In den kommenden 3 Jahren würde ich das ganze als "nettes Beiwerk" betrachten und nicht mehr. Die Grafik wird erst nach und nach durch Raytracing verbessert und sowohl die GPUs als auch die Spiele müssen noch besser damit umgehen. Aber der Anfang ist gemacht und das ist wichtig.
Eine 1080ti vernichtet eine 980ti einfach nur, kostete nach MSRP trotzdem nur 50$ mehr.
Das alleine reicht nicht für einen derartigen Preissprung - bzw. sollte nicht reichen.
Die 1080 Ti war aber auch günstiger Herzustellen: der Chip war kleiner, der RAM dan nschon günstiger. Da es bei der 1080 Ti einen Shrink gab, war eine Leistungsverdoppelung fast möglich. Den gabs halt bei der 2080 Ti nicht und daher ist die Leistungssteigerung ausgeblieben. Das war absolut zu erwarten. Entgegen der 1080 (Ti) sind aber die Chipgrößen deutlich nach oben gegangen und man verwendet auch eine neue RAM Technologie (GDDR5 wurde ja Jahrelang verwendet und immer günstiger, GDDR6 ist erstmals wieder teurer geworden).
Ja du hast vollkommen recht. Für den Preissprung ist entweder die Leistungssteigerung zu klein, oder eben der Preis zu hoch. Nur ist ein größerer Performancesprung unrealistisch. Pascal zu Maxwell hat richtig reingehauen vor allem mit Release der 1080ti. Dass ein solcher Sprung nichtmehr zu erwarten war durfte angenommen werden.
Das liegt halt rein am Prozess. Hätte Nvidia einen anderen Prozess gewählt und dieselben Chipgrößen anliegen, wäre fast doppelt so viel Leistung möglich. Oder anders gesagt: 1080 Performance in 7nm würde etwa bei 150mm² Chipgröße rauskommen. Das ist eigentlich schon recht klein. Oder man könnte die 1080 Leistung fast verdoppeln mit 300mm² Chips (Milchmädchenrechnung, weil ich hier jetzt einfach den Faktor 2 anliegen lasse bei der Transistordichte)
Es kann also sehr wohl noch zu massiven Sprüngen kommen im direkten Vergleich. Eine fiktive 3080 könnte doppelt so schnell sein wie eine 2080. Im ehesten Fall wird Nvidia aber mit 7nm wieder versuchen die Chipgrößen kleiner zu halten. Chipgrößen über 440mm (2060) sind halt sehr teuer und haben oft schlechte Yields. Das ist ja auch die Chipgröße der früher absolut größten Chips wie die 1080 Ti oder meinetwegen der Highend 7970.
Die Preise für die Produkte selbst wurde erhöht um ca 30%. Aber dafür kriegt man tatsächlich einen massiv größeren Chip und ein Produkt, das man (etwa im Falle der 2060) früher nie um den Preis hätte erwerben können. Wenn du mir vor einem Jahr erzählt hättest, dass Nvidia gleich zu Release einen Chip über 440mm² um 300-400€ aufn Markt bringt, hätte ich das sehr stark bezweifelt. Es ist eher AMDs Strategie mit großen Chips versuchen den Anschluss zu finden.
Ein Zeichen dafür, dass Turing für 7nm geplant war. Nvidias Strategie in den letzten 6 Jahren war ja immer mehr Leistung auf immer weniger Chipfläche unterzukriegen um mehr Marge zu haben. Das hat man sich mit Turing komplett zerschossen und selbst ein Shrink auf 50% macht die Chips immer noch recht groß. Einzig eine Titan in 7nm würde die Leistung nochmal glatt verdoppeln, in allen anderen Klassen wird man froh sein, die Chipgröße zu halbieren (eine 3060 mit einem 220mm² Chip klingt vernünftig)
Ich habs eher so verstanden dass es für Gamer ein Record Bad Year geben wird. Weil wirklich viele Titel für RTX und DLSS sind nicht in der Pipeline und beide Features werden auf absehbare Zeit ein Nischendasein fristen.
Gut, so habe ichs nicht gesehen.
Dann muss man aber dennoch so fair sein, dass man bei den Karten ja nicht nur diese 2 Features aktivieren kann. Gerade die 2080 Ti ist nunmal die schnellste 4K Karte. Das sollte zumindest die vielen 4K Enthusiasten freuen. Allein aus dem Grund ist die Karte ja den Aufpreis wert. Es ist doch auch so, dass im Highendbereich gerne für 10% mehr Leistung 30% mehr ausgegeben wird. Etwa der Unterschied zwischen 1080 Ti und Titan.
Die Gegenfrage wäre also, hätte Nvidia einfach eine neue 1090 aufgelegt, statt eine neue Serie angekündigt. Und die se 1090 ist plötzlich schneller als die Titan, hätten sich die Leute auch aufgeregt über den hohen Preis oder ist es nur die Enttäuschung über eine neue Serie?