AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Kleiner Nachtrag, was ich meine, mit "der Mainstream is meist viel vernünftiger, als wir hier":

YouTube

Exodus kann man auch mit Einstiegskarten mit noch ordentlich fps zocken. Kommt halt nur auf die Auflösung und Grafikoptionen an.
Von daher bleib ich mal besser bei 1440p. Da hab ich alle Optionen, sowohl für Highend inkl. RT, wenn der Preis in Ordnung für mich geht, je nach Angebot, oder halt Einsteigerklasse, um 3060/4060 herum.

Also: Sollten zukünftig Nvidias Karten allgemein und die Highendklasse insbesondere, immer teurer werden, greif ich einfach zur Einstiegsklasse.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

... musst Du aber schon was handfestes liefern.

Hab ich doch, dass gilt aber für dich nicht, du gibst auch genau wieder was ich schon geschrieben habe, einfach noch mal lesen.

Du behauptest nur es liefe ohne das der Entwickler ein Hilfsprogramm schreiben muss, damit es auf AMD GPUs annähernd so läuft wie auf nV. Genau das möchte ich nicht. Weil solche Infos in Foren schnell die Runde machen, aber so wie sie manchmal wieder gegeben nicht stimmen. Um mehr geht es nicht. Es gibt auch keinen Beweis ohne Spiel in dem es so wäre und FleX gibt es auch schon länger, denn letztlich ist es nur eine Sammlung dessen Extensionen schon in Spielen integriert war, nur war es auf AMD GPUs nicht lauffähig. Da sind sogar richtige AAA Titel wie Bioshock dabei.

Mehr will ich nicht und nVidia macht für AMD keinen Finger krumm, dass es laufen würde. Warum auch, wenn dann tut es Epic. Du scheinst da eine andere Wahrnehmung zu haben, weil AMD den Demomode unterstützte. Sie unterstützen auch RayTracing, funktioniert es hardwarebeschleunigt? Ja, in einem Fallbackmode für Demos oder unter Vulkan Ray.

vulkan-particles/README.md at master . nyorain/vulkan-particles . GitHub
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Hab ich doch, dass gilt aber für dich nicht, du gibst auch genau wieder was ich schon geschrieben habe, einfach noch mal lesen.

Du behauptest nur es liefe ohne das der Entwickler ein Hilfsprogramm schreiben muss, damit es auf AMD GPUs annähernd so läuft wie auf nV. Genau das möchte ich nicht. Weil solche Infos in Foren schnell die Runde machen, aber so wie sie manchmal wieder gegeben nicht stimmen. Um mehr geht es nicht.

Über die Qualität wie es läuft habe ich nichts geschrieben. Es läuft auf der GPU und nicht über die CPU.
Alles nochmal gelesen, Du verlinkst leider nur zum Müsli.
Tut mir ja leid, aber für mich bist Du nunmal auch nur ein Typ in irgendeinem Forum. Es gibt für mich keinen Anlass deiner Aussage mehr Gewicht zu geben, als anderen.

Es gibt auch keinen Beweis ohne Spiel in dem es so wäre und FleX gibt es auch schon länger, denn letztlich ist es nur eine Sammlung dessen Extensionen schon in Spielen integriert war, nur war es auf AMD GPUs nicht lauffähig. Da sind sogar richtige AAA Titel wie Bioshock dabei.

Mehr will ich nicht und nVidia macht für AMD keinen Finger krumm, dass es laufen würde. Warum auch, wenn dann tut es Epic. Du scheinst da eine andere Wahrnehmung zu haben, weil AMD den Demomode unterstützte. Sie unterstützen auch RayTracing, funktioniert es hardwarebeschleunigt? Ja, in einem Fallbackmode für Demos oder unter Vulkan Ray.

Zur Zeit von Bioshock gab es die Version 1.1.0 noch nicht und rückwirkend ändert sich sowieso nichts.
Ich nehme das wahr, was berichtet wird, ich entwickel ja nicht selber. Du kannst genauso wenig einen "Demomodus" nachweisen wie ich ihn widerlegen kann, ich kann nur erneut auf die Aussagen der Entwickler von nvidia verweisen, die GPU Support für Intel und AMD bestätigen sowieso auf die Mindestvorrausetzung von z.B. dem Unity Plugin.

Jo, vielleicht ist das alles Mumpitz und der Entwickler lügt mal direkt im UE Forum, gibt es momentan einen Grund das anzunehmen? Nein.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Achja, wenn die Faktenlage nicht zur Argumentation passt wird eben einfach immer behauptet das Niveau wäre niedrig

Sorry, dass ich aus dem wissenschaftlichen Bereich komme und Einzelmeinungen die noch dazu nur eine Seite darstellen absolut als unterstes Niveau angesehen werden. Nicht, dass ichs selbst so viel besser machen würde (außer in von mir publizierten Dingen), aber immerhin weiß ich diese Informationen zu unterscheiden und lese auch vorrangig was reflektiertes, als einseitige Meinungmache. Und wenn du jetzt echt behauptest, es ist keine Meinungsmache, dann sorry....

Und was sagt Heise zu Turing?
Kommentar zur Nvidia GeForce RTX 2080: Der grosse Bluff | heise online



Komisch, selbst die C't hat Meinungen und teilt diese...
Mich freut, dass du als Gegenbeweis etwas bringst, dass die C't ganz bewusst nicht als Artikel sondern als "Kommentar" kennzeichnet, also etwas, was ihrem Standard nicht entspricht sondern eben nur eine Einzelmeinung ist :lol: geiler selfown


RTX ist nicht per se Mist.
Wie Nvidia das Feature bei Turing implementiert hat und damit die vorhandene Preiserhöhung rechtfertigt, DAS ist Mist.
Ich hätte gerne mal dafür den Beweis, dass Nvidia das ohne RTX und Co nicht auch gemacht hätte. Nvidia bringt doch eh jede Generation irgendwelche neuen Features aber das große Problem ist letztlich das, dass Nvidia

1) absolute Leistungsspitze hatte und da "oben" kann amn die Preise bestimmen. Die vorherige 3000 € Karte etwa hat sich auch verkauft
2) Nvidia hat diese teure Generation gehabt, und nochmal eins draufgesetzt.
3) es gab zu dem Zeitpunkt keine Konkurrenz (gibts immer noch nicht wirklich) und wieder stellt sich die Frage für Nvidia: hmmm wir haben die alten Karten und jetzt haben wir neue Karten, die sind 30% schneller. 30% mehr Speed wären in der 1080er Reihe 50% mehr Preis geworden. Was tun wir also? Ja, wir erhöhen die Preise weil wir die schnellste Karte nochmal schneller gemacht haben und die Leute die nochwas schnelleres wollen als ihre gerade gekaufte 600€ Karte werden dafür auch nochmal mehr Zahlen
4) die Chips sind mehr als doppelt so groß, das RAM doppelt so teuer. Es ist mir irgendwie vorab schon klar gewesen, dass man damit nicht dieselben Preise fahren wird wie die Vorgänger. RTX&DLSS hin oder her.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: hfb
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Sorry, dass ich aus dem wissenschaftlichen Bereich komme und Einzelmeinungen die noch dazu nur eine Seite darstellen absolut als unterstes Niveau angesehen werden. Nicht, dass ichs selbst so viel besser machen würde (außer in von mir publizierten Dingen), aber immerhin weiß ich diese Informationen zu unterscheiden und lese auch vorrangig was reflektiertes, als einseitige Meinungmache. Und wenn du jetzt echt behauptest, es ist keine Meinungsmache, dann sorry....

Komm mal von deinem Ross runter - ich hab 2 abgeschlossene Studiengänge und kann mir ganz tolle Titel an die Tür kleben - wenn es um Gaminghardware geht brauch ich keinen Astropyhsiker sondern Personen die was von Gaming und was von Hardware verstehen.
Wenn du Heise liest um Gaminghardware zu bewerten - naja. 2060 Test machen und 3 Games benchen, da sollte es Dir als Wissenschaftler eiskalt den Rücken runter und wieder hochlaufen. Kuckste mal was HWUnboxed oder PCGH hier für einen Aufwand betreiben - aber sie sind ja nicht dein Niveau, ist ja quasi klatschpresse.

Gott wie ich dieses pseudoelitäre Getue hasse.
Jay2Cents muss seinen Kanal am laufen halten - Clickbaittitel? Klar, warum nicht. Nur ist es falsch was er in dem Video behauptet? Stimmen seine Aussagen nicht? Du bewertest nur anhand des Titels und seiner Wortwahl, dass er inhaltlich leider komplett recht hat (dieselben Aussagen treffen andere Seiten / Youtuber ebenfalls) fällt untern Tisch. Schaffe würde sagen "Keine Diskussion ad hominem!!!" Wo hat er deiner Meinung nach Unrecht? Dass es 6 Monate nach Release noch immer Treiberprobleme gibt? Es eine sehr sehr geringe Titelauswahl gibt? Dass man Aufpreis für Dinge bezahlt hat die man derzeit nicht nutzt?
Dass er biased wäre? Schau dir sein VII review an, falls du dich dazu herablassen kannst.

Du machst es Dir supereinfach - setzt dich 0 mit Inhalten auseinander sondern machst die Gleichung Youtuber = Niveauloser Schrott auf und damit ist für dich das Thema durch.
Aber weil du auf geschriebene Artikel stehst: HardwareUnboxed veröffentlichen auch. Und die sagen das gleiche: Battlefield V DLSS Tested: Overpromised, Underdelivered - TechSpot

Mich freut, dass du als Gegenbeweis etwas bringst, dass die C't ganz bewusst nicht als Artikel sondern als "Kommentar" kennzeichnet, also etwas, was ihrem Standard nicht entspricht sondern eben nur eine Einzelmeinung ist :lol: geiler selfown

Aber klar, Kommentare entsprechen nicht dem Standard... ist logisch, deswegen sind Kommentare ja auch allgegenwärtig in Publikationen. Lustig ist auch, Heise stellt sich Fragen von PCGH garnicht. Man findet auf Heise keine Vergleiche zu Metro / BF5 wie DLSS an / aus aussieht und wo es Probleme gibt.
Was natürlich toll ist, denn was dort nicht publiziert wird wirst du nicht lesen, also nicht als Problem wahrnehmen also ignorieren. Das nenn ich mal wissenschaftlich objektiv.



Ich hätte gerne mal dafür den Beweis, dass Nvidia das ohne RTX und Co nicht auch gemacht hätte. Nvidia bringt doch eh jede Generation irgendwelche neuen Features aber das große Problem ist letztlich das, dass Nvidia

Wie soll dieser Beweis zu erbringen sein? Soll ich in den Kopf von Huang schauen?
Ich hab in einem anderen Thread eine Liste gemacht.
780ti / 980ti und 1080ti waren bei Release als FE in etwa gleich teuer, die 1080ti 50$ MSRP teurer als die 980ti.
2080ti ist 300$ MSRP teurer als die 1080ti. Es gibt kein bit mehr Vram, die rohe Leistungssteigerung bewegt sich in der Größenordnung vergangener Leistungssprünge.

Das einzige echte Feature ist RTX / DLSS - oder siehst du einen anderen Grund für diese Preissteigerung?


1) absolute Leistungsspitze hatte und da "oben" kann amn die Preise bestimmen. Die vorherige 3000 € Karte etwa hat sich auch verkauft
2) Nvidia hat diese teure Generation gehabt, und nochmal eins draufgesetzt.
3) es gab zu dem Zeitpunkt keine Konkurrenz (gibts immer noch nicht wirklich) und wieder stellt sich die Frage für Nvidia: hmmm wir haben die alten Karten und jetzt haben wir neue Karten, die sind 30% schneller. 30% mehr Speed wären in der 1080er Reihe 50% mehr Preis geworden. Was tun wir also? Ja, wir erhöhen die Preise weil wir die schnellste Karte nochmal schneller gemacht haben und die Leute die nochwas schnelleres wollen als ihre gerade gekaufte 600€ Karte werden dafür auch nochmal mehr Zahlen
4) die Chips sind mehr als doppelt so groß, das RAM doppelt so teuer. Es ist mir irgendwie vorab schon klar gewesen, dass man damit nicht dieselben Preise fahren wird wie die Vorgänger. RTX&DLSS hin oder her.

zu 1. und 2. War bei Maxwell und Pascal nicht anders. Dennoch sind die Preise stabil geblieben.
Ebenso 3. Welche Konkurrenz hatte denn bitte eine 1080 oder gar eine 1080ti? Vega 64? Ich bitte dich.
4. ist ein zweischneidiges Schwert. Schauen wir aufs Marketing und wie Turing beworben wurde, was wurde ganz groß herausgestellt? Richtig, Raytracing und DLSS. Dass Nvidia anders kalkulieren muss bei Turing, keine Frage. Aber 300€ / Karte?
(Ram wurde teurer, aber nicht dermaßen viel... Preise fuer GDDR-Speicher und HBM analysiert - Hardwareluxx - http://www.pcgameshardware.de/RAM-Hardware-154108/News/Nvidia-Turing-AMD-Navi-GDDR6-Preise-1260719/ )

Kann man eventuell jetzt verstehen dass Gamer nicht wirklich erfreut sind wenn auf einmal ein Preissprung von 300$ MSRP einsetzt und man dafür außerhalb von BF5 und Metro 30% Mehrleistung zu einer 1080ti bekommt - und das wars?
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Kuckste mal was HWUnboxed oder PCGH hier für einen Aufwand betreiben - aber sie sind ja nicht dein Niveau, ist ja quasi klatschpresse.

Gott wie ich dieses pseudoelitäre Getue hasse.
Jay2Cents muss seinen Kanal am laufen halten - Clickbaittitel? Klar, warum nicht.
Ja, ich finde das hat nichts mit Journalismus zu tun, und somit sinds auch keine verwertbaren Quellen. Warum - wenn du weißt, dass es qualitativ minderwertig ist - führst du es dann überhaupt an. Alles was ich von dir erwartet habe, wären sinnvolle Artikel und nicht irgendwelche Videos für leicht beeinflussbare Kids. Denn das ist tatsächlich das Hauptclientel solcher "Influenzer"
zu 1. und 2. War bei Maxwell und Pascal nicht anders. Dennoch sind die Preise stabil geblieben.
Ebenso 3. Welche Konkurrenz hatte denn bitte eine 1080 oder gar eine 1080ti? Vega 64? Ich bitte dich.
Du hast mich wohl falsch verstanden. Ich sagte doch Nvidia hatte nicht wirklich Konkurrenz (außer sich selbst). Zumindest hab ich das gemeint.
4. ist ein zweischneidiges Schwert. Schauen wir aufs Marketing und wie Turing beworben wurde, was wurde ganz groß herausgestellt? Richtig, Raytracing und DLSS. Dass Nvidia anders kalkulieren muss bei Turing, keine Frage. Aber 300€ / Karte?
(Ram wurde teurer, aber nicht dermaßen viel... Preise fuer GDDR-Speicher und HBM analysiert - Hardwareluxx - http://www.pcgameshardware.de/RAM-Hardware-154108/News/Nvidia-Turing-AMD-Navi-GDDR6-Preise-1260719/ )
Das sind alle, längst widerlegte Zahlen, die tatsächlichen Preise für die Abnahme zwischen GDDR5 und 6 haben sich anfangs knapp verdoppelt. Inzwischen ist die Produktion vielleicht höher, das weiß ich nicht. Ich will auch nicht Nvidias Preise VERTEIDIGEN, ich will damit nur sagen, dass es mir klar war, dass die Preise wohl nicht sinken würden.
Im Übrigen macht Nvidia das schon länger - steigende Preise. Es verwundert, dass da so viel Aufruhr drum gemacht wird. Ohne Konkurrenz kein Preiskampf. Und AMD ist ein so dermaßen schwacher Konkurrenz, dass diese die Preise annehmen statt drücken. SIeht man ja an der R7. Klar, die verwendet auch teuren RAM, ist aber auch nur ein "Abfallprodukt" (war ja nie wirklich geplant und es kommt ja nur der Ausschusschip zum Einsatz). Die Forschung hinter Turing ist ja ganz eine andere. Aber gut, sagen wir R7 ist wegen dem RAM teuer (warum nicht einfach doppelt so teuer wie eine 56? Oder sogar darunter, es wurde ja nicht alles teurer?).

Und ja, was mich stört ist dieser Sensationsjournalismus. Ob Influenzer oder PCGH ist mir dabei gleich. DIe Qualität an PCGH bemängle ich regelmäßig.

Alles worum ich dich bitte ist solche Pseudo-Cleveren Youtuber nicht als einzige Wahrheit einfach so als Link hinzuklatschen sondern das auch ein bisschen von der anderen Seite zu betrachten. Außer du hast das in deinen mehreren Studien nie gelernt. Dann aber rein aus Interesse: welche Studien sind das?
Das einzige echte Feature ist RTX / DLSS - oder siehst du einen anderen Grund für diese Preissteigerung?

Das sind die beworbenen Features. Und, dass man aber jetzt auch DX12 Tier 3 usw hat. Auch an anderer Stelle tat sich was , ja. Aber um die Frage zu beantworten: Den Grund für die Preissteigerung sehe ich in
- mehr Tempo als die bislang schnellste GPU (um 3000€)
- generell mehr Tempo
- keine wirkliche Konkurrenz.

Dass man fürs Marketing oben drauf was streut ist schön. Aber letztlich würde ich behaupten die meisten schauen auf einen FPS Balken. Und weil sich der nunmal wenig im Vergleich zum Preis bewegt hat kommt der Aufruhr.

Ich behaupte (achtung unwissenschaftlich... aber ich könnte auch einfach ein Youtube Video dazu machen, am besten recht provokant), dass die Leute sich viel mehr darüber ärgern, dass der erhöhte Preis nicht gemeinsam mit einem großen Performancesprung kam und nicht weil RTX und DLSS von Anbeginn an nicht gleich perfekt läuft. Aber es ist halt einfacher auf die Marketingbegriffe von Nvidia einzudreschen als zu sagen "meh, 30% mehr Leistung für 30% mehr Geld. Das ist doof!"


Aber die ganze Diskussion führt zu nichts. Jay oder wie auch immer er sich nennt, behauptet Nvidia wird ein record bad year haben und ich widerspreche mal. Sehen wir uns das ganze 2020 an (als Rückblick). Wenn es kein Record bad year war, also massive Verluste, schlechte Zahlen usw , dann hab ich wohl mehr Ahnung, als diese ganzen "erfahrenen Tech Youtuber". Oder halt einfach in diesem Punkt eher recht (ums wissenschaftlich korrekter darzustellen). Bin schon unglaublich gespannt.

Was die aktuelle Diskussion um Youtuber, Tech, Einfluss, Ahnung betrifft... selten aber doch verirre ich mich dann aber schon zu solchen. Das müssen dann aber welche sein, die ein Paper dazu hängen oder ähnliches. Weil die Diskussion um Raytracing nicht aufhört, vielleicht auch mal hier reinschnuppern. YouTube

Videos dauern mir meist zu lang und ich kann sie eigentlich auch nirgends laufen lassen (weder Arbeit noch zu Hause, habe besseres zu tun als in meiner Freizeit mir die Meinung von anderen Leuten per Video anzuhören/sehen), aber da und dort zahlt es sich aus reinzuzappen.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Das stimmt doch nicht, oder ?

GDDR6 is doppelt so teuer wie GDDR5x ?

Wie groß ist denn genau der Preisunterschied, bei 8 GB Speicher ?
Sorry bezog mich auf Herstellernahe Zahlen und auf GDDR5, nicht X.

Die 3dcenter hatte hier mal etwas konkretere Zahlen, da die in der PCGH News genannten ums wesentliche zu hoch waren und sowieso nur eine VB sind.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Also Hoffgang hatte ja schon einen Artikel verlinkt, der die Preise gecheckt hat, wo stand
Die genauen Konditionen für Grafikkartenhersteller bleiben zwar ein Geheimnis, einen allzu großen Preisanstieg allein durch den RAM sollte es jedoch nicht geben.


Dass die Karten deswegen so teuer wurden, ist .... wie sag ich es diesmal etwas diplomatischer ? :D Nicht im Bereich des Wahrscheinlichen. ;)

Wollte eigentlich schreiben: BS ! ;)
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Also Hoffgang hatte ja schon einen Artikel verlinkt, der die Preise gecheckt hat, wo stand


Dass die Karten deswegen so teuer wurden, ist .... wie sag ich es diesmal etwas diplomatischer ? :D Nicht im Bereich des Wahrscheinlichen. ;)

Wollte eigentlich schreiben: BS ! ;)
Ich muss mich schon fast zurückhalten, noch diplomatisch zu schreiben.

Ich habe ja nicht gemeint, dass der alleinige Grund für die Preiserhöhung der doppelte RAM Preis ist. Es ist eben eine Kombination an Faktoren: Neue Architektur, neue Tempohöhen (das ist das eigentlich ausschlagebende), Leute die bereit sind es zu bezahlen (davon gibts ja genug, manche kaufen sich jährlich Handys die sind teurer als meine ersten Autos), höhere TDP (komplexere Kühlung), größerer Chip (mehr als doppelt so groß), doppelt so teurer RAM.

Wäre ich also jetzt Nvidia und müsste meine Anleger "befriedigen" ( ;) ) so würde ich wohl nicht folgendes machen: eine Karte, die kaum mehr Tempo bringt, deutlich mehr kostet in der Produktion usw usf um den selben PReis der vorgänger bringen. Weil selbst wenn die Verkäufe stabil hoch bleiben würden, der Gewinn würde absolut gesehen schrumpfen. Und das wär dann eben auch nicht optimal.
Da man aber keine Konkurrenz hat, hat man sich entschieden gleich auch noch die Preise zu erhöhen. Aufgrund des geringem Tempozuwachs, war sowieso nicht zu erwarten, dass ein großer "Run" auf die GPUs stattfindet, von daher kann man das etwas ausgleichen, dass wenigstens die paar GPUs die man verkauft teurer verkauft werden.

Ich versuche da jetzt mal nur die Sicht aus Nvidias Geschäftsentscheidung darzustellen.

Dass es für uns Kunden Grütze ist, und dass die GPU Preise auch generell höher werden (7nm ist ein teurer Prozess und kostet mehr als 14nm, auch die Forschungsausgaben steigen stetig) ist etwas, dem ich nicht wirklich entgegenlächle


Aja hier ein kleiner Link mit Rechenbeispiel:
Bei 8GB GDDR5 RAM wärens halt ca 45 Euro für den Speicher. Bei 16GB bis cu 75€ (als ich gesagt habe "verdoppelt" habe ich leider im Kopf deutlich aufgerundet, sorry). Wärens halt 16 GB würden allein 150 fürs RAM entfallen. Das mag angesichts von Preisen bis 1000€ nach wenig klingen, von diesen 1000€ kriegen die Hersteller aber ja nur einen kleinen Teil des Kuchens ab. Da ist schon viel Kalkül dahinter.

Natürlich wäre Turing wesentlich beeindruckender mit der doppelten RAM Menge.
Man stelle sich vor 2060 12 GB DDR6. Dann hat man aber folgendes Problem: die 2060 ist dann wesentlich teurer in der Produktion wie die 1080, ist aber langsamer und soll man irgendwie trotzdem teurer verkaufen (sonst ist das schlecht für die Marge)
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Das sind alle, längst widerlegte Zahlen, die tatsächlichen Preise für die Abnahme zwischen GDDR5 und 6 haben sich anfangs knapp verdoppelt. Inzwischen ist die Produktion vielleicht höher, das weiß ich nicht. Ich will auch nicht Nvidias Preise VERTEIDIGEN, ich will damit nur sagen, dass es mir klar war, dass die Preise wohl nicht sinken würden.

Du bist herzlich eingeladen zur Abwechslung auch mal Links zu posten statt immer nur gepostete Quellen zu kritisieren...


Im Übrigen macht Nvidia das schon länger - steigende Preise. Es verwundert, dass da so viel Aufruhr drum gemacht wird.

Du hast bemerkt dass ich die Topmodelle miteinander verglichen habe... Deren MSRP ist mehr oder weniger stabil geblieben und erst mit Turing gab es einen Massiven Anstieg. Steigende Preise sind das eine, wenn sie sich im vertretbaren Rahmen bewegen, nicht wenn sie auf einmal deutlich angehoben werden.


Alles worum ich dich bitte ist solche Pseudo-Cleveren Youtuber nicht als einzige Wahrheit einfach so als Link hinzuklatschen sondern das auch ein bisschen von der anderen Seite zu betrachten.
YT sind nicht die einzige Wahrheit - aber es ist auch nicht automatisch falsch was dort gesagt wird eben nur weil das Medium Youtube ist und nicht das Deutsche Ärzteblatt. Das DLSS nicht funktioniert wie angekündigt ist wohl unbestreitbar, das es eine Enttäuschung ist ebenso.

Außer du hast das in deinen mehreren Studien nie gelernt. Dann aber rein aus Interesse: welche Studien sind das?
Ich hab vor allem im Nachrichtenwesen eines gelernt, wenn du von vornerein eine Quelle diskreditierst, dann ist das Voreingenommenheit und das kann böse enden.

Den Grund für die Preissteigerung sehe ich in
- mehr Tempo als die bislang schnellste GPU (um 3000€)
- generell mehr Tempo
- keine wirkliche Konkurrenz.

Daran hat sich seit dem Release der ersten Titan nicht geändert. Wenn das der Grund ist, dann haben wir User allen Grund darüber zu meckern.


Dass man fürs Marketing oben drauf was streut ist schön. Aber letztlich würde ich behaupten die meisten schauen auf einen FPS Balken. Und weil sich der nunmal wenig im Vergleich zum Preis bewegt hat kommt der Aufruhr.

Eine 1080ti vernichtet eine 980ti einfach nur, kostete nach MSRP trotzdem nur 50$ mehr.
Das alleine reicht nicht für einen derartigen Preissprung - bzw. sollte nicht reichen.

Ich behaupte dass die Leute sich viel mehr darüber ärgern, dass der erhöhte Preis nicht gemeinsam mit einem großen Performancesprung kam und nicht weil RTX und DLSS von Anbeginn an nicht gleich perfekt läuft. Aber es ist halt einfacher auf die Marketingbegriffe von Nvidia einzudreschen als zu sagen "meh, 30% mehr Leistung für 30% mehr Geld. Das ist doof!"

Ja du hast vollkommen recht. Für den Preissprung ist entweder die Leistungssteigerung zu klein, oder eben der Preis zu hoch. Nur ist ein größerer Performancesprung unrealistisch. Pascal zu Maxwell hat richtig reingehauen vor allem mit Release der 1080ti. Dass ein solcher Sprung nichtmehr zu erwarten war durfte angenommen werden. Aber grade dann muss RTX und DLSS doch liefern wenn man 300$ mehr verlangt und eben keine 70% Mehrleistung an den Tag legt sondern nur 30%. Daher auch die Kritik und meine Meinung: Gäbe es eine 2080ti mit der aktuellen Rohleistung, ohne RTX zu ~800€, dann hätte Nvidia auch kein Problem. Aber so wurde die 2080 mit 8 GB Vram auf Preisniveau der 1080ti gehievt, dabei bringt sie ~5% mehr Leistung bei 3 GB weniger Vram und schon nervt das die Kunden.

Aber die ganze Diskussion führt zu nichts. Jay oder wie auch immer er sich nennt, behauptet Nvidia wird ein record bad year haben und ich widerspreche mal. Sehen wir uns das ganze 2020 an (als Rückblick). Wenn es kein Record bad year war, also massive Verluste, schlechte Zahlen usw , dann hab ich wohl mehr Ahnung, als diese ganzen "erfahrenen Tech Youtuber". Oder halt einfach in diesem Punkt eher recht (ums wissenschaftlich korrekter darzustellen). Bin schon unglaublich gespannt.

Ich habs eher so verstanden dass es für Gamer ein Record Bad Year geben wird. Weil wirklich viele Titel für RTX und DLSS sind nicht in der Pipeline und beide Features werden auf absehbare Zeit ein Nischendasein fristen.
Habe im Video keine Sequenz gefunden in der er sich über Nvidia und Verkäufe / Umsätze auslässt. Man verzeihe die Frage, aber hast du das Video überhaupt gesehen oder von Anfang an ignoriert weil ja nicht deinem Standard entsprechend?
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Du bist herzlich eingeladen zur Abwechslung auch mal Links zu posten statt immer nur gepostete Quellen zu kritisieren...
Inwiefern muss ich eine Gegendarstellung zu einer provokanten Zukunftsprognose bringen. Das wird sich selbst erledigen.
Selbs der Kommentar, der von dir verlinkt ist erwähnt zumindest, dass es sich um neue Techniken handelt, wenngleich er diese als Nebelkerzen abtut. Letztendlich braucht es für ein Feuer nunmal einen Funken. Oder für eine technische Wende einen Anfang. Der ist leider nicht besonders eindrucksvoll geglückt, aber auch nicht schlecht. Immerhin gibts wesentlich früher RT Spiele als gedacht. Hätte ich ehrlich gesagt vor 2030 nicht erwartet.


Du hast bemerkt dass ich die Topmodelle miteinander verglichen habe... Deren MSRP ist mehr oder weniger stabil geblieben und erst mit Turing gab es einen Massiven Anstieg. Steigende Preise sind das eine, wenn sie sich im vertretbaren Rahmen bewegen, nicht wenn sie auf einmal deutlich angehoben werden.
Hmm mit Turing gab es WIEDER einen Anstieg. Ja. Aber Sprünge gabs auch davor schon. Dann wurde halt über der xx80 Serie noch Titan eingeführt. Ein Chip der eben früher als xx80 Verkauft worden wäre, ist halt jetzt eine noch höhere Klasse geworden. Das Spiel geht, seit AMD mit GCN nicht wirklich was dagegen stellen kann. Aber auch davor gabs schon massive Preiserhöhungen (etwa mit der 5850)

YT sind nicht die einzige Wahrheit - aber es ist auch nicht automatisch falsch was dort gesagt wird eben nur weil das Medium Youtube ist und nicht das Deutsche Ärzteblatt.
Ich glaube ich habe etwas überreagiert und dafür möchte ich mich entschuldigen. Ich meine mich erinnern zu können, dass du einfach nur einen Youtube Link gepostet hast (Edit: grad gesehen, das warst gar nicht du) und das entweder kommentarlos oder nur mit dem Kommentar (im sinne vonn) "das ist die absolute Wahrheit". Und das hat mich dann gestört, denn dieser Jay ist mir immer schon mal aufgefallen als Anti Nvidia geprägt, als oberflächlich und als "Meinungsflexibel" (Fähnchen im Wind). Sagt heute dies, morgen das, hauptsache die Leute klicken drauf. Sowas stört mich. Mich stört vorallem aber der allgemeine Trend zum "Video schauen und sich berieseln lassen" statt lesen und verstehen. Damit bist jetzt nicht du gemeint, aber es fällt mir auch bei den SchülerInnen auf. Lies da mal nach, da steht was darüber - "Gibts da kein Video dazu?"



Ich hab vor allem im Nachrichtenwesen eines gelernt, wenn du von vornerein eine Quelle diskreditierst, dann ist das Voreingenommenheit und das kann böse enden.
Das stimmt natürlich.
Aber die wenigsten Youtuber geben ihre Daten an. In Tabellenform oder ähnliches. Das Medium ist schwer zitierbar (copy und paste einzelner Aussagen oder Textpassagen) und letzten Endes ist die Verarbeitung damit im Falle einer Suche auch mühsam. Einen Text scannen geht halt schneller und ist zielführender, wenn ich nicht gerade das Grafische brauche (die Darstellung wie man eine Grafikkarte einbauen kann geht natürlich besser durch ein Video, manche Dinge aber besser im Text). Ich muss ständig wissenschaftliche Arbeiten Peer-Reviewen und da würde es halt im Traum niemanden einfallen YT zu verwenden, obwohl wir in der IT arbeiten.
Auch ein Biologe würde aber wohl eher ein Paper über Bienen zitieren, als eine N24 Doku auf Youtube.
Das DLSS nicht funktioniert wie angekündigt ist wohl unbestreitbar, das es eine Enttäuschung ist ebenso.
Ich bin mir nicht sicher. Es sind sicherlich einige enttäuscht, aber da muss ich halt glatt fragen: was hat man sich erwartet von Upscaling. Wenn Upscaling perfekt funktionieren würde, bräuchte es ja sowieso keine höheren Auflösungen mehr.
Und natürlich habe ich einen gewissen Erfahrungsvorsprung der mir ermöglicht mit mehr Realitätssinn an die Sache heranzugehen: Deep Learning funktioniert nunmal noch länger nicht perfekt und ist außerdem immer ein - wie das Wort schon sagt - Lernprozess. Es wird halt mit der ZEIT immer besser, aber sicher nicht von Anfang an.
Ich weiß also nicht, ob es "so funktioniert wie angekündigt", es funktioniert aber fürs erste mal so, wie ichs mir erwartet habe. Wenn es aber in ein paar Jahren (und die wirds dauern, sowas reift halt erst durch Erfahrung) immer noch nicht besser ist, dann darf mans als gescheitert betrachten. Solange es aber Fortschritte gibt, nicht. Dann ist es nämlich sogar eine tolle Technologie die in einzelfällen ermöglicht, dass man mit schwacher Hardware auf hohen Settings spielen kann. Ersparnis durch Hochrechnen, Culling usw usf. unsere moderne 3D Grafik ist kaum viel in Echtzeit berechnet, bzw realistisch. Alles sind nur Tricks. Bis auf Raytracing, das wär das erste annähernd physikalisch korrekte Verfahren für 3d Grafik. Deshalb ist es für die Zukunft auch so wichtig. Und wer weiß, vielleicht in 5+ Jahren sogar ordentlich eingesetzt. In den kommenden 3 Jahren würde ich das ganze als "nettes Beiwerk" betrachten und nicht mehr. Die Grafik wird erst nach und nach durch Raytracing verbessert und sowohl die GPUs als auch die Spiele müssen noch besser damit umgehen. Aber der Anfang ist gemacht und das ist wichtig.

Eine 1080ti vernichtet eine 980ti einfach nur, kostete nach MSRP trotzdem nur 50$ mehr.
Das alleine reicht nicht für einen derartigen Preissprung - bzw. sollte nicht reichen.
Die 1080 Ti war aber auch günstiger Herzustellen: der Chip war kleiner, der RAM dan nschon günstiger. Da es bei der 1080 Ti einen Shrink gab, war eine Leistungsverdoppelung fast möglich. Den gabs halt bei der 2080 Ti nicht und daher ist die Leistungssteigerung ausgeblieben. Das war absolut zu erwarten. Entgegen der 1080 (Ti) sind aber die Chipgrößen deutlich nach oben gegangen und man verwendet auch eine neue RAM Technologie (GDDR5 wurde ja Jahrelang verwendet und immer günstiger, GDDR6 ist erstmals wieder teurer geworden).


Ja du hast vollkommen recht. Für den Preissprung ist entweder die Leistungssteigerung zu klein, oder eben der Preis zu hoch. Nur ist ein größerer Performancesprung unrealistisch. Pascal zu Maxwell hat richtig reingehauen vor allem mit Release der 1080ti. Dass ein solcher Sprung nichtmehr zu erwarten war durfte angenommen werden.
Das liegt halt rein am Prozess. Hätte Nvidia einen anderen Prozess gewählt und dieselben Chipgrößen anliegen, wäre fast doppelt so viel Leistung möglich. Oder anders gesagt: 1080 Performance in 7nm würde etwa bei 150mm² Chipgröße rauskommen. Das ist eigentlich schon recht klein. Oder man könnte die 1080 Leistung fast verdoppeln mit 300mm² Chips (Milchmädchenrechnung, weil ich hier jetzt einfach den Faktor 2 anliegen lasse bei der Transistordichte)

Es kann also sehr wohl noch zu massiven Sprüngen kommen im direkten Vergleich. Eine fiktive 3080 könnte doppelt so schnell sein wie eine 2080. Im ehesten Fall wird Nvidia aber mit 7nm wieder versuchen die Chipgrößen kleiner zu halten. Chipgrößen über 440mm (2060) sind halt sehr teuer und haben oft schlechte Yields. Das ist ja auch die Chipgröße der früher absolut größten Chips wie die 1080 Ti oder meinetwegen der Highend 7970.
Die Preise für die Produkte selbst wurde erhöht um ca 30%. Aber dafür kriegt man tatsächlich einen massiv größeren Chip und ein Produkt, das man (etwa im Falle der 2060) früher nie um den Preis hätte erwerben können. Wenn du mir vor einem Jahr erzählt hättest, dass Nvidia gleich zu Release einen Chip über 440mm² um 300-400€ aufn Markt bringt, hätte ich das sehr stark bezweifelt. Es ist eher AMDs Strategie mit großen Chips versuchen den Anschluss zu finden.

Ein Zeichen dafür, dass Turing für 7nm geplant war. Nvidias Strategie in den letzten 6 Jahren war ja immer mehr Leistung auf immer weniger Chipfläche unterzukriegen um mehr Marge zu haben. Das hat man sich mit Turing komplett zerschossen und selbst ein Shrink auf 50% macht die Chips immer noch recht groß. Einzig eine Titan in 7nm würde die Leistung nochmal glatt verdoppeln, in allen anderen Klassen wird man froh sein, die Chipgröße zu halbieren (eine 3060 mit einem 220mm² Chip klingt vernünftig)



Ich habs eher so verstanden dass es für Gamer ein Record Bad Year geben wird. Weil wirklich viele Titel für RTX und DLSS sind nicht in der Pipeline und beide Features werden auf absehbare Zeit ein Nischendasein fristen.

Gut, so habe ichs nicht gesehen.
Dann muss man aber dennoch so fair sein, dass man bei den Karten ja nicht nur diese 2 Features aktivieren kann. Gerade die 2080 Ti ist nunmal die schnellste 4K Karte. Das sollte zumindest die vielen 4K Enthusiasten freuen. Allein aus dem Grund ist die Karte ja den Aufpreis wert. Es ist doch auch so, dass im Highendbereich gerne für 10% mehr Leistung 30% mehr ausgegeben wird. Etwa der Unterschied zwischen 1080 Ti und Titan.

Die Gegenfrage wäre also, hätte Nvidia einfach eine neue 1090 aufgelegt, statt eine neue Serie angekündigt. Und die se 1090 ist plötzlich schneller als die Titan, hätten sich die Leute auch aufgeregt über den hohen Preis oder ist es nur die Enttäuschung über eine neue Serie?
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Ich muss mich schon fast zurückhalten, noch diplomatisch zu schreiben.

Ich habe ja nicht gemeint, dass der alleinige Grund für die Preiserhöhung der doppelte RAM Preis ist. Es ist eben eine Kombination an Faktoren:

Bleib cool und rege dich nicht unnötig auf. Ich hatte mich auch nur auf diesen Punkt(doppelt so teurer Speicher) bezogen und auf nix anderes.
Dass du auch einige weitere Faktoren meintest, war mir schon klar und diese habe ich auch gar nicht kritisiert, falls das doch so rüber kam. :) :bier: Nix für ungut !
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Inwiefern muss ich eine Gegendarstellung zu einer provokanten Zukunftsprognose bringen. Das wird sich selbst erledigen.

Ich meinte dies im Bezug auf die Ram Preise :)

Das stimmt natürlich.
Aber die wenigsten Youtuber geben ihre Daten an. In Tabellenform oder ähnliches. Das Medium ist schwer zitierbar (copy und paste einzelner Aussagen oder Textpassagen) und letzten Endes ist die Verarbeitung damit im Falle einer Suche auch mühsam. Einen Text scannen geht halt schneller und ist zielführender, wenn ich nicht gerade das Grafische brauche (die Darstellung wie man eine Grafikkarte einbauen kann geht natürlich besser durch ein Video, manche Dinge aber besser im Text). Ich muss ständig wissenschaftliche Arbeiten Peer-Reviewen und da würde es halt im Traum niemanden einfallen YT zu verwenden, obwohl wir in der IT arbeiten.
Auch ein Biologe würde aber wohl eher ein Paper über Bienen zitieren, als eine N24 Doku auf Youtube.

Verständlich. Aber Youtube Kanäle wie z.b. Hardwareunboxed stellen den Inhalt der Videos nochmals als Artikel auf techspot.com. Keine Frage, YT ist kein Tummelplatz für wissenschaftliches Arbeiten, dagegen für sehr viel Meinungsmache.
Aber ich bleibe dabei, nur weil es YT ist muss es nicht automatisch falsch sein. der8auer hat mit seine X299 VRM Video für eine Menge Aufruhr gesorgt, am Ende halb so wild, dennoch hat er gemessen was er gemessen hat und es sich eben nicht eingebildet. YT ist, wenn man den richtigen Kanälen folgt, eine tolle Möglichkeit Informationen zu bekommen. Du machst Peer-Review, du solltest wissen wie schnell Inhalte Copy & Pastet und nicht entsprechend kennzeichnet. Stichwort Gutenplag.


Die 1080 Ti war aber auch günstiger Herzustellen[...] Aber dafür kriegt man tatsächlich einen massiv größeren Chip und ein Produkt, das man (etwa im Falle der 2060) früher nie um den Preis hätte erwerben können. Wenn du mir vor einem Jahr erzählt hättest, dass Nvidia gleich zu Release einen Chip über 440mm² um 300-400€ aufn Markt bringt, hätte ich das sehr stark bezweifelt. Es ist eher AMDs Strategie mit großen Chips versuchen den Anschluss zu finden. Ein Zeichen dafür, dass Turing für 7nm geplant war. Nvidias Strategie in den letzten 6 Jahren war ja immer mehr Leistung auf immer weniger Chipfläche unterzukriegen um mehr Marge zu haben. Das hat man sich mit Turing komplett zerschossen und selbst ein Shrink auf 50% macht die Chips immer noch recht groß. Einzig eine Titan in 7nm würde die Leistung nochmal glatt verdoppeln, in allen anderen Klassen wird man froh sein, die Chipgröße zu halbieren (eine 3060 mit einem 220mm² Chip klingt vernünftig)

Nvidia fliegt um die Ohren dass sie mit Turing durch die Bank teurer geworden sind - günstige Alternativen unter 300€ kommen ja jetzt erst mit der 1660ti. Dass es zudem noch Pascal Karten gibt / gab die teilweise ähnlich schnell, aber günstiger sind macht es nicht einfacher.
Das gepaart mit "it just works" - was ja nachweislich die dümmste Aussage aller Zeiten war - schafft nunmal eine Ablehnung für die aktuellen Preise. Vllt sind wir durch Pascal auch einfach "verwöhnt" gewesen und Nvidia hat eine notwendige Preissteigerung durchgeführt ohne die Turing nicht rentabel wäre, in diesem Fall hat aber ihr Marketing komplett versagt denn man hat mit aller Gewalt versucht RTX als Kaufgrund darzustellen - was ja Stand heute kein echter Kaufgrund ist.


Dann muss man aber dennoch so fair sein, dass man bei den Karten ja nicht nur diese 2 Features aktivieren kann. Gerade die 2080 Ti ist nunmal die schnellste 4K Karte. Das sollte zumindest die vielen 4K Enthusiasten freuen. Allein aus dem Grund ist die Karte ja den Aufpreis wert. Es ist doch auch so, dass im Highendbereich gerne für 10% mehr Leistung 30% mehr ausgegeben wird. Etwa der Unterschied zwischen 1080 Ti und Titan.

Dem steht halt die 2080 mit 8 GB VRam entgegen. PCGH z.b. hat der Karte bescheinigt schneller sein zu können, hätte sie mehr Vram. Hier wird künstlich das Portfolio gepflegt um der 2080ti nicht das Wasser abzugraben.
Siehe wieder Pascal. Keine 1080ti angekündigt, 1080 mit 8 GB veröffnetlicht. Das war ein echtes Upgrade in allen Belangen zur 980ti (schneller, effizienter, mehr Vram) bei ähnlichem Preis. 2080 zu 1080ti? Eher nicht.
Die Titanen dürfen gerne deutlich teurer sein - diese Karten richten sich an eine spezielle Usergruppe die damit (hoffentlich) mehr anzufangen weiß als nur zocken - im Gegensatz zu GTX / RTX Karten.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

jo, vielleicht ist das alles Mumpitz und der Entwickler lügt mal direkt im UE Forum, gibt es momentan einen Grund das anzunehmen? Nein.
Also ist es einfacher zu behaupten ich lüge?

Das Manual weisst mit Data Structure Dokumentation einen SolverFallback aus, wenn keine nV Hardware angesprochen wird (CudaSolver). Dieser benötigt einen ComputeType (dx11/dx12) bei dem nV mit Empfehlung darauf verweisst, dass Berechnungsoperationen vom Solver an die CommandQueue übergeben werden, und da gibt es zwischen AMD und nVidia llv klare Unterschiede. Wie ich schon schrieb, ist die Core API für den Host nV closed. Denn entgegen deiner Behauptung, werden Callbacks auch an die CPU verwiesen.

Aber was weiss ich schon. Ich habe auch nie geschrieben, dass es nicht geht, sondern das man einen Solver schreiben muss, was unter PhysX auch gegangen wäre. FleX ist nichts anderes und war anfänglich für andere Dinge bestimmt. NVidia lagerte wohl PhysX vorerst aus, was nicht CPU only und ready war, weil man ausreichend Konkurrenz zu Havoks aufbauen wollte/will.

Vllt. liest man sich sowas erst mal durch, bevor man mit so einer Steilvorlage kommt und selbst darauf verweist, man habe schon selbst genug numerische Hilfsprogramme entwickelt.

Wie Epic das löst, ist deren Sache, die FleX API muss zudem von der Engine unterstützt werden.

Da das hier eher offtopic ist, belasse ich es dabei, natürlich kann hier jeder denken und schreiben was ihm beliebt.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Also ist es einfacher zu behaupten ich lüge?

Habe ich nicht gesagt.
Der nV-Mensch war mit seiner Aussage deutlich, da bleibt nicht viel Spielraum.
Vllt. liest man sich sowas erst mal durch, bevor man mit so einer Steilvorlage kommt und selbst darauf verweist, man habe schon selbst genug numerische Hilfsprogramme entwickelt.

Du überinterpretierst. Du wolltest wissen, was ich unter einem Solver verstehe, ich habe es Dir gesagt, Du wurdest unverschämt.
Du meinst damit wohl was anderes als nV und alle anderen.

Ich habe auch nie geschrieben, dass es nicht geht, sondern das man einen Solver schreiben muss[...]
Jo, und nV sagt, dass sie einen geschrieben haben.

Aber ok, lassen wir das. Wir drehen uns im Kreis.

Selbst wenn mal Spiele oder Demos damit rauskommen sollten, war es halt nicht nV, die den Solver geschrieben haben, sondern immer jeder Engine Anbieter für sich.

Edit: Das Unity PlugIn läuft problemlos aus AMD, gerade ausprobiert.
Warum es läuft traue ich mich gar nicht erst zu mutmaßen.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Nvidia fliegt um die Ohren dass sie mit Turing durch die Bank teurer geworden sind - günstige Alternativen unter 300€ kommen ja jetzt erst mit der 1660ti. Dass es zudem noch Pascal Karten gibt / gab die teilweise ähnlich schnell, aber günstiger sind macht es nicht einfacher.
Das gepaart mit "it just works" - was ja nachweislich die dümmste Aussage aller Zeiten war...

Wieso lohnt es sich eigentlich mit dir zu diskutieren? Ich denke wir haben doch jetzt mitbekommen dass du den Preis zu hoch findest.
Ob er das wirklich ist, werden dann die Zahlen zeigen, die sich ja immer noch auf dem Pascal Niveau von vor 2 Jahren bewegen.
Erst wenn die einbrechen, fliegt irgendetwas "um die Ohren".

Und "just works" ist nicht dumm, sondern du hast die Aussage einfach nicht verstanden.
Die Aussage sollte den Umbruch hin zu Raytracing unterstützen und markieren, dass seit diesem Turing Launch in den Foren so viel gemeckert wird, liegt nur an den Preisen, aber warum die gestiegen sind ist technisch nachvollziehbar.
Gut, das ignorierst du ja vehement - die technische Seite - und stellst halt hier im Forum nichs anderes da als diese Influencer auf Youtube die einfach nur vom Leder ziehen. Bringt dich im Leben halt nicht weiter.

in diesem Fall hat aber ihr Marketing komplett versagt...

Das Marketing hat nicht versagt, da geht es doch auch wieder nur um den Preis.
Marketing war schon immer nur was für Menschen die nicht tief ins Thema einsteigen.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

@gimmick
Wenn du dich durch Foren klickst, vllt. findest du auch etwas das bis heute nicht beantwortet wurde.

Damalig wollte man ein bestimmtes Paket implementieren, weil FleX ja auch erlaubt mehrere Effekte miteinander zu kombinieren. War dann später only Cuda.

Ich überreagiere nicht, finde das eher anregend und ich schrieb ja, dass ich auch dazu lernen kann. Heraus gelesen habe ich nichts anderes, wobei ja alles mitgeliefert wird. Unter dx11 wird es vermutlich mit einem Treiber ausgeliefert werden müssen, unter dx12 entwickelst du wenn - es selbst oder fragst einfach bei AMD an.

Unity und Unreal sollte man distanziert sehen und getrennt betrachten.

@schaffe...
Wenn man die Hardware verteuert, bleiben die Gewinne womöglich gleich, nur verkauft man bei gleichem Gewinn weniger Stückzahlen. Das kann sich auf Dauer und zuletzt auf Marktanteile auswirken.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

@schaffe...
Wenn man die Hardware verteuert, bleiben die Gewinne womöglich gleich, nur verkauft man bei gleichem Gewinn weniger Stückzahlen. Das kann sich auf Dauer und zuletzt auf Marktanteile auswirken.
Ist nur logisch, aber wenn man sowieso geringere Verkäufe erwartet, weil die aktuellen GPUs (also Pascal) für die meisten Leute noch ausreichen und sie keinen Aufrüstzwang verspüren, man also nur die Leute bedient die sowieso eine GPU kaufen müssen, dann macht es für Nvidia durchaus sinn den Preis zu erhöhen. Schließlich haben sie deutlich höhere Kosten wie noch zu Pascal Zeiten.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Ist nur logisch, aber wenn man sowieso geringere Verkäufe erwartet, weil die aktuellen GPUs (also Pascal) für die meisten Leute noch ausreichen und sie keinen Aufrüstzwang verspüren, man also nur die Leute bedient die sowieso eine GPU kaufen müssen, dann macht es für Nvidia durchaus sinn den Preis zu erhöhen. Schließlich haben sie deutlich höhere Kosten wie noch zu Pascal Zeiten.

Wenn man immer gleich hohe Gewinne einfahren will, ja. Hoffgang stellt das Prozedere daher imo auch gerechtfertigt in Frage. Denn wenn nVidia die Produktionskosten erhöht, muss man nicht unbedingt gleich hohe Margen verlangen. Letztlich würde man bei günstiger Preisgestaltung auch mehr verkaufen.

Wer den Gewinn vor den Umsatz stellt, wird sich damit abfinden müssen, dass er auch Marktanteile abgeben wird müssen. Das schadet nicht nur der Verbreitung eigener Produkte, sondern auch dem eigenen Image auf Dauer. Hardwareentwicklung bedeutet nicht nur Produkte zu liefern die Trends setzen, sondern man sollte dabei auch berücksichtigen das der Anschaffungspreis im Rahmen bleibt. Was ja auch zum Verkaufserfolg meiner Produkte im Markt führen kann. Das immer nur mit Entwicklungs- und Produktionskosten zu begründen, kann beim Interessenten schnell zum Frust führen.

Es gibt viele Produkte, die entwickelt werden aber nie erscheinen.

NVidia hat imo die Spirale schon bei Pascal ausgereizt, nur weil man in der Lage war Machbarkeitsstudien zu entwickeln und im HPC zu verkaufen, heisst das nicht, dass man dies auch im Consumerbereich so celebrieren muss.
 
Zuletzt bearbeitet:
Zurück