Hab meine 4070 für ~ 600 Euro bekommen, müsste nichts extra zahlen.
...
Die Rede war ja explizit von DLSS das extra kosten soll. Wenn überhaupt gibt es einen Gesamtpreis für die GPU und den zugehörigen Software Stack.Du hast das (kapitalistische Wirtschafts-)System in dem wir leben anscheinend nicht verstanden...
Sind wir froh, dass sie nicht 700 kostet.Deshalb, und aus anderen Gründen, kostet die 4070 auch 600€ und keine 400, oder 500€.
Für die verschiedenen LODs gibt es Mods. Klar ist eine offizielle Lösung besser, aber immerhin lässt sich nachhelfen.
Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer ist. Kenne nicht mal persönlich jemanden der 4000er karte hat dümpeln alle bei 1er und 2er reihe noch rum^^Ich erinnere mich damals an viele Diskussionen
2018, die RTX Serie kam
a) niemand braucht RT, sieht teils schlechter aus als Rastern und frisst zu viel Performance
b) niemand braucht DLSS sieht schlechter aus als nativ
Ich bin kein Early Adopter aber mir war klar, dass es DLSS oder ähnliches braucht um RT den notwendigen Schub zu geben und, dass es RT braucht für grafischen Fortschritt. Aber die Spiele von damals waren halt auch nur Rasterspiele mit RT drangepappt und somit war der Effekt teilweise lächerlich überschaubar. Reflexionen halt.
Aber die Zeit und die Algorithmen haben sich weiterentwickelt. Mit der 4090 hat man endlich genug Power Raytracing vorwärts zu bringen, in ein paar Jahren ist so eine Karte hoffentlich auch leistbar und die nächste Konsolengeneration hat hoffentlich auch genug Power (am besten doppelte 4090 RT Leistung) . DANN wird Raytracing endlich ein massenphänomen und niemand mehr wird sagen "RT und AI Upscaling braucht niemand"
Ich hatte in meinen bisherigen Titeln Raytracing immer aktiviert, dabei nutze ich nur eine RTX 3060.Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer sind
So, wie du es beschrieben hast, hast du impliziert, dass Ampere Karte nicht in der Lage wären DLSS+FG zu bieten.Wo sage ich dass der Funktionsumfang dafür verantwortlich ist?
Ja, genau.Was meinst Du mit RTX API? Etwa BEVOR es die RT-Erweiterung in DirectX gab?
Es geht nicht um technische Details, sondern...RTX Voice ist ja wohl nicht vergleichbar mit den Anforderungen für komplett KI-berechnete Frames innerhalb weniger Millisekunden...
...darum, dass Nvidia künstlich Features beschränkt und dabei auch nicht zurück schreckt zu lügen (RTX Voice nutze Tensor Kerne). Dementsprechend kannst du dir sparen Nvidia zu verteidigen.Deine Beispiele sind beide sowas von an den Haaren herbeigezogen und absolut nicht vergleichbar. Natürlich entwickelt Nvidia ihre Features erst mal für die aktuelle Gen und schaut dann ob es auf älteren Karten läuft. Das ist einfach nur logisch. Wie "RTX" auf Pascal performed wissen wir alle, diese Freigabe hätten sie sich sparen können.
So, wie du es beschrieben hast, hast du impliziert, dass Ampere Karte nicht in der Lage wären DLSS+FG zu bieten.
Ja, genau.
Es geht nicht um technische Details, sondern...
...darum, dass Nvidia künstlich Features beschränkt und dabei auch nicht zurück schreckt zu lügen (RTX Voice nutze Tensor Kerne). Dementsprechend kannst du dir sparen Nvidia zu verteidigen.
Ob die Leistung von GTX Karten reicht oder nicht, sollte jeder für seinen Anwendungsfall selbst entscheiden können.
Stimmt schon, aber wenn man einmal lügt sind beim nächsten mal halt zweifel da.Nur weil Nvidia mal geflunkert hat (RTX Voice) heißt das nicht dass sie immer und überall flunkern.
Auch wenn viele sich darüber immer aufgeregt habe kann ich das nicht verstehen, wäre doch egal gewesen wenn die Leistung und der Stromverbrauch gut gewesen wären oder ?Oder unterstellst Du AMD auch aufgrund des Bulldozer-Falls immer zu flunkern was die Anzahl der Cores angeht?
Stimmt schon, aber wenn man einmal lügt sind beim nächsten mal halt zweifel da.
Es geht um das Prinzip der "Sippenhaft". Irgendwer lügt, und das bedeutet dass alle weiteren Aussagen auch gelogen sein sollen. Da ist es völlig egal welches Beispiel ich bringe, jeder Hersteller hat mal geflunkert und somit tätigt keiner mehr valide Aussagen, wenn man der Logik folgt.Auch wenn viele sich darüber immer aufgeregt habe kann ich das nicht verstehen, wäre doch egal gewesen wenn die Leistung und der Stromverbrauch gut gewesen wären oder ?
Korrekt.Mal davon ab egal ob Nvidia AMD oder Intel ganz ehrlich ist sowieso keiner von denen wenn sie meinen das würde den profit erhöhen.
Dem Wortlaut nach kann man der Logik folgen, dass die (mangelnde) Leistung eine Rolle spielt.Dann trete doch den Gegenbeweis an, sollte ja kein Problem sein. Aktuell ist mein Stand: FG funktioniert nur auf Ada aufgrund der besseren OFA.
Es ging mir nicht um AMD, sondern um GTX Karten.Und was hätte Nvidia Deiner Meinung nach tun sollen? Sie haben eine eigene API geschrieben um RTX Features in Spielen zu ermöglichen. Zu dem Zeitpunkt HATTE AMD KEINE RT-Accelerators (wir sprechen hier von RDNA1).
Davon abgesehen ist eine Nvidia-spezifische "RTX-API" sehr sicher nicht nutzbar auf RT-Einheiten eines anderen Herstellers.
Somit ist Dein Argument kompletter Unsinn, selbst wenn die "RTX-API" offen gewesen wäre, niemand hätte sie nutzen können. Außerdem musste Nvidia damals Pionierarbeit leisten und den Entwicklern bei der Integration helfen.
Und wenn Du jetzt kommst und sagst "Nvidia hätte die API ja AMD kompatibel machen können" lache ich mal herzlich und laut.
Dein Kommentar entbehrt nicht einer gewissen Ironie, da RTX Voice über Mods lauffähig gemacht wurde und Nvidia daraufhin dieses Feature bis zur GTX600 freigeschaltet hat. Als ich RTX Voice mit meiner Karte Jahre später testen wollte, ist die Software von Nvidia grundsätzlich beim Starten abgestürtzt. Das gleiche ist bei Freunden passiert (z.T. mit anderen Karten). So viel zu deinem zweiten Versuch Nvidia zu verteidigen.Nö, spare ich mir nicht. Wenn ich ein neues Feature für unsere Software entwickle, dann release ich das erst wenn es gut läuft. Sonst bekomme ich diverse Bug-Meldungen und darauf hat niemand Lust.
Das kann man nur spekulieren. PCGH hat bei der 4090 beobachtet, dass bei sehr hohen Fps FG bremsen kann. Wie die Leistung von Ampere Karten bei FG in der Praxis ausfällt, ist ohne Info von Nvidia kaum einzuschätzen. Der Fakt, dass Ampere Hardwareeinheiten dafür bereits hat, kann darauf hindeuten, dass das Marketing den Nachteil zu einem Vorteil zu verwandeln versucht, in dem man FG nur für Ada Karten freischaltet, nachdem es möglicherweise für Ampere nicht rechtzeitig fertig wurde, oder die Performance falsch eingeschätzt wurde oder oder oder.Was also wenn FG auf Ampere Karten mehr Probleme (deutlich höherer Input Lag, Frame Drops, etc.) macht? Das Feature wäre DOA. Oder kannst Du den Gegenbeweis antreten?
Ich prangere an, dass Nvidia Software Features an Hardware knüpft, ohne dass es immer eine technische Notwendigkeit gibt. Wieso man das als Kunde verteidigen sollte, entzieht sich mir.Nur weil Nvidia mal geflunkert hat (RTX Voice) heißt das nicht dass sie immer und überall flunkern. Oder unterstellst Du AMD auch aufgrund des Bulldozer-Falls immer zu flunkern was die Anzahl der Cores angeht?
Dem Wortlaut nach kann man der Logik folgen, dass die (mangelnde) Leistung eine Rolle spielt.
Es ging mir nicht um AMD, sondern um GTX Karten.
Dein Kommentar entbehrt nicht einer gewissen Ironie, da RTX Voice über Mods lauffähig gemacht wurde und Nvidia daraufhin dieses Feature bis zur GTX600 freigeschaltet hat. Als ich RTX Voice mit meiner Karte Jahre später testen wollte, ist die Software von Nvidia grundsätzlich beim Starten abgestürtzt. Das gleiche ist bei Freunden passiert (z.T. mit anderen Karten). So viel zu deinem zweiten Versuch Nvidia zu verteidigen.
Das kann man nur spekulieren. PCGH hat bei der 4090 beobachtet, dass bei sehr hohen Fps FG bremsen kann. Wie die Leistung von Ampere Karten bei FG in der Praxis ausfällt, ist ohne Info von Nvidia kaum einzuschätzen. Der Fakt, dass Ampere Hardwareeinheiten dafür bereits hat, kann darauf hindeuten, dass das Marketing den Nachteil zu einem Vorteil zu verwandeln versucht, in dem man FG nur für Ada Karten freischaltet, nachdem es möglicherweise für Ampere nicht rechtzeitig fertig wurde, oder die Performance falsch eingeschätzt wurde oder oder oder.
Ich prangere an, dass Nvidia Software Features an Hardware knüpft, ohne dass es immer eine technische Notwendigkeit gibt. Wieso man das als Kunde verteidigen sollte, entzieht sich mir.
Um AMD geht es hier nicht, deswegen nur kurz bemerkt, dass die bei Bulldozer immerhin mit offenen Karten gespielt haben und "nur" bei ihrer Definition, was Kerne sind, sich zu weit aus dem Fenster gelehnt haben. Der Funktionsumfang der Kerne war öffentlich bekannt.
Dennoch gibt es keinen Hinweis, dass die Umsetzung von FG durch den Funktionsumfang der Recheneinheiten eingeschränkt wurde, sondern rein der Leistung wegen. Edit: ninja'd von @Krabonq
Dieses Vorgehen ist bei Nvidia nicht neu, dass sie Features einfach softwareseitig sperren, siehe RTX Voice und die RTX API Erweiterung. Beides wurde irgendwann später für Pascal freigegeben, obwohl man zum Launch von Turing erklärt hat, es gebe eine Hardwareanforderung für beides.
sagt ja auch niemand, lies nochmal genau.Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer ist. Kenne nicht mal persönlich jemanden der 4000er karte hat dümpeln alle bei 1er und 2er reihe noch rum^^
Foren sind immer noch nicht die masse
siehe obenWas bringt es wenn die 4090 genug leistung hat gefühlt den rest kannst in tonne kloppen. mit 6090 gibts dann Rt super duper potter wo dann die alten wieder zu schwach sind. Die sollen lieber mal lösungen bringen wo die masse auch hat so geht das nur langsam vorwärts.
Bis Rt mal auf 300€ karten läuft gibt es wieder neuere sachen wo angeblich jeder braucht und es geht von vorne los.sagt ja auch niemand, lies nochmal genau.
Ich hab im Prinzip gemeint: mit der 4090 haben wir jetzt eine Baseline für RT, davor wars für Early Adopter.
Ich hab nicht geaagt endlich haben alle RT Fähige Karten.
Das kommt natürlich erst wenn die 4090 RT Leistung in Karten bis 300 Euro vorhanden ist, aber Entwickler können schon mal damit arbeiten
siehe oben
Das kommt auf die Ansprüche und das Game an. Metro EE und Cyberpunk mit Raytracing auf mittlerer Einstellung und DLSS laufen wunderbar auf einer 3060...Bis RT mal auf 300€ Karten läuft gibt es wieder neuere Sachen
Blödsinn, RT ist der Ansatz für die nächsten 30 Jahre,Bis Rt mal auf 300€ karten läuft gibt es wieder neuere sachen wo angeblich jeder braucht und es geht von vorne los.
mal abwarten sehen wir dann ja. Gab schon vieles wo angeblich der ober knaller war^^Blödsinn, RT ist der Ansatz für die nächsten 30 Jahre,
da gibts nix zum Abwarten, nach 30 Jahren Rastern ist jetzt Hybrid mit RT dran.mal abwarten sehen wir dann ja. Gab schon vieles wo angeblich der ober knaller war^^
Raytracing wird bzw ist zum Teil der neue Standard.mal abwarten sehen wir dann ja. Gab schon vieles wo angeblich der ober knaller war^^