Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Genau die umfragen haben es bewiesen.Und dass sie im moment ausverkauft sind,liegt daran weil sehr wenig davon Produziert wurden.So kann man die teuren Preise auch aufrecht erhalten.

Und wenn es so bleibt wie bisher dann sehe ich fürs erste den Tod für RT kommen.3D hatte sich auch nur zum teil durchgesetzt,nämlich nur im Kino und vielleicht noch für die Wissenschaft und bei der Medizin. RT könnte langfristig auch ein nischendasein erleiden.In ein paar bereichen wird RT ja schon beutzt.Darum werden gewisse dinge auch nie ganz aus der Welt verschwinden.Dennoch ist es eher schlecht wenn sich im moment fast kaum neue coole future sich durchsetzen.Denn dadurch bleiben innivationen auf der strecke.Aber ich habe mich ja schon daran gewöhnt das es ist wie es im moment so ist.

Und microsoft verdingt nicht an WIndows 10 sondern an der Cloud.Also brauchen sie in wirklichkeit garkein neues Betriebsystem raus bringen.Microsoft hat uns angelogen.Aber klar das machen sie ja nur um Geld dran zu verdienen.Mich lässt das alles aber kalt.Mir ist es scheis egal.
Micosoft wird und auch andere werden sich an mir die Zähne ausbeisen.Windows 10 ist auch nach 2020 für mich uninteressant.Und wer das thema sicherheit dann sagt,ist nicht sicher.Ja was ist schon sicher.Mit patches ist es doch auch nicht.Mit all den sicherheitslücken usw,was bringen da denn noch updates.Am ende wird windows wegen denen doch langsamer,träger und wenn es blöd läuft ,werden welche geschlossen und es entstehen wieder neue sicherheitslücken.Eine Tolle Welt in der wir heutzutage leben(überhaupt nicht),vieles ist beschissen,aber was kann man daran nur schon als einzelner schon machen.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Genau die umfragen haben es bewiesen.Und dass sie im moment ausverkauft sind,liegt daran weil sehr wenig davon Produziert wurden.So kann man die teuren Preise auch aufrecht erhalten.

Und wenn es so bleibt wie bisher dann sehe ich fürs erste den Tod für RT kommen.3D hatte sich auch nur zum teil durchgesetzt,nämlich nur im Kino und vielleicht noch für die Wissenschaft und bei der Medizin. RT könnte langfristig auch ein nischendasein erleiden.In ein paar bereichen wird RT ja schon beutzt.Darum werden gewisse dinge auch nie ganz aus der Welt verschwinden.Dennoch ist es eher schlecht wenn sich im moment fast kaum neue coole future sich durchsetzen.Denn dadurch bleiben innivationen auf der strecke.Aber ich habe mich ja schon daran gewöhnt das es ist wie es im moment so ist.

Und microsoft verdingt nicht an WIndows 10 sondern an der Cloud.Also brauchen sie in wirklichkeit garkein neues Betriebsystem raus bringen.Microsoft hat uns angelogen.Aber klar das machen sie ja nur um Geld dran zu verdienen.Mich lässt das alles aber kalt.Mir ist es scheis egal.
Micosoft wird und auch andere werden sich an mir die Zähne ausbeisen.Windows 10 ist auch nach 2020 für mich uninteressant.Und wer das thema sicherheit dann sagt,ist nicht sicher.Ja was ist schon sicher.Mit patches ist es doch auch nicht.Mit all den sicherheitslücken usw,was bringen da denn noch updates.Am ende wird windows wegen denen doch langsamer,träger und wenn es blöd läuft ,werden welche geschlossen und es entstehen wieder neue sicherheitslücken.Eine Tolle Welt in der wir heutzutage leben(überhaupt nicht),vieles ist beschissen,aber was kann man daran nur schon als einzelner schon machen.

Ich glaube nicht, dass RT sterben wird. Die Technik ist ausgereift, sie braucht außer einer kompatiblen Grafikkarte keine weitere Hardware (↔ 3D), sie ist recht schnell implementiert (PRB hat man ja eh schon, das kann man 1:1 in den Raytracer übernehmen, außerdem ist Raytracing sehr unkompliziert in der Programmierung) und hat außer dem Performance-Impact keine weiteren negativen Folgen. Nvidia hat 10 Jahre an der Entwicklung geforscht und jetzt ist es ausgereift. Über die letzten paar ms Rechenzeit kann man sich beschweren, aber wenn man mal begriffen hat, dass man sich nach etlichen Jahren endlich in der richtigen Größenordnung befindet, um Raytracing auf einem einzelnen Rechner in Echtzeit laufen zu lassen, das ist aller Ehren wert und eine riesen Errungenschaft. Schau dir doch mal Quake Wars: Raytraced an. Das ist eine Demo von vor 10 Jahren. Im Vergleich zu heutigen Spielen sieht das lachhaft schlecht aus und man brauche für eine Auflösung von 1280*720 ein Multi-Socket-System, um 15 FPS zu erreichen:
Quake Wars: Ray Traced - Wikipedia
Und jetzt sind wir so weit, dass wir es unter Full HD einigermaßen ruckelfrei auf einer Grafikkarte laufen lassen, während auch tausend andere Effekte über die selbe Grafikkarte berechnet werden und das Spiel im Vergleich unvergleichbar besser aussieht, als die Demo damals. Ist doch geil! So sieht Fortschritt aus!
Es ist halt noch neu. Natürlich läuft das nicht komplett problemfrei, geil wär's, aber es ist nunmal erst der Anfang.
Ich vermute, die Strategie ist eher, dass man Raytracing jetzt als Zuckerkirsche verkauft und den Anteil über die Jahre hinweg immer weiter ausbaut. Vielleicht ist in 10 Jahren Rasterisierung die Niesche für Spiele, die keinen Mehrwert mehr durch Raytracing bekommen und die eher für einen niedrigen Performance-Footprint ausgelegt sind oder eben der fallback-Modus für alte Hardware.
gRU?; cAPS
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ok könnte sein. Was mache ich denn nach 10 jahren. Wenn ich da noch immer rastaisierte spiele habe so wie heute, die grafikkarte aber fast alle schon raytraging kerne haben. Also sprich. Heute sind meine spiele 10 jahre oder älter. Und nach 10 jahren dann mindestens 20 jahre alt. Und will ne neue grafikkarte haben. Bis dahin ist aber windows 7 schon längst abgeschaltet. Und wenn ich dann noch immer windows 7 habe.

Da bin ich aber dann gespannt ob da die neuen grafikkarten mit reinen raytracing kernen da noch überhaupt drauf läuft oder mir das hochfahren verwert wird.

So ist das halt wenn man seid jahren bei software auf dem selben stelle die füße tritt.

Das wird ohnehin interessant ob da überhaupt noch was gehen wird.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ok könnte sein. Was mache ich denn nach 10 jahren. Wenn ich da noch immer rastaisierte spiele habe so wie heute, die grafikkarte aber fast alle schon raytraging kerne haben. Also sprich. Heute sind meine spiele 10 jahre oder älter. Und nach 10 jahren dann mindestens 20 jahre alt. Und will ne neue grafikkarte haben. Bis dahin ist aber windows 7 schon längst abgeschaltet. Und wenn ich dann noch immer windows 7 habe.

Da bin ich aber dann gespannt ob da die neuen grafikkarten mit reinen raytracing kernen da noch überhaupt drauf läuft oder mir das hochfahren verwert wird.

So ist das halt wenn man seid jahren bei software auf dem selben stelle die füße tritt.

Das wird ohnehin interessant ob da überhaupt noch was gehen wird.

Du kaufst ne APU von AMD oder Intel und genießt deine Spiele weiterhin. Vorausgesetzt diese laufen dann noch unter einem Windows X.

Btw. Müssten die meisten dieser 10 Jahre alten Spiele nicht sowieso schon unter einem Ryzen 2400G oder 2200G gut laufen (Crysis mal außen vor)?

Mensch ich spiele heute noch Spiele von 1979 auf meiner aktuellen Möhre, was sind da schon 20 Jahre:
akalabeth-png.1011304

(Akalabeth – Wikipedia)
 

Anhänge

  • Akalabeth.png
    Akalabeth.png
    11,5 KB · Aufrufe: 156
Zuletzt bearbeitet:
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Wow auf welchen betribsystem laufen denn deine spiele?

Ich spiele auch ältere spiele, die bis zu 15 jahre alt sind. Die laufen noch immer gut auf windows 7. Das ist schon ein stückchen her aber age of empire 4 oder war es 3. Das lief super auf win 7. Hägte nicht gedacht wie weit abwärtskompatipel das betriebsystem zu den alten spielen sind

Auch ein spiel aus 1998 läuft drauf. Nennt sich hell-copter. Nagut es produziert manchmal grafikfehler aber es läuft, das ist die hauptsache.


Ich will noch hugo die abenteuer spiele zocken. Mal sehen ob die mit win 7 auch laufen.

Ich werde irgemdwie zum retro zocker. Kein wunder das ich auch in zukunft kein windows 10 brauche.

Meine befürchtung ist, wenn ich irgemdwann mal eine modernste gpu haben will, das ich das wohl vergessen kann weil kein aktueller grafikkarten treiber mehr für win 7 kommen und die neuesten ja einen aktuelleren treiber haben wollen. Oder ist es der grafikkarte egal wie alt der grafikkartentreiber ist und läuft dennoch drauf?

In dem fall kann ich auch nach 10 jahren ne aktuelle grafikkarte holen. Mal sehen ob bis dahin ne gtx 1060 leistung bei 75 watt oder gar 50 watt gibt, möglich wird es ja ganz sicher sein.
Ne api kann kaum mit supersampling um gehen. Brauche die leistung.

Wobei mir wohlmöglich sogar die gtx 1050 ti leistung auch schon gereicht hätte. Aber noch weniger leistung, das bringt mir leider nix mehr.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Sie schließen sich nicht zwingend aus. DLSS könnte sogar der einzige Weg sein, dass RT in UHD einigermaßen performant läuft. So performant wie ein Shadow of the Tomb Raider in UHD auf einer XBOX One X mit 30 FPS.
Wie gesagt man muss auch hier die Tests abwarten.
Sehr interessante These.

Ich glaube nicht, dass RT sterben wird. Die Technik ist ausgereift, sie braucht außer einer kompatiblen Grafikkarte keine weitere Hardware (↔ 3D), sie ist recht schnell implementiert (PRB hat man ja eh schon, das kann man 1:1 in den Raytracer übernehmen, außerdem ist Raytracing sehr unkompliziert in der Programmierung) und hat außer dem Performance-Impact keine weiteren negativen Folgen.
Es bedarf keiner kompatiblen GPU, da rt theoretisch schon jetzt von jeder gpu/cpu berechnet werden kann. Damit es aber ausreichend flüssig läuft brauchst du, siehe Physix, spezielle Recheneinheiten, siehe RT cores. Von daher ist man leider auf extra HW angewiesen also sollte man auch zusehen das dieses feature möglichst barrierefrei und schnell etabliert wird, damit es nicht das gleiche Schicksal wie VR, 3d oder Physix erleidet.

MfG
 
Zuletzt bearbeitet:
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Echtes SSAA braucht man dort nicht mehr, aber etwas gegen Kantenflimmern trotzdem.
Und das was es bis jetzt an DLSS gesehen hat war kein AA auf 4k aufgesetzt sondern WQHD+Upscaler. Daher auch der Hinweis darauf dass man so RT in "4k" zusammen Schuster könnte.

Den zweiten DLSS Modus der auf echtem 4k noch gutes AA obenauf setzen soll hat afaik bis jetzt noch niemand gebencht/fotografiert.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

ich les immer wieder, dass man bei UHD keine Kantenglättung mehr bräuchte ...

Klar wenn du mit so nen geflimmer leben kannst brauchst du keine mehr:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Achte mal in den erste Sekunden Gameplay auf den Hintergrund an der Hauskante am hinteren Haus oder auf die Vegetation.

Hingegen mit Kantenglättung:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Man kann ja auch nicht so viel Leistung zerrende AA Methoden nutzen @ nativ 4K.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Dafür ist DLSS im Upsampling ja gedacht. Es soll wenig Leistung fressen (wie Checkerboardrendering) und somit höher FPS ermöglichen.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Doch kann man. Bei sehr alten spielen geht das schon. Aber da brauch man auch nicht umbedingt ne rtx 2080 ti. Da tut es ja auch ne gtx 1080 ti oder noch nidriger.

Leistung habe ich keine probleme sondeen mit der richtigen skalierung. Neistems skalieet sie falsch. Aber mut 2560x1440 geht das sehr wohl.
also sind extrem modi möglich bei AA. Aber nur bei alten spiele.


Bei neueren gehen keine hohen AA bei 4k. Weil die leistung zum teil nicht mal für 4k richtig reicht. Grafikkarten sind zu schwach dafür.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Klar wenn du mit so nen geflimmer leben kannst brauchst du keine mehr:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Achte mal in den erste Sekunden Gameplay auf den Hintergrund an der Hauskante am hinteren Haus oder auf die Vegetation.

Hingegen mit Kantenglättung:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Geflimmer ....das kommt aufs spiel drauf an, engine, Artstyle usw. es gibt durchaus games die kein AA brauchen.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Es kommt auf´s Spiel an wie ich finde, AA ist in 4k durchaus zu verschmerzen. es gibt Spiele den kann man das Flimmern auch nicht austreiben, Quake Champions ist so ein Fall bei mir.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Das beweist doch nur, dass Du auf diese Karte scharf bist. :ugly: :fresse:

Und Neid muss man sich hart verdienen, es ist halt die höchste Form der Anerkennung. :nicken:

Vorschlag:
1. Handyvertrag kündigen, Handy verkaufen = mehr Zeit zum Zocken = 300 € nach 3 Monaten
- "echte" Freunde besuchen Dich dann eh wenn Du eine RTX 2080ti FE Dein eigen nennst
Anrufe usw. würden eh nur störhaft wirken
2. nicht mehr Rauchen / Saufen = mehr Zeit zum Zocken = 200 - 400 € nach 3 Monaten
3. weniger Auto fahren = mehr Zeit zum Zocken = 200 € nach 3 Monaten
4. weniger und gesünder/geplanter Essen = 600 € nach 3 Monaten

So betrachtet erlangt man diese Grafikkarte für umme. :lol:


Ironie aus.

Die Rumheulerei ist dennoch erbärmlich.

Punkt 1:
100€ im Monat fürs Handy?
Mich kostet meins 5€ im Monat... ;)

Punkt 2:
Volle Zustimmung!

Punkt 3:
Wenn du mit dem Auto mehr zum "Spass" herum fährst, als zu einem wichtigen Zweck (z.B. auf die Arbeit kommen ;) ), dann solltest du das Auto ganz abschaffen, denn in Wahrheit brauchst du dann keines...davon kannste dir dann locker ein Dutzend 2080Ti kaufen ;)

Punkt 4:
Ist eindeutig falsch!
Wenn du dich gesünder ernähren willst, kostet das meist mehr (frisches Gemüse vom Händler, mageres, ausgesuchtes Fleisch vom Metzger, ect.)

mfg
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega



Ich bin generell scharf auf neue Hardware, brauche sie aber nicht unbedingt, weil auf meinem System jedes Spiel mit Max-Settings flüssig läuft - 1080p@144Hz sei Dank ;)[SUB][/SUB]Aber irgendwann - vielleicht in einem Jahr - brauche ich vielleicht schon eine Grafikkarte mit mehr VRam und dann möchte ich keine 1300 Euro für eine Grafikkarte aus dem Fenster schmeißen müssen, in dem Wissen einen überteuerten Mondpreis bezahlt zu haben :ugly:

Es gab da mal eine Zeit, da konnte man sich für 1300 Euro ein wirklich ordentlichen Gamer-PC aus der Oberklasse zusammenbauen :daumen:




Worauf sollte ich neidisch sein :huh:

>60" UHD TV + Spiele-Konsole + ein paar Spiele obendrauf = GTX2080Ti ;)

Klar, nicht die FPS, nicht die "Bildqualität", wie beim PC, aber die meisten "sehen" den Unterschied im Eifer des Gefechts sowieso nicht...außerdem fehlt bei der Rechnung auch noch der restliche PC und Monitor dazu (nochmal >1000€)

mfg
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

@Rollora Ich bewundere deine Geduld!

Von wegen Raytracing;: damit hab ich früher auf dem Amiga auch rumhantiert, da dauerte es teilweise Tage, um nur EIN EINZIGES Bild zu berechnen. Umso beeindruckender ist es, das jetzt in Echtzeit zu sehen.

Das war aber dann immerhin ein "echtes" RT-Bild!
Mit der RTX, ist es eher ein, im wahrsten Sinne des Wortes, fadenscheiniger "Effekt"... ;)

Bei RT wird "gefakt" (=weggelassen und hochgerechnet), bei DLSS wird "gefakt" (=was drauf gepackt/hochgerechnet).
Das klingt für mich alles eher nach einer "Verzweiflungstat", um eine noch nicht ausgereifte Technik, mit hohen Preisen in den Markt zu drücken, und für die Zukunft

mfg
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Das war aber dann immerhin ein "echtes" RT-Bild!
Mit der RTX, ist es eher ein, im wahrsten Sinne des Wortes, fadenscheiniger "Effekt"... ;)

Bei RT wird "gefakt" (=weggelassen und hochgerechnet), bei DLSS wird "gefakt" (=was drauf gepackt/hochgerechnet).
Das klingt für mich alles eher nach einer "Verzweiflungstat", um eine noch nicht ausgereifte Technik, mit hohen Preisen in den Markt zu drücken, und für die Zukunft

mfg

Das ist so einfach nicht richtig. In der aktuellen Spielegrafik wird alles gefaked, da ist der Begriff auch gerechtfertigt. Die Deep Learning-Filter sind aber weit mehr als einfach irgendwas auf den Bildschirm schmieren.
Noise Reduction ist bei Raytracing an der Tagesordnung und wird industrieweit überall gemacht. Einzig bei sehr primitiven Raytracing-Algorithmen (wo diffuses Raytracing nicht verwendet wird und überall eh nur ein Strahl gecastet wird, so wie beim Amiga) braucht man keine noise reduction, aber sobald man mal mehrere Strahlen berechnet, um weiche Schatten oder rauhe Spiegelungen zu berechnen, muss noise reduction auf irgend eine Weise her. Das Raytracing in den angekündigten Spielen ist um Größenordnungen komplexer, als das auf dem Amiga - so viel zu "richtiges Raytracing"... Entweder, man rechnet einfach so lange, bis das Ergebnis keine Abweichung mehr zeigt (das kann aber nach wie vor Tage dauern), oder man nutzt Filter. Das ist absolut nichts Neues.
Die Deep Learning Filter sind nur die wahrscheinlich leistungsstärksten Filter, die man in dieser Richtung je entwickelt hat und die sind der springende Punkt, warum Raytracing plötzlich so abartig schnell ist. Die sind nicht eine Verzweiflungstat, die sind der Dreh- und Angelpunkt hinter der Raytracing-Technik in den Nvidias, der Punkt, warum man Größenordnungen schneller ist, als noch vor einigen Jahren. Ja, das ist nicht mehr physikalisch korrekt, aber es ist verdammt noch mal besser, als alles, was es davor gab - und die Ergebnisse sehen besser aus als alles, was man in Rastergrafik je (diesmal wirklich) gefaked hat. Und nur so am Rande: wenn du mal genau drauf achtest, dann wirst du auch merken, dass deine Augen ein leichtes Bildrauschen haben. Drei Mal darfst du raten, warum du das im Normalfall nicht wahrnimmst.
Was DLSS anbelangt: da würde ich erst Mal auf die Ergebnisse warten. Aber an und für sich ist es auch keine schlechte Idee. Vor allem, wenn man es "umsonst" bekommt.
gRU?; cAPS
 
Zurück