Nvidia Turing: Geforce RTX 2060 im Final-Fantasy-XV-Benchmark

bei Gurdi wundert mich nichts mehr.:lol: Ich gehe fest davon aus das er 30FPS als flüssig ansieht, vielleicht sogar 20 :lol:
Vega liefert nicht einmal in WHQD anständige ergebnisse und ist häufig weit weg von konstanten 60FPS.
http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

Tja für den der nur Ultra auf Teufel komm raus kennt, für den mag das zutreffen ... Aber finde den Fehler doch selbst:

Ich kann alles auf ULTRA ballern und erreiche in FullHD nicht mal die 60 FPS und schiebe NVIDIA jede Menge Scheine in den Hintern, damit ich die 60 FPS erreiche:
rottr-2017-01-15-10-15-29-50-jpg.1020685


Oder ich verstehe mit den Reglern umzugehen und erreiche in WQHD locker mehr als 60 FPS ohne Mehrausgaben und großartige Abstriche bei der Grafik:
rottr-2017-01-15-11-36-59-80-jpg.1020686


Das PCGH immer in den höchsten Grafikstufen bencht sollte dir geläufig sein oder?
Vega liefert sehr wohl in WQHD mehr als 60 FPS. Bloß wer ULTRA-Benchmarks zu Rate zieht, der fällt immer wieder auf Marketingmaschinerie rein und verschwendet unnötig Geld für eine Grafik die er im Spiel nicht mal ansatzweise wahrnimmt.
Den die Ultra-Einstellungen haben nur einen Zweck: Hardware zu verkaufen.
 

Anhänge

  • ROTTR 2017-01-15 10-15-29-50.jpg
    ROTTR 2017-01-15 10-15-29-50.jpg
    601,1 KB · Aufrufe: 112
  • ROTTR 2017-01-15 11-36-59-80.jpg
    ROTTR 2017-01-15 11-36-59-80.jpg
    1 MB · Aufrufe: 117
Das PCGH immer in den höchsten Grafikstufen bencht sollte dir geläufig sein oder?
Vega liefert sehr wohl in WQHD mehr als 60 FPS. Bloß wer ULTRA-Benchmarks zu Rate zieht, der fällt immer wieder auf Marketingmaschinerie rein und verschwendet unnötig Geld für eine Grafik die er im Spiel nicht mal ansatzweise wahrnimmt.
Den die Ultra-Einstellungen haben nur einen Zweck: Hardware zu verkaufen.
Zumal der Unterschied zwischen "hoch" und "Ultra" optisch gar nicht so groß ist aber dafür perfomance mäßig einen gewaltigen Unterschied macht.

Der Moderator "Ion" hat darüber ja einen interessanten Artikel verfasst: http://www.pcgameshardware.de/Scree...tra-Details-V30-User-Special-von-Ion-1258006/

Wobei, scheinbar nach seinem Fazit, die Perfomance Unterschiede nicht mehr ganz so krass sind wie früher. Zumindest in seinen getesteten Spielen.
 
Zumal der Unterschied zwischen "hoch" und "Ultra" optisch gar nicht so groß ist aber dafür perfomance mäßig einen gewaltigen Unterschied macht.

Der Moderator "Ion" hat darüber ja einen interessanten Artikel verfasst: http://www.pcgameshardware.de/Scree...tra-Details-V30-User-Special-von-Ion-1258006/

Nicht nur einen sondern 3:
2013: http://www.pcgameshardware.de/Scree...-muessen-es-immer-Ultra-Details-sein-1075244/
2016: http://www.pcgameshardware.de/Scree...cials/Ultra-Details-User-Special-Ion-1197330/
2018: http://www.pcgameshardware.de/Scree...tra-Details-V30-User-Special-von-Ion-1258006/

Und an der Kernaussage hat sich immer noch nichts verändert.
 
Ich hab ohne Probleme mit ner R290 und ner 1060 in UHD gezockt und mit Vega sowieso, hab immerhin 3 Jahre ein UHD Panel gehabt.
 
Ja habe ich eben auch gesehen.;)

Und an der Kernaussage hat sich immer noch nichts verändert.
Nach seinem letzten Test kommt er ja zu einen etwas entschärften Fazit. Das die Unterschiede nicht mehr ganz so krass sind.

Und zur RTX 2060: Sie wird schon ihre Daseinsberechtigung haben und die GTX 1060 langfristig ersetzen. Nur das "RTX" hätte man sich wohl sparen können.:ugly:
 
Zuletzt bearbeitet:
Navi kommt irgendwann nächstes Jahr, da kann genauso gut ein Nvidia Refresh in 7nm kommen oder gar eine neue Gen in 7nm.
Auch dann ergibt es keinen Sinn.
Dieses Jahr ist fast vorbei, so dass diese "2060" erst nächstes Jahr kommen wird.
Es macht also überhaupt keinen Sinn für 6 Monate eine 2060 anzubieten, und dann parallel ab H2 2019 zu Navi eine Nachfolgegeneration zu Turing in 7nm. Diese 2060 müsste also mindestens für ein Jahr am Markt sein, vermutlich eher so lange wie die 1060, also fast 3 Jahre. Eine Refresh-Gen gibt es seit Kepler nicht mehr, und wird es vermutlich auch nicht mehr geben. Gleichzeitig haben sich auch die Produktzyklen verlängert. Seit Fermi gab es keinen so langen Produktzyklus mehr wie Pascal.

Es ist also möglich, aber unwahrscheinlich, dass Nvidia den Produktzyklus für Turing stark verkürzt.
 
Auch dann ergibt es keinen Sinn.
Dieses Jahr ist fast vorbei, so dass diese "2060" erst nächstes Jahr kommen wird.
Es macht also überhaupt keinen Sinn für 6 Monate eine 2060 anzubieten, und dann parallel ab H2 2019 zu Navi eine Nachfolgegeneration zu Turing in 7nm. Diese 2060 müsste also mindestens für ein Jahr am Markt sein, vermutlich eher so lange wie die 1060, also fast 3 Jahre. Eine Refresh-Gen gibt es seit Kepler nicht mehr, und wird es vermutlich auch nicht mehr geben. Gleichzeitig haben sich auch die Produktzyklen verlängert. Seit Fermi gab es keinen so langen Produktzyklus mehr wie Pascal.

Es ist also möglich, aber unwahrscheinlich, dass Nvidia den Produktzyklus für Turing stark verkürzt.
Möglichkeit 1 (eher unwahrschenlich):
Kann doch sein, dass Turing einfach nur einen 7nm Shrink bekommt und das war es bis 2020. Denn erst dann sind diese Monster GPUs wirklich wirtschaftlich. AMD wird in den nächsten 12 Monaten jedenfalls keine High End GPU rausbringen, die der 2080 Ti gefährlich wird (Fakt!). Da bleibt genug Zeit für eine 2060 erst in 12, dann in 7nm.

Möglichkeit 2 (halte ich für wahrscheinlicher):
Die 2060 wäre vielleicht schon lange releasebereit, wenn sich Nvidia nicht mit den 1060ern verkalkuliert hätte und die jetzt erst abverkaufen will. Passt ja auch zum Benchmark: Warum für 250 Euro eine 1060 kaufen, wenn man für 300 Euro eine 2060 kaufen kann, die 20% schneller ist, an der Nvidia wegen des großen Chips aber weniger verdient? Für 350 Euro kann man die 2060 derzeit auch nicht verkaufen, weil da noch die 1070 drin hängt, die evt. sogar schneller ist.

Es muss also erstmal eine Lücke geschaffen werden, damit man sich nicht ins eigene Fleich schneidet.
 
Zuletzt bearbeitet:
Wenn man die ersten Tests so überfliegt, dann wäre NVidia am besten damit beraten gewesen, das Feature auf eine Generation zu verschieben, bis auch die kleinste GPU genügend Leistung dafür mitbringt oder wenigstens ALLE Turing-GPUs mit einem maximalen RT-Kern-Ausbau zu versehen. Nicht dass das Karten unter der RTX 2080 Ti vermutlich viel bringen würde, aber man könnte dann wenigstens bedingt hübschere/realistischere Screenshots mit allen Turing-GPUs machen.

Das Feature wäre wohl am besten in Genres fern von Shootern aufgehoben: RPGs, Adventures, Rundenstrategie, etc. Dort spielten die FPS weniger stark eine Rolle, dafür bekäme man realistischere Grafik und man könnte für die Reflexionen vielleicht sogar sinnvolle Einsatzmöglichkeiten abseits der realistischeren Darstellung finden - z.B. für Rätsel, welche auf Spiegelungen aus verschiedenen Blickwinkeln setzen.
 
Definitiv, allerdings ist die Strategie auch stückweit an den Fertigungsprozess gebunden und das wird sich bei zukünftigen Karten auch immer mehr zeigen.
 
Das PCGH immer in den höchsten Grafikstufen bencht sollte dir geläufig sein oder?
Vega liefert sehr wohl in WQHD mehr als 60 FPS. Bloß wer ULTRA-Benchmarks zu Rate zieht, der fällt immer wieder auf Marketingmaschinerie rein und verschwendet unnötig Geld für eine Grafik die er im Spiel nicht mal ansatzweise wahrnimmt.
Den die Ultra-Einstellungen haben nur einen Zweck: Hardware zu verkaufen.

Kleiner Hinweis: PCGH bencht häufig gar nicht auf Ultra, sondern auf maxed out, also noch eine Stufe höher. ;)

Ausserdem ist bei dem "Spezialisten" ohnehin Hopfen und Malz verloren. :-_-:
 
Ich denke grade dir würde es gefallen, was ich im BF 5 SP so sehe. Habe mit der RTX 2080 FE auf nativen 1080p mit allen Settings inclusive RTX auf Ulta 50-60FPS mit 16 ms frametime konstant, 60FPS Bremse ist eingestellt für smoothe framerates lt. PCGH Artikel vom aktuellen Heft. Es sieht fantastisch aus und fühlt sich auch sehr flüssig an. Ich zocke z.B. Wildlands auch auf 1080p Ultra limitiert auf 60 FPS, sehr immersiv! Aber umsonst gibt es das halt nicht, ist klar.
 
Zuletzt bearbeitet von einem Moderator:
Wenn man die ersten Tests so überfliegt, dann wäre NVidia am besten damit beraten gewesen, das Feature auf eine Generation zu verschieben, bis auch die kleinste GPU genügend Leistung dafür mitbringt oder wenigstens ALLE Turing-GPUs mit einem maximalen RT-Kern-Ausbau zu versehen. Nicht dass das Karten unter der RTX 2080 Ti vermutlich viel bringen würde, aber man könnte dann wenigstens bedingt hübschere/realistischere Screenshots mit allen Turing-GPUs machen.

Die FPS mit RT skalieren mit der Anzahl der RT Cores, du glaubst doch selbst nicht, dass NVIDIA dann stolz erzählt, ja die 2080 Ti und die 2060 bringen gleich viel FPS, kauft euch die 2080 Ti obwohl sie 4 Mal so viel kostet.
 
Moment... Um die RTX in 1080P zu verteidigen willst du uns hier erzählen, dass man keinen Unterschied zwischen 1080P und 4K erkennt?
Sonst gehts dir noch gut?
Und auf der anderes Seite sieht man sehr wohl den Unterschied zwischen 60FPS und 144FPS?? Öhm... sicher, dass du hier nicht was verwechselst?

Und wie klappt das mit RTX? Da hast ja grade so 60FPS in 1080P
Merkt man da keinen Unterschied zu den 144FPS ohne RTX?
lolaway2.gif


Noch lächerlicher kann man das ja nicht verteidigen.
Ich sehe ja schon große Unterschiede auf meinem 1080P Monitor, wenn ich per VSR auf 1440P hochgehe. Und das sind eigentlich immer noch 1080P
s000.gif


Wahrscheinlich 100% der normal sehenden Menschen erkennen einen großen Unterschied zwischen nativen 1080P und nativen 4K, jedoch wahrscheinlich nur ein kleiner Prozentsatz tatsächlichen Unterschied zwischen 144FPS und 60FPS.
Genau ahahaha
YouTube


Und ich verteidige es nicht, ich hasse nur das herumgeheule hier. Jedes mal wenn ein neues Feature kam, war das exklusiv für die besten Karten und in wenigen Spielen. Nur hier wird rumgeheult als wärs nie passert und dabei geht es aber erstmals um was revolutionäres und nicht einfach drangepappte Schatten.

Und der Unterschied war bei Crysis das andere Spiele halt Grafisch keine so hohe Qualität wie Crysis nutzen da wurden halt Abstriche gemacht ... wenn man deiner Analogie folgt und auf RTX bezieht dann halt RTX OFF
zwinker4.gif
... und ja da ist eine 2080Ti verdammt flott. Aber dann frage ich mich ob ich für 30% Mehrleistung doppelt so viel Geld ausgeben will wie für eine 1080TI
zwinker4.gif
.

Crysis war am Anfang auch auf keinem PC auf Voll Spielbar.
Und für 30% mehr Leistung 100% mehr Zahlen ist doch normal in dem Bereich. Was hat denn eine Titan Xp ggü einer 1080 gekostet. Oder eine Titan V gegenüber einer 1080 Ti?

Und genau hier ist das - aktuelle, und in meinen Augen - Problem von Raytracing. Momentan bietet es keinen wirklichen Mehrwert, kostet aber sehr viel Leistung. Diese Leistung würde ich zb. lieber in zb. AA/DSR usw. investieren, einfach weil der optische Impact/die Immersion so für mich deutlich mehr ansteigen würde.

Und jetzt das zweite Problem von Raytracing: Realismus. In erster Linie soll die Grafik die Immersion anheben. Der Spieler soll durch eine bessere Darstellung einfach nur mehr/tiefer/intensiver "eintauchen" können - der Spielspaß soll ansteigen. Und genau hier ist der Knackpunkt: Es muß nicht zwingend echt sein, es muß sich für den Spieler nur echt geil anfühlen. Und hier kann es durchaus passieren, dass das klassische (schon etwas aufwendigere) Beleuchtungsmodell weniger mathematisch korrekt/realistisch ist, sich aber besser anfühlt als "partielles" Raytracing. Oder dass die Differenz zwischen "qualitätsreduziertem Raytracing" und der klassischen Darstellung so gering ist, dass der Spieler lieber in einer 4x höheren Auflösung (4k statt 1080p) spielt, und auf (häufig ja auch nur peripher wahrgenommenes) "realistischere" Spiegelungen/Schattenwürfe verzichtet.

Man sagt ja auch, auf dem Weg zur "perfekten" Grafik kommt erst noch mal ein Punkt, an dem das Empfinden der eigentlich besseren Darstellung beim Spieler nach unten abfällt, bevor es dann am Ende wieder ansteigt. Es bringt also nichts für minimale Veränderungen massive Performance zu opfern, wenn diese minimalen Veränderungen entweder kaum bis gar nicht, oder sogar negativ, wahrgenommen werden.
Also das Problem wirst du ab jetzt immer haben: Wir haben grafisch einen Stand erreicht, wo grafische Unterschiede eben nur noch über viel Performanceopferung erreicht werden, sofern man mehr richtung realismus gehen möchte.

Und wenn du erwähnst, dass man wohl nicht so kleine Schritte machen soll um in den Uncanny Valley zu fallen. Was soll man machen ? Große Schritte? Wie soll das gehen? Glaubst du Nvidia oder AMD zaubern plötzlich eine GPU raus die ist dann 100x so schnell, dafür sind dann plötzlich alle Effekte aktiv?
In den letzten 11 Jahren seit Crysis warens doch nur noch sehr kleine Schritte.
Es kann also durchaus passieren, auch wenn ich es nicht hoffe, dass die kommenden Spiele hier nicht die Raytracing-Wunder bringen, die die Spieler (und auch Besitzer von RTX-Karten) sich wünschen. In der Geschichte der Computergrafik gab es eigentlich zu jedem neuen Killer-Feature eine ganze Reihe an "Demonstrationen" (Benchmarks, Tech-Demos, Spiele), welche direkt zum Release (bzw. schon davor) oder ganz kurz danach verfügbar waren. Nicht so beim Thema RTX-Raytracing. Hier sah es ja schon in den Reviews mehr als nur mau aus.
Ja Techdemos gabs immer, aber gleich spielbares ließ oft lange auf sich warten. Und Techdemos haben wir auch heute. Die Star Wars RT Demo etwa. Nicht beeindruckt? Na dann hilft wohl wirklich nix mehr und RT ist nix für dich.
Nicht das ich falsch verstanden werde: Ich finde die RTX technisch super (den fehlenden Sprung beim RAM und die Preise aber shice^^), und ich finde auch Raytracing geil. Und ich hoffe hier auf enorme Sprünge in der nächsten Zeit. Aber ich habe so meine Zweifel, dass die erste Charge an RT-Karten hier so eine krasse Veränderung bringen wird, wie die Marketingabteilung von Nvidia "uns" verkaufen will.
Wi gesagt: wir haben nunmal (leider?) ein grafisches Niveau erreicht, bei dem man die Raytracing-Effekte fürs erste mal nur sehr teuer (was die Performance betrifft) implementieren kann und deshalb auch der Effekt selbst sehr klein ist (momentan).
Das wird sich mit der Zeit - aber nur sehr langsam - ändern.
um Raytracing führt kein Weg herum (in Zukunft). Nvidias Implementierung muss ich jetzt auch nicht haben, da proprietär angehaucht. Von daher ist mir lieber man geht diesen Schritt jetzt shcon und Entwickler müssen schon früh damit umgehen lernen, damit wir in 5 Jahren über diese schmerzvolle Schwelle drübergetreten sind und es schnell hinter uns haben.


Hier sollte man mMn die Erwartungen an die aktuelle Raytracing-Hardware/-Technik vielleicht erstmal nicht zu hoch ansetzen. ^^
Ich habe eher erst hohe Erwartungen an die 5nm Generation. Nichtmal an die 7nm Generation. Aber bis dorthin erwarte ich mir, dass die Entwickler etwas häifiger mit RT (ohne X) herumexperimentiert haben und eine Ahnung haben wie sie es visuell beeindruckend implementieren können. Aber diese Schritte die von Heute bis dahin passieren, kann man nicht überspringen. Das wäre dasselbe als hätte man gesagt Intel hätte doch seinen 10 Ghz Prozessor bringen sollen und dann plötzlich 16 Kerne.
Es muss nunmal die Softwareentwicklung an die Hardware angepasst werden.

Und genau dazu sind Early Adopter da
 
Zuletzt bearbeitet:
Naja, also, wenn die RTX 2080Ti schon nur 60FPS gerade so in 1080P schafft, wo liegt dann die 2060? Bei 20-25 FPS in 1080P?
Abgesehen davon frage ich mich gerade, wie es sein kann, dass eine Vega hinter einer Vega 56 im selben Benchmark liegen kann? Die 64er hat doch von allem mehr oder schneller? Das Bild hat allein deshalb einen, für mich, nicht ernst zu nehmenen Charakter! Hier kann doch etwas nicht stimmen ... ?
 
Und ich verteidige es nicht, ich hasse nur das herumgeheule hier. Jedes mal wenn ein neues Feature kam, war das exklusiv für die besten Karten und in wenigen Spielen. Nur hier wird rumgeheult als wärs nie passert und dabei geht es aber erstmals um was revolutionäres und nicht einfach drangepappte Schatten.

Raytracing mit schlechter Leistung ist aber einfach gefühlt nicht revolutionär. Die Karten sind teuer UND liefern nicht wirklich in Sachen Raytracing. Grandios. Schade für dich das Raytracing da keinen so wirklich umhaut. Mal ganz abgesehen davon dass wir bis jetzt nur RT-Unterstützte Reflektionen gesehen haben. Wenn die schon ******* laufen wäre ich mit Optimismus für Beleuchtung vorsichtig nachden es mehr Licht/Schatten Szenenanteile als Spiegelungsteile gibt. Vielleicht überrascht SotT. Ich würde aber von den Meinungen der Techpresse aus nicht darauf hoffen. Von dir hört man im Moment nur immer Mimimi, RT ist die Zukunft Mimimi warum beschwert ihr euch über Technik die auf den Markt geworfen wurde aber noch nich gut funktioniert. Kann ja sein das RT die Zukunft ist. Aber im Moment ist es langsam, teuer und nicht so spektakulär für viele. Und andere sind vielleicht sogar sauer weil die Konsumer als Beta-Tester misbraucht werden und auch noch scheiß viel Geld dafür zahlen sollen. Kann auch sein dass du anderer Meinung bist. Ist dann halt deine Meinung und deren Meinung, zwei völlig verschiedene Dinge.

Und zu dem LTT Video. Linus spricht da viel für sich selbst. Ob einem jetzt 4K oder 1080p wichtiger sind ist völlig Personenabhängig. Eine allgemeingültige Formel gibt es nicht. Klar ist 4K 144Hz besser als 4K 60Hz. Aber ganz ehrlich? Sehr viele Leute waren lange Zeit auf Konsolen mit weniger als 1080p und 30FPS zufrieden. Den Unterschied zwischen 4K und 1440p auf einem großen Monitor sieht man übrigens sowas von. Es ist toll wie du von dir, der den Unterschied sieht, automatisch auf alle anderen schließt. Genau wie du von dir, der Raytracing als den heiligen Gral ansieht, davon ausgehst, jeder muss das so sehen und alle anderen weinen nur. Ob jetzt Auflösung wichtiger ist oder Hz-Zahlen muss einfach jeder selbst wissen und es kommt auch darauf an was man spielt. Aber auch 144Hz ist mit Raytracing in 1080p kein Thema nachdem die Karten dafür die FPS nicht liefern.

Im Moment schaut es einfach so aus, dass die Leute lieber gute Rasterization mit ordentlichen FPS auf verschiedenen Auflösungen in bezahlbaren Grafikkarten haben wollen als experimentelle Features. Dem normalen User ist es mehr als scheiß egal welche Technik für die Grafik im Hintergrund werkelt, Hauptsache sie tut es mit ausreichend FPS zu einem annehmbaren Preis. Und aus Konsumer-Sicht ist das sogar völlig legitim und auch nicht verwerflich. Raytracing tut das nicht, und damit ist es nicht Marktreif und hat für viele auf dem Markt nichts verloren. Da kann Jensen Huang noch so oft sagen "it just works". Das war ja ziemlich offensichtlich eine Lüge.

1080p ist die am weitesten verbreitete Auflösung. 1080p@60Hz. Aber auch nur weil du das mit ca. 200€ GPUs bekommst. Raytracing ist teuer und langsam. Für die durchschnittlichen 1080p spieler sind 500-600€ schon zu teuer und 800-1200€ erst recht. Und damit sind einfach alle Turing-Karten für die "Normalnutzer" uninteressant. Eine neue bezahlbare Nvidia-Gen ging zugunsten von Early-Adopter Raxtracing drauf und viele Leute finden es *******. Vermutlich darunter viele die Upgraden wollten/wollen. Denen ihre Sache und das ist ok.

Du beschwerst dich über das Geweine aber von dir kommt auch nur mimimi.
 
Zuletzt bearbeitet von einem Moderator:
Raytracing mit schlechter Leistung ist aber einfach gefühlt nicht revolutionär. Die Karten sind teuer UND liefern nicht wirklich in Sachen Raytracing. Grandios. Schade für dich das Raytracing da keinen so wirklich umhaut. Mal ganz abgesehen davon dass wir bis jetzt nur RT-Unterstützte Reflektionen gesehen haben. Wenn die schon ******* laufen wäre ich mit Optimismus für Beleuchtung vorsichtig nachden es mehr Licht/Schatten Szenenanteile als Spiegelungsteile gibt. Vielleicht überrascht SotT. Ich würde aber von den Meinungen der Techpresse aus nicht darauf hoffen. Von dir hört man im Moment nur immer Mimimi, RT ist die Zukunft Mimimi warum beschwert ihr euch über Technik die auf den Markt geworfen wurde aber noch nich gut funktioniert. Kann ja sein das RT die Zukunft ist. Aber im Moment ist es langsam, teuer und nicht so spektakulär für viele. Und andere sind vielleicht sogar sauer weil die Konsumer als Beta-Tester misbraucht werden und auch noch scheiß viel Geld dafür zahlen sollen. Kann auch sein dass du anderer Meinung bist. Ist dann halt deine Meinung und deren Meinung, zwei völlig verschiedene Dinge.

Und zu dem LTT Video. Linus spricht da viel für sich selbst. Ob einem jetzt 4K oder 1080p wichtiger sind ist völlig Personenabhängig. Eine allgemeingültige Formel gibt es nicht. Klar ist 4K 144Hz besser als 4K 60Hz. Aber ganz ehrlich? Sehr viele Leute waren lange Zeit auf Konsolen mit weniger als 1080p und 30FPS zufrieden. Den Unterschied zwischen 4K und 1440p auf einem großen Monitor sieht man übrigens sowas von. Es ist toll wie du von dir, der den Unterschied sieht, automatisch auf alle anderen schließt. Genau wie du von dir, der Raytracing als den heiligen Gral ansieht, davon ausgehst, jeder muss das so sehen und alle anderen weinen nur. Ob jetzt Auflösung wichtiger ist oder Hz-Zahlen muss einfach jeder selbst wissen und es kommt auch darauf an was man spielt. Aber auch 144Hz ist mit Raytracing in 1080p kein Thema nachdem die Karten dafür die FPS nicht liefern.

Im Moment schaut es einfach so aus, dass die Leute lieber gute Rasterization mit ordentlichen FPS auf verschiedenen Auflösungen in bezahlbaren Grafikkarten haben wollen als experimentelle Features. Dem normalen User ist es mehr als scheiß egal welche Technik für die Grafik im Hintergrund werkelt, Hauptsache sie tut es mit ausreichend FPS zu einem annehmbaren Preis. Und aus Konsumer-Sicht ist das sogar völlig legitim und auch nicht verwerflich. Raytracing tut das nicht, und damit ist es nicht Marktreif und hat für viele auf dem Markt nichts verloren. Da kann Jensen Huang noch so oft sagen "it just works". Das war ja ziemlich offensichtlich eine Lüge.

1080p ist die am weitesten verbreitete Auflösung. 1080p@60Hz. Aber auch nur weil du das mit ca. 200€ GPUs bekommst. Raytracing ist teuer und langsam. Für die durchschnittlichen 1080p spieler sind 500-600€ schon zu teuer und 800-1200€ erst recht. Und damit sind einfach alle Turing-Karten für die "Normalnutzer" uninteressant. Eine neue bezahlbare Nvidia-Gen ging zugunsten von Early-Adopter Raxtracing drauf und viele Leute finden es *******. Vermutlich darunter viele die Upgraden wollten/wollen. Denen ihre Sache und das ist ok.

Du beschwerst dich über das Geweine aber von dir kommt auch nur mimimi.
Mit der Einstellung säßen wir alle noch vor Pong in Schwarz/Weiß ohne Kantenglättung.
 
Von dir hört man im Moment nur immer Mimimi, RT ist die Zukunft Mimimi warum beschwert ihr euch über Technik die auf den Markt geworfen wurde aber noch nich gut funktioniert. Kann ja sein das RT die Zukunft ist. Aber im Moment ist es langsam, teuer und nicht so spektakulär für viele. Und andere sind vielleicht sogar sauer weil die Konsumer als Beta-Tester misbraucht werden und auch noch scheiß viel Geld dafür zahlen sollen. Kann auch sein dass du anderer Meinung bist. Ist dann halt deine Meinung und deren Meinung, zwei völlig verschiedene Dinge.

Man diskutiert aber nicht mit solchen halbgaren Meinungen, das sollte man doch mittlerweile schon gelernt haben.
Wenn es dir nicht gefällt, dann kauf doch einfach nicht, aber bitte verschone uns doch mit deinem völlig deplatzierten Hate.
Wenn es wenigstens einigermaßen konstruktiv wäre, aber zu behaupten es würde nicht gescheit laufen, wenn gerade eine einzige Früh-Implementierung verfügbar ist, wo bereits massive Leistungsverbesserungen angekündigt sind, dann ist das einfach nur Polemik.
Diese Polemik basiert einzig und alleine auf den Preisen der RTX Karten.
Anstatt froh zu sein dass Nvidia das Risiko eingeht und sich den Fortschritt von Early Adoptern bezahlen zu lassen, mault man ständig nur herum.

Im Moment schaut es einfach so aus, dass die Leute lieber gute Rasterization mit ordentlichen FPS auf verschiedenen Auflösungen in bezahlbaren Grafikkarten haben wollen als experimentelle Features.

Eigentlich sieht es eher so aus, dass sich die ganzen AMD User kampagnenartig in solche Themen reinhängen und Threads zuspammen.
Wieso gibst du nicht zu, dass es einfach nur am Preis liegt und du dir die Karten eben nicht leisten willst?

Dem normalen User ist es mehr als scheiß egal welche Technik für die Grafik im Hintergrund werkelt, Hauptsache sie tut es mit ausreichend FPS zu einem annehmbaren Preis. Und aus Konsumer-Sicht ist das sogar völlig legitim und auch nicht verwerflich.

Nur interessiert langsam diese shice price-diskussion einfach nicht mehr.
Wir haben doch verstanden dass für die ewigen Nörgler der Preis nun zu hoch ist, was soll man denn da noch neues herauskitzeln?
Sei doch froh dass Leute diese Preise zahlen, dann kannst du später auch im 500 Euro Bereich 2 Gens später einer RT Karte kaufen.:ugly:
Was hat denn diese banale Preisdiskussion mit der Technik zu tun? Es findet RT doch jeder nur *******, weil er sichs nicht leisten kann.
Das ist eine typische Attitüde. " Wenn ichs mir nicht leisten kann, dann ist der High Tech Kram ´n Schmarrn."

Raytracing ist teuer und langsam.

Eigentlich ist Raytracing teuer und schnell, da du mit den Screenspace reflections keine saubere Spiegelungen bekommst.
Wenn du das mit der üblichen rastergrafik hintricksen willst, dann kostet das immens viel Leistung.
Aber auf solche Zusammenhänge achtet der typische Forennörgler nicht.

Mit der Einstellung säßen wir alle noch vor Pong in Schwarz/Weiß ohne Kantenglättung.

Ach was, RT gibts doch schon seit 40 Jahren.
Einfach in den Rückspiegel blicken.

https://www.youtube.com/watch?time_continue=1&v=LL2m3Sqp3JA
 
Zuletzt bearbeitet:
Man diskutiert aber nicht mit solchen halbgaren Meinungen, das sollte man doch mittlerweile schon gelernt haben.
Wenn es dir nicht gefällt, dann kauf doch einfach nicht, aber bitte verschone uns doch mit deinem völlig deplatzierten Hate.

Was hat das mit Hate zu tun zu sagen man sollte so eine Technik in einem späteren Stadium releasen? Wo ist das hate? Ohne Witz, hast du es so auf Fanboy-Krieg abgesehen dass du überall nurnoch Hater siehst?

Wenn es wenigstens einigermaßen konstruktiv wäre, aber zu behaupten es würde nicht gescheit laufen, wenn gerade eine einzige Früh-Implementierung verfügbar ist, wo bereits massive Leistungsverbesserungen angekündigt sind, dann ist das einfach nur Polemik.
Diese Polemik basiert einzig und alleine auf den Preisen der RTX Karten.
Anstatt froh zu sein dass Nvidia das Risiko eingeht und sich den Fortschritt von Early Adoptern bezahlen zu lassen, mault man ständig nur herum.

Nö, ich lass mich nicht gerne als Beta-Tester benutzen. So einfach. Das mich RT nicht vom Sockel haut hängt einfach an der Performance. Mit 600€ wäre ich im Beutebereich für ne 2070 (wenn ich mir wieder ne Karte anschaff). Aber für 1080p@60FPS ist es mir das Geld einfach nicht Wert. 1080p geht für mich garnicht. Abgesehen davon weiß ich zu schätzen, dass Nvidia ein Risiko eingeht und Raytracing pusht. Ich finde es einfach nicht gut das auf dem Stand zu releasen. Meine Vega LC will auch irgendwann in Rente. Aber wenn das so aussieht wird der Ersatz in 3 Jahren halt ohne RT eingebaut.

Eigentlich sieht es eher so aus, dass sich die ganzen AMD User kampagnenartig in solche Themen reinhängen und Threads zuspammen.
Wieso gibst du nicht zu, dass es einfach nur am Preis liegt und du dir die Karten eben nicht leisten willst?

Für eine 2080/ti mag das zutreffen, da hab ich auch keinen Schmerz mit das zu sagen. Für eine 2070 hätte ich mich durchaus erwärmen können (wenn mal noch so 2-3 Monate ins Land gegangen wären) wenn zumindest 1440p@60 mit RT und nem richtigen optischen WOW ohne Probleme drinnen gewesen wären. Aber wie gesagt. 500-600€ für 1080p@60, nö danke, ich passe. Aber die 2070 ist halt im Moment in genau der Preisregion in der ich kaufe. Auch wenn ich damit nicht zur Mehrheit gehöre.

Nur interessiert langsam diese shice price-diskussion einfach nicht mehr.
Wir haben doch verstanden dass für die ewigen Nörgler der Preis nun zu hoch ist, was soll man denn da noch neues herauskitzeln?

Dich interessierts nicht. Jetzt bist du natürlich auch die Welt.

Sei doch froh dass Leute diese Preise zahlen, dann kannst du später auch im 500 Euro Bereich 2 Gens später einer RT Karte kaufen.:ugly:
Was hat denn diese banale Preisdiskussion mit der Technik zu tun? Es findet RT doch jeder nur *******, weil er sichs nicht leisten kann.
Das ist eine typische Attitüde. " Wenn ichs mir nicht leisten kann, dann ist der High Tech Kram ´n Schmarrn."

Immer dieses dumme elitäre gehabe von dir. Wie gesagt. Mit ner Vega 64 LC im Rechner und ner Vega FE in der Workbench kann ich getrost sagen, dass ich's mir leisten kann. Ich bin nur kein Großkotz der das alle 3 Minuten erwähnen muss.

Eigentlich ist Raytracing teuer und schnell, da du mit den Screenspace reflections keine saubere Spiegelungen bekommst.
Wenn du das mit der üblichen rastergrafik hintricksen willst, dann kostet das immens viel Leistung.
Aber auf solche Zusammenhänge achtet der typische Forennörgler nicht.

Also Hitman 2 hat gute Non-RT Reflektionen und schaut gut aus und läuft bedeutend besser. Wie gesagt. RT kann kommen. Wenn es nicht nur auf 1080p läuft. Ist mir 1000x lieber als die räudige RT-Performance.
 
Zuletzt bearbeitet von einem Moderator:
Na ja wenn ich zweimal auf die Vega Versprechen reingefallen wäre wie du, wäre ich natürlich jetzt erstmal vorsichtig. Bin ich nicht. Bin von der RX580 gleich auf ne GTX 1080 gewechselt. Vega konnte ich mir nicht schön reden. Und gottseidank war sie ja auch Anfangs gar nicht verfügbar. Als sie verfügbar war war schon klar, dass Vega für nichts besonderes taugt was andere nicht mit weniger Aufwand Out of the box hinbekommen. RTX war pünktlich verfügbar, leistet wie versprochen und Raytracing ist auch schon verfügbar. Aber der Preis ist hoch, der Spaß aber auch, für mich hat sich jeder der 850 Euros schon bezahlt gemacht. Hab einfach n bisschen altes Zeug verkauft und gut ists.
 
Zurück