Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

Ja, ich kann jedem an dieser stelle HBAO+ ans herz legen. Der opische mehrwert ist gravierend in alten klassikern ala Modern Warfare 2 usw. usw., probiert es einfach mal aus.

HBAO+ Compatibility Flags Thread | guru3D Forums

naja, wenn man mal Verbrauch (weniger FPS) und die Grafikverbesserung sieht ist es ganz nett, aber in Spielen wo ich gern +100 FPS haben möchte ist das die erste Schraube an der ich drehe (Battlefield / Rainbow Six )
 
Mal eine Summe Frage aber könnten diese zusätzlichen Tensor/Ray-Tracing-Kerne theoretisch auch zukünftige Physikeffekte (Haarberechnung und co.) übernehmen?
 
Viel spannender finde ich die Intel Trailer hier:
Intel Graphics auf Twitter: "We will set our graphics free. #SIGGRAPH2018… "

Das ist so großspurig, das passt gar nicht zu Intel. Hat man wohl neue PR Menschen oder eine andere PR Abteilung für die GPUs.
Jedenfalls würde es mich freuen, einen dritten Player in der Runde zu haben, wenngleich Intel mit enormen Rückstand startet was die Software betrifft (leider hat man seit der Einführung der HD Graphics, die technologisch gesehen gut sind, aber die Spieleunterstützung dazu leider nicht geschlafen).
Immerhin sollte man mit 7nm wieder einen großen Prozessvorteil haben und so in 4-5 Jahren auch den Einfluss von Raja + Budget merken
 
Viel spannender finde ich die Intel Trailer hier:
Intel Graphics auf Twitter: "We will set our graphics free. #SIGGRAPH2018… "

Das ist so großspurig, das passt gar nicht zu Intel. Hat man wohl neue PR Menschen oder eine andere PR Abteilung für die GPUs.
Jedenfalls würde es mich freuen, einen dritten Player in der Runde zu haben, wenngleich Intel mit enormen Rückstand startet was die Software betrifft (leider hat man seit der Einführung der HD Graphics, die technologisch gesehen gut sind, aber die Spieleunterstützung dazu leider nicht geschlafen).
Immerhin sollte man mit 7nm wieder einen großen Prozessvorteil haben und so in 4-5 Jahren auch den Einfluss von Raja + Budget merken

Fände es auch super wenn wir da endlich mal mehr Abwechslung in dem Segment bekommen würden.
 
Die 2080 wird teurer und die 1080ti bleibt im Lineup, die MSRP wird um 100Dollar gesenkt.
Auf gut deutsch, die 2080 wird minimal schneller, etwas sparsamer, hat weniger Speicher und wird teurer.Oben drauf gibts Raytrace.

Es wird wie bei jeder gen sein. GTX 780=GTX970; GTX 980ti=GTX1070;GTX 1080=RTX2070.
So wird es bleiben und titel mit Raytracing werden noch besser laufen.
 
6x schneller bezog sich also tatsächlich nur auf Raytracing wie schon erwartet. Naja bis Raytracing wirklich in Spielen ankommt wird noch einige Zeit ins Land ziehen.
Am Ende sieht es nach keiner allzu großen Leistungssteigerung aus, bin mal eher auf die Preise gespannt.
 
Es wird wie bei jeder gen sein. GTX 780=GTX970; GTX 980ti=GTX1070;GTX 1080=RTX2070.
So wird es bleiben und titel mit Raytracing werden noch besser laufen.

Da passt aber was nicht bei dir. Die 780 war sicher nicht so schnell wie die 970.Alle haben erwartet das die 2070 so schnell wird wie die 1080TI. Danach sieht es aber nicht aus.
Wenn die Gerüchte zur Speicherbestückung der 2070 auch noch passen, hat die gerade mal 7Gb an nem beschnittenen Interface.
Das wäre wirklich eine Lachnummer.
 
ich denke 2070+2080 werden 8gb bekommen, vlt mit anderem speicherdurchsatz

Geh ich auch von aus, aber man muss sagen das der Adored Leak bisher ziemlich gut passt. Daher ist es nicht unwahrscheinlich das die 7Gb auf der 2070 ebenfalls zutreffen.
Hinzu kommt dass das PCB ja eigentlich kaum eine andere Möglichkeit lässt sonst den Speicher zu reduzieren als das Interface zu beschneiden.
Hat auch keiner geglaubt das die 2080 mit "nur" 8Gb kommt, von daher.
 
Viel spannender finde ich die Intel Trailer hier:
Intel Graphics auf Twitter: "We will set our graphics free. #SIGGRAPH2018… "

Das ist so großspurig, das passt gar nicht zu Intel. Hat man wohl neue PR Menschen oder eine andere PR Abteilung für die GPUs.

Ganz einfach:
-Intel hat jetzt Lügenbaron Raja Koduri im eigenen Team. Da wird wie gewohnt die Welt versprochen und am Ende nur enttäuschend geliefert. Einfach ignorieren bis Intel wirklich etwas bringt. Zwei Jahre vor Release hypen ist so lächerlich, es geht kaum peinlicher! Erinnert böse an Vega.

BTT:
-Bei Nvidia hält sich der Hype wenigstens in Grenzen. Da hat man wenige Wochen vor Release einen starken Anstieg an Fakes und Gerüchten. Dann kommt Event 1+2 und die Karten sind da.

Ist mir persönlich lieber als die Großmaul-Mentalität anderer Firmen, die am Ende doch wieder auf den letzten Plätzen landen.
 
Zurück