Nvidia Turing: Geforce RTX 2070 im 3D Mark Timespy der GTX 1080 auf den Fersen

Naja...wenn man bedenkt dass eine GTX 1070 aus der Vorgängergeneration ungefähr eine Leistung einer GTX 980ti hat, ist die aktuelle RTX 2070 wirklich nichts besonders. Vor allem zu den Preis von 519€. RTX2070=GTX 1080ti wäre eigentlich angesagt gewesen.
 
Also ich sehe die 2070 nicht so als Entäuschung wie viele hier. Klar erwartet man einen Fortschritt in der Rohleistung, wenn man von einer Generation in die nächste wechselt, aber hier ist es jetzt mal so, dass man für den gleichen Preis eben ähnliche Leistung bekommt.... WENN man die Zusatzfeatures einmal außen vor lässt.
Nun ist es so, dass solche Sachen wie die RT und die Tensorcores bisher kaum Verwendung finden. Sind diese erstmal entsprechend in die Engines implementiert, erwarte ich schon einen Zuwachs der Leistung. Verschiedene Features können von den normalen Cores oder gar von der CPU abgenommen werden und werden so auf die spezialisierten Cores umgelegt werden, was wiederum Ressourcen auf der Basis für anderes freischafft.
Zum Release einer neuen GPU-Generation erwarte ich sowas nie.
Ich sehe die RT und TCs als wirklichen Zugewinn, die in Zukunft einiges ermöglichen können. Aber eben auch nur bei den Leuten die die entsprechende Hardware dann einsetzen. Aus der Sicht eines Entwicklers sehe ich die Möglichkeiten und freue mich ehrlich schon darauf die Cores zu reizen und auszunutzen, eventuell sogar zweckentfremdet zu verwenden.
Beschäftigt man sich nämlich mal etwas mehr mit OpenCL oder Cuda und der Technik in den Cores, sieht man, dass diese nicht so strikt nur dem Raytracing oder dem Deeplearning zuzuordnen sind, sondern auch bei entsprechender Programmierung anderweitig verwendet werden können.
Lasst etwas Zeit verstreichen, die Engines für die aktuellen Features reifen und ihr werdet ganz anders reden.

Aber nicht mit der Einsteigerkarte, da musst du schon tiefer in die Tasche greifen. Und wenn du 800 über hast dann spiel eben mit RT in FullHD. Wir verstehen uns?
 
Also ich sehe die 2070 nicht so als Entäuschung wie viele hier. Klar erwartet man einen Fortschritt in der Rohleistung, wenn man von einer Generation in die nächste wechselt, aber hier ist es jetzt mal so, dass man für den gleichen Preis eben ähnliche Leistung bekommt.... WENN man die Zusatzfeatures einmal außen vor lässt.
Nun ist es so, dass solche Sachen wie die RT und die Tensorcores bisher kaum Verwendung finden. Sind diese erstmal entsprechend in die Engines implementiert, erwarte ich schon einen Zuwachs der Leistung. Verschiedene Features können von den normalen Cores oder gar von der CPU abgenommen werden und werden so auf die spezialisierten Cores umgelegt werden, was wiederum Ressourcen auf der Basis für anderes freischafft.
Zum Release einer neuen GPU-Generation erwarte ich sowas nie.
Ich sehe die RT und TCs als wirklichen Zugewinn, die in Zukunft einiges ermöglichen können. Aber eben auch nur bei den Leuten die die entsprechende Hardware dann einsetzen. Aus der Sicht eines Entwicklers sehe ich die Möglichkeiten und freue mich ehrlich schon darauf die Cores zu reizen und auszunutzen, eventuell sogar zweckentfremdet zu verwenden.
Beschäftigt man sich nämlich mal etwas mehr mit OpenCL oder Cuda und der Technik in den Cores, sieht man, dass diese nicht so strikt nur dem Raytracing oder dem Deeplearning zuzuordnen sind, sondern auch bei entsprechender Programmierung anderweitig verwendet werden können.
Lasst etwas Zeit verstreichen, die Engines für die aktuellen Features reifen und ihr werdet ganz anders reden.

Ja klar. Ich schmeiss den VA 144hz WQHD Schirm weg und kauf mir ein FULL HD 60 Hz Monitor, welch ein Zugewinn...
 
Die vernünftige Reaktion wäre ein klares NEIN DANKE und der damit verbundene Konsumverzicht

Du vergisst, dass viele Gamer z.B. noch auf einer 970 oder 780 unterwegs sind und seit längerem ein Update planen. Klar kaufen die jetzt eine 2070 und keine 1080 zum gleichen Preis, da die 2070 mehr Features unterstützt und einen Ticken schneller ist. Also nicht jede verkaufte Turing Karte geht an einen Ex-Pascal Besitzer. Ich werde schön bei meiner 1080 bleiben, keine Angst...
 
Uhm, ihr missversteht das wohl etwas oder seht es etwas einseitig, vermute ich zumindest.
Auf "normaler" Basis könnt ihr doch mit gewohnter Leistung spielen, also eure gewohnten FPS und Einstellungen. Nutzt ihr die Zusatzfeatures wie RT, bekommt ihr optischen Zugewinn, was selbstverständlich auf die FPS drückt, was jedoch noch mehr drücken würde, wenn nicht die spezialisierten Kerne vorhanden wären.
Ich lese mich nun schon geraume Zeit eben von der Seite eines Entwicklers her ein in die Technik, die APIs und die Möglichkeiten und sehe einfach, dass wenn man zum Beispiel die Tensorkerne für die Matritzenrechnungen der Engine nutzt, bekommt man auf den normalen Kernen wiederum mehr Ressourcen frei für andere Arbeiten und das sogar recht massiv, weil die TC einfach wahnsinnig schnell sind. Sie können eben nicht nur für Deeplearning verwendet werden.
Oder man nimmt sie für die KI und bekommt so wiederum anderweitig Ressourcen frei zum Beispiel für die Datenaufbereitung für die GPU.
Die Möglichkeiten und Verwendungsmöglichkeiten sind vielfältig. Kommt mal von dem Trip runter, das RTs wirklich nur für Raytracing genutzt werden können und die Tensors nur fürs Deeplearning. Sie sind dafür vielleicht maßgeblich nutzbar, aber eben nicht nur.
Ich selber nutze in meinen Programmen jede Ressource aus, die sich mir bietet und für entsprechende Bereiche die jeweils bestmögliche.
Also wartet doch bitte erstmal ab bis die Engines wirklich an sowas angepasst sind.
 
Ich weiß nicht was ich schlechter finde: Die 2070 oder die Überschrift über diesem Artikel. Naja, kommt ja auch beides von der derselben Firma.. SCNR
 
2070 ist weder Brot noch Fleisch, ich konnte damals mit meiner 1070 auch nicht wirklich durchgehend über 100 FPS halten mit meinen 165 WQHD Bildschirm, das wird mit der Karte genauso sein, da wirst du kein Spaß haben wenn du meinst jetzt die ganzen neuen
Zusatzfeatures und beschnittenen Tensorkerne für deine Zwecke zu nutzen.
DAs haben die schon schlau gemacht von Nvidia, die 2070 zum Preis von 1080 aber keine Leistungssteigerung- Glaub mir du wirst schnell unzufrieden sein mit deiner 2070.

Außer du bist eher ein bescheidener Typ.
Gruss
 
ja genau...
Total Sinnvoll RTX 2070
Ne 1080GTX gibt es für unter 500€


Win10 Update das RTX ermöglicht ist zurückgezogen

Spielemit RTX fehlen bis jetzt komplett

Auf jedenfall braucht man jeden ne RTX ....

LOL !
 
Uhm, ihr missversteht das wohl etwas oder seht es etwas einseitig, vermute ich zumindest.
Auf "normaler" Basis könnt ihr doch mit gewohnter Leistung spielen, also eure gewohnten FPS und Einstellungen. Nutzt ihr die Zusatzfeatures wie RT, bekommt ihr optischen Zugewinn, was selbstverständlich auf die FPS drückt, was jedoch noch mehr drücken würde, wenn nicht die spezialisierten Kerne vorhanden wären.
Ich lese mich nun schon geraume Zeit eben von der Seite eines Entwicklers her ein in die Technik, die APIs und die Möglichkeiten und sehe einfach, dass wenn man zum Beispiel die Tensorkerne für die Matritzenrechnungen der Engine nutzt, bekommt man auf den normalen Kernen wiederum mehr Ressourcen frei für andere Arbeiten und das sogar recht massiv, weil die TC einfach wahnsinnig schnell sind. Sie können eben nicht nur für Deeplearning verwendet werden.
Oder man nimmt sie für die KI und bekommt so wiederum anderweitig Ressourcen frei zum Beispiel für die Datenaufbereitung für die GPU.
Die Möglichkeiten und Verwendungsmöglichkeiten sind vielfältig. Kommt mal von dem Trip runter, das RTs wirklich nur für Raytracing genutzt werden können und die Tensors nur fürs Deeplearning. Sie sind dafür vielleicht maßgeblich nutzbar, aber eben nicht nur.
Ich selber nutze in meinen Programmen jede Ressource aus, die sich mir bietet und für entsprechende Bereiche die jeweils bestmögliche.
Also wartet doch bitte erstmal ab bis die Engines wirklich an sowas angepasst sind.

Das Problem dabei ist, das man einwenig Leistungszuwachs mit ganz viel Geld bezahlt und zusätzlich ein Feature hat das für viele keinen Mehrwert hat.
Es handelt sich prinzipiell um ein Generationen Wechsel, dieser bleibt zumeist in seinem Preisgefüge. Hier zahlt man dann aber bis zu 60% mehr... Ich denke wären die:

2070 bei ca. 400-450€
2080 bei ca. 500-600€
2080ti bei ca. 800-950€

Bei diesen Preisen geblieben, hätten sie auch einige Pascaler zu einem Wechsel bewegt, wenn der gewohnte Leistungszuwachs zur Vorgängergenaration mit dabei gewesen wäre.

Möglich wäre auch gewesen:

GTX 2070 300-400€ Pascal Refresh
RTX 2070 400-500€
GTX 2080 500-600€ Pascal Refresh
RTX 2080 600-700€
GTX2080TI 800-900€ Pascal Refresh
RTX2080TI 900-1100

Man könnte die Ausbeute erhöhen und in allen Bereichen abschöpfen.

Aber so werden die RT nicht durchboxen, da der gro an Usern sich preisbedingt für die schwächste rt karte entscheidet und das feedback zu RT wird ziemlich schlecht, weil 30 FPS oder so... die entwickler setzen nicht darauf weil Kunde nkcht die passende Karte hat....
 
Uhm, ihr missversteht das wohl etwas oder seht es etwas einseitig, vermute ich zumindest.
Auf "normaler" Basis könnt ihr doch mit gewohnter Leistung spielen, also eure gewohnten FPS und Einstellungen. Nutzt ihr die Zusatzfeatures wie RT, bekommt ihr optischen Zugewinn, was selbstverständlich auf die FPS drückt, was jedoch noch mehr drücken würde, wenn nicht die spezialisierten Kerne vorhanden wären.
Ich lese mich nun schon geraume Zeit eben von der Seite eines Entwicklers her ein in die Technik, die APIs und die Möglichkeiten und sehe einfach, dass wenn man zum Beispiel die Tensorkerne für die Matritzenrechnungen der Engine nutzt, bekommt man auf den normalen Kernen wiederum mehr Ressourcen frei für andere Arbeiten und das sogar recht massiv, weil die TC einfach wahnsinnig schnell sind. Sie können eben nicht nur für Deeplearning verwendet werden.
Oder man nimmt sie für die KI und bekommt so wiederum anderweitig Ressourcen frei zum Beispiel für die Datenaufbereitung für die GPU.
Die Möglichkeiten und Verwendungsmöglichkeiten sind vielfältig. Kommt mal von dem Trip runter, das RTs wirklich nur für Raytracing genutzt werden können und die Tensors nur fürs Deeplearning. Sie sind dafür vielleicht maßgeblich nutzbar, aber eben nicht nur.
Ich selber nutze in meinen Programmen jede Ressource aus, die sich mir bietet und für entsprechende Bereiche die jeweils bestmögliche.
Also wartet doch bitte erstmal ab bis die Engines wirklich an sowas angepasst sind.

Meinst du, die Engines werden vor der bald erwarteten 30XX - (der 20XX Gen wird eine sehr kurzer Zyklus nachgesagt, was auch nicht wirklich für sie spricht) für die "jenseits der breiten Masse Karten" also nur grün, nur aktuell und nur oberhalb der 1060 angepasst? Raytracing ist easy zu implementieren heist es, ein offener Standard. Tensorcores bringe ich neben professionellen Zeug nur mit DLSS in Verbindung. Klingt super "kostenfreies glätten" (nur 25% Chipfläche) klappt bisher aber auch irgendwie nicht überzeugend.
YouTube


Mag sein das Turing top für professionelle Anwender ist - ne günstige Titan quasi.
Wir sind wir aber bei PCGAMESH...
 
Zuletzt bearbeitet:
Die Karte haben überhaupt wenig Kauf reiz, da zu teuer und eher was für "Grafikkarten-Fetischisten" .
Meine Spiele sehen auch so sehr gut aus ohne RT, manch
einer wird sich zu dem jetzt oder bald eine High End aus der Vorgängergeneration holen wegen Ausverkauf.

Ich glaube das Nvidia sich da etwas zu übernommen bzw. verkalkuliert hat.
 
Die 2070 ist für den Preis den sie hat ein nette stück hardware und ich vermute stark das sie auch viele zum wechseln bewegen wird. leistung auf 1080 Niveau für um die 500€ ist für viele okay. dazu die neuen Features die es gibt bald. Ich glaube hier liegt PCGH nicht so falsch das man damit den Markt etwas vergrößern möchte, spätestens wenn das Feature RT da ist und wirklich einschlägt wird der Verkauf sowieso in die Höhe schießen.
 
Wegen dem Preis und weil sie in etwa so schnell ist wie ne 1080 nach aktuellem Stand. Wenn ich ehrlich bin, mir aber noch zu langsam.
 
Wegen dem Preis und weil sie in etwa so schnell ist wie ne 1080 nach aktuellem Stand. Wenn ich ehrlich bin, mir aber noch zu langsam.

Eben das ist es ja. Da ist halt eine 1080 oder Vega auch günstiger, zumindes gebraucht... oder man nimmt ne gute 1070ti custom, die werden oft in guten Angeboten zwische 430 und 460 vertickert, so auch meine Zotac...
 
Mir inzwischen auch. Habe gerade mit einem Kumpel geschrieben, der die 2080 gekauft hat mit einem i7 4790k und mit seinem Monitor (1080p) gnadenlos im CPU-Limit klebt. Mein R7 1700 ist da trotz geringerem Takt mit der alten 1080 um knapp 25% schneller, als er mit dem alten i7 und der neuen 2080. In WQHD sind wir ziemlich auf Augenhöhe, in UHD hat er knapp 40-50% Mehrleistung, aber leider nicht gut spielbar (ich 24-30 FPS und er 13-45 FPS). UHD hat er über DSR simuliert. Eine RTX 2080 wäre mir somit zu langsam und eine an sich interessante 2080Ti ist einfach zu teuer.
 
Zurück