Nvidia Turing: Geforce RTX 2070 im 3D Mark Timespy der GTX 1080 auf den Fersen

Naja im aktuelle Marktgefüge macht die Karte zu dem Preis durchaus Sinn. Ist halb einfach eine etwas rundere 1080. Sofern die jetzt nicht irgendwo eingebremst wird beim PT, den Stromanschlüssen oder den OC Reserven spricht eigentlich zu dem Preis wenig gegen die Karte.Von Gsync mal abgesehen.
 
Absolut ich möchte bitte gleich 2 bestellen

Ich nehme an der Kommentar war auf den No-SLI-Mod der 2070 abgezielt? Der ist ab Werk, dafür sind die Karten aber hübscher.

Super, mit meiner 1070Ti bin ich also auch mit der neuen Gen noch auf 70er Niveau unterwegs. Dann bin ich mal so richtig dolle auf die neue Mittelklasse mit 2060 gespannt. :P
 
Falsch: hier geht es genau um die Konkurrenz: (…)
Und nochmals falsch: die 2070 ist kein 1060 nachfolger.
Natürlich geht es um Konkurrenz - diese schimpft sich Pascall.

Stimmt auch - die 2070 ist kein 1060 Nachfolger, trotz der Leistung welche diesen Eindruck hartnäckig untermauert. Zum Glück wird dieser Eindruck sofort zunichte gemacht, denn der Preis lässt auf einen 1080 Nachfolger schließen.
 
krass wie die gtx1080ti wieder angezogen hat seit dem release der 20er reihe meine karte is mal eben 280 euro teuerer als vor 4 wochen.

bei so einer Entwicklung mus Nvidia doch auch mal merken das sie irgendwo ins klo gegriffen haben mit ihrer Preispolitik.
 
Nun und Vega mhmm, ne tolle Karte die aufs falsche Pferd setzte (hbm2) und dann noch zur Miningkrise erschien - vielleicht jetzt gerade überhaupt das erstmal wirklich erwägenswert ist aber indessen für viele auch schon zu alt erscheint. Wenn man die 2070 beschreiben möchte und dabei den Vega Vergleich braucht, erweckt es genau den Eindruck der tatsächlich passt - Ich dachte 2070 wäre der Nachfolger von 1070.....
Wega hat nicht mit HBM aufs falsche Pferd gesetzt, sondern war einfach eine Fail-Entwicklung. Mit GDDR5 wär man noch langsamer gewesen.

PS: Chipfläche

Vega: 484 mm²
TU106: 445mm²

Weil Chipfläche ja so viel kosten muss...
Entweder du begreifst es wirklich nicht, oder du verstehst mich mit Absicht falsch: ich setze den angeblichen 2060 Nachfolger in Relation zur 1060. Und letztere hatte knappe 200mm² Chipfläche, die 2070 mehr als das doppelte. Na begreifst du es immer noch nicht?

Und zu deinem OT Beispiel: die Vega hat bei Release auch ähnlich viel gekostet. Ist es nun böses Nvidia oder böses AMD. Oder beide? Oder misst du bewusst mit zweierlei Maß?
Nö wäre er nicht, ich erinnere:

GTX 1070 ~ GTX 980TI

GTX 2070 ~ GTX 1080 non TI

Nenene...kann man nicht schön reden das Teil sorry
nene.gif
. Für mich ist das im Prinzip ne maßlos überteuerte 2060. Und wat interessiert mich denn die Chipfläche
rollen.gif
....106er Chip bleibt 106er Chip und den lässt sich Nvidia jetzt mal richtig vergolden
daumenrunter.gif
.
Und wat interessiert imch die Chipfläche

Und wat interessiert mich was du glaubst welche überteuerte, noch nicht vorhandene Grafikkarte es sein soll?
Chipfläche zeigt wenigstens, dass die Produktionskosten höher sind als bei der 1060. Dein imaginärer Vergleich zeigt NICHTS.

Noch dazu weil du 2 Karten vergleichst (1070 und 980 Ti) von denen beide in einem anderen Verfahren gefertigt wurden und vorallem: mit Konkurrenz.
Und jetzt vergleichst du halt Karten, die im selben Verfahren gefertigt werden: nochmal die Frage: was hast du eigentlich erwartet? 100% Mehrperformance obwohl man mit "demselben Wasser" kocht?

Und BAHAHAHAHAHA 106er Chip bleibt 106er Chip. Weil der Chip in der Produktion nun weniger kostet, weil er einen anderen Namen hat? WAS IST DAS FÜR EIN ARGUMENT?
Klar, der Name suggeriert "Performance-Klasse", aber letztendlich ist in dieser Performance-Klasse auch eine gewisse Rentabilität gegeben, also klieine Chips (siehe 200mm² bei der 1060). Ganz offenbar musst du den 106er Chip jetzt eher mit einem 102er Chip vergleichen.
Nvidia wollte wohl schon eher in 7nm Produzieren. Dann kannst du die Chipfläche halbieren. Ist aber nicht so gekommen.
Du willst es einfach nicht verstehen, Oder?
Erklärs mir bitte...


Der Chip der GTX 1060 wäre auch deutlich größer, wenn man dieser damals die RTX Features mit implementiert hätte, was nutzt Dir ein großer Chip, wenn man die gleiche Leistung auch mit einem Chip hinbekommt, der nur 1/3 so groß ist! Es geht hier auch nicht um einen Performance Chip von 200 bis 300,00 Euro, die RTX 2070 ist mit dem kastrierten und verstümmelten RTX Chip und der Leistung nicht mehr wert als eine GTX 1080 und von daher dürfte auch der Preis nicht mehr als 400,00 Euro betragen, das kostet nämlich derzeit eine GTX 1080.
Der Chip von Turing ist ja nicht nur wegen der RT Cores so groß... omg. Ja, die 1060 hätte dann 15-20% mehr Chipfläche. Also 240mm² BOAAAH
Woher willst du wissen, ob die 1070 ihre Leistung nicht wert ist. Die Architektur wurde massiv verändert und skaliert vielleicht ebenso wie Maxwell erst in Zukunft besser. Man erinnere sich in neueren Benchmarks fällt Kepler massiv ab, wo diese Architektur noch nahe dran war. Das wissen wir nicht. Wir sehen nur: teure GPU.

AMD ist halt mal zurzeit keine Konkurrenz, daher bringt es überhaupt nichts, ständig mit diesem Argument, die Abzocker Methoden von Nvidia zu verteidigen. Es bestand überhaupt kein Grund, dass man die Turing Modelle jetzt mit einem Raytracing Feature auf den Markt bringt, was im Moment selbst von einer RTX 2080Ti für 1.400,00 Euro gerade mal so mit 60 FPS in 1080p schafft. Man hätte sich einfach darauf konzentrieren können, den Grafikkarten mehr Leistung in Form von FPS zu verpassen und das Ganze mit einer nochmals verbesserten Effizienz gegenüber den Pascal Grafikkarten gepaart.
Natürlich gibt es einen Grund: Wenn man das nächstes Jahr macht, wo AMD Konkurrenzchips aufm Markt hat, hat man Probleme, weil die zusätzliche Chipfläche vielleicht für traditionelle Rastereinheiten wichtig gewesen wären. Jetzt hat man ein Jahr lang freies Feld. Oder ums mit deinen Worten zu sagen: du willst es einfach nicht verstehen wie wichtig es ist, dass Konkurrenz existiert. Preise über 600€ haben wir generell nur, weil AMD seit knapp 7 Jahren keine Konkurrenz mehr ist.

Man hätte der Turing 2080Ti dann als Gimmick diese RTX Features verpassen können, um zu zeigen, wohin der Weg in der Zukunft führt, da eigentlich nur diese 2080Ti in der Lage ist, Raytracing einigermaßen in 1080p zu stemmen. Aber so sind die RTX Turing Modelle bezüglich der Leistung und des Preises völlig uninteressant!
Woher willst du das eigentlich wissen? An einem Spiel, das völlig unoptimiert das Feature drangepappt hat und festgestellt hat: es läuft halt unter diesen Bedingungen langsam?
Ein von Null auf für die 2080 Ti entwickeltes Spiel mit Raytracing kann da auch in 4K super laufen. die 1080 P sind ja keine festgeschriebene größe, sondern der spezielle Fall, dass aktuelle Engines und Assets nicht auf RT ausgelegt sind.
Mit etwas Glück hast in 2-3 Jahren Spiele, die super laufen in Raytracing.
Fast so schnell wie die 1080?

Das ist ja ein ganz heißes Eisen.
02 sm_=).gif
Aber hey, 5 Watt weniger Verbrauch ;)
 
Zuletzt bearbeitet:
Imo enttäuschend und da gibt's nix gut zu reden.
So ne miese gpu gen von Nvidia hab ich noch nie miterlebt... Und ich habe alle miterlebt.
Nonsense:
NV1
Geforce 5800 Ultra (NV30)
Fermi AKA Thermi

davon abgesehen unterschätzen hier alle wie wichtig es ist, dass die Early Adopter was für Raytracing in Spielen tun.
In 10 Jahren wird man froh sein drüber (ja, es wird einige Jahre dauern bis RT Standard ist, aber irgendjemand muss anfangen).
Ich bin dankbar. Und das nicht als Nvidia Fanboy sondern als Grafik Fanboy. Ich bin froh, dass wir wieder zu vernünftigen Auflösungen zurückkehren dafür besserer Grafiktechnologie. Nämlich zu der Technologie die letztlich Fotorealismus ermöglicht (das geht mit Rastern eben nur sehr umständlich)
 
Ich glaube die Preise von NV sind richtig denn: die Leute (ich nicht)werden sie kaufen. ;-) und so lange sie in massen gekauft werden ist beim Preis von Luft nach oben.
Die Leute kaufen ja auch Telefone fit 1400€, dazu die passende ihre für 400€, noch ein Tablet fur 800 € und vor dem laden steht der Leasing SUV fur 500€/Monat. Zuhaus das 4000€ ebike. Was sind da schon 1000€ für ne gpu alle 4jahre.
 
Imo enttäuschend und da gibt's nix gut zu reden.
So ne miese gpu gen von Nvidia hab ich noch nie miterlebt... Und ich habe alle miterlebt.

Naja, der Wechsel von der Geforce 4Ti zur FX5xxx war noch schlimmer. Alle Karten waren langsamer als die Vorläufer-Gen, nur weil man DX 9 haben wollte. Und dann gab es auch noch den Fön in Form der FX 5700.
Mit der 6600GT und 6800GT/Ultra wurde dann aber alles richtig gut und in fast jeder Generation gab es ein ordentliches Leistungsplus und neue Features oder massig Speicher (8800GTS/GTX/Ultra).
 
Wega hat nicht mit HBM aufs falsche Pferd gesetzt, sondern war einfach eine Fail-Entwicklung. Mit GDDR5 wär man noch langsamer gewesen.


Entweder du begreifst es wirklich nicht, oder du verstehst mich mit Absicht falsch: ich setze den angeblichen 2060 Nachfolger in Relation zur 1060. Und letztere hatte knappe 200mm² Chipfläche, die 2070 mehr als das doppelte. Na begreifst du es immer noch nicht?

Und zu deinem OT Beispiel: die Vega hat bei Release auch ähnlich viel gekostet. Ist es nun böses Nvidia oder böses AMD. Oder beide? Oder misst du bewusst mit zweierlei Maß?

Vega wurde ja auch zerrissen wegen ihrer Preisleistung - Der seltene, langsamer als gedachte und dadurch viel zu teure HBM2 hat einen tragenden Teil der Schuld. Ich sagte selbst, das Vega erst jetzt wirklich erwägenswert ist, zum aktuellen Preis. Der Launch und damit irgendwie leider auch ganz Vega war mies...


Mit deinen Worten: beide Böse..

Was du nicht Verstehst - Wir GPU Konsumenten wurden seid Je her auf gewisse Leistungssteigerungen bei Genwechsel Konditioniert. Insbesondere Nvidia hat eigentlich eine 60 immer mit der Vorgänger 80 Leistung versehen und dabei ein wenig an der Preisschraube gedreht.
Und entschuldige, aber aktuelle Verhältnisse zeugen davon, es zu weit getrieben zu haben. Irgendwann sind die SCHRAUBEN LOCKER wenn man sie immer weiter dreht.

Nun haben wir halbierte Leistungssteigerung bei enorm gestiegen kosten.

Chipfläche ist mir wirklich egal, bzw. find ich einen winzigen potenten Chip deutlich attraktiver wenn du mich fragst. Tatsächlich kaufe ich aber nach Leistung. Was meinst du, wäre Turing ohne Raytracing Chipballast und entsprechend günstiger nicht deutlich erfolgreicher? Ich bin kein großer Grünfreund, kann Pascall, außer dass diese Gen die Preise auch wieder angezogen hat, nichts vorwerfen. Ist einfach gut. Gäbe es Free statt Gsync - hätte ich längst eine Pascall...
Turing hingegen macht sich so lächerlich angreifbar, kann kaum Pascall in schach halten und ist zudem irrsinnig teuer für etwas, was noch niemand auch nur ein kleines bisschen nutzen kann, der nutzen in der Zukunft komplett ungewiss ist, aber JEDER mitzahlen muss. Ist einfach, insbesondere in dieser super komfortablen Situation in welcher Nvidia sich befindet, so unglaublich unnötig.
 
Zuletzt bearbeitet:
Nonsense:
NV1
Geforce 5800 Ultra (NV30)
Fermi AKA Thermi

davon abgesehen unterschätzen hier alle wie wichtig es ist, dass die Early Adopter was für Raytracing in Spielen tun.
In 10 Jahren wird man froh sein drüber (ja, es wird einige Jahre dauern bis RT Standard ist, aber irgendjemand muss anfangen).
Ich bin dankbar. Und das nicht als Nvidia Fanboy sondern als Grafik Fanboy. Ich bin froh, dass wir wieder zu vernünftigen Auflösungen zurückkehren dafür besserer Grafiktechnologie. Nämlich zu der Technologie die letztlich Fotorealismus ermöglicht (das geht mit Rastern eben nur sehr umständlich)

Auf der eine Seite teure GSync Module Verkaufen +Werbung für sehr sehr teure Monitore mit 144hz HDR in WQHD und 4K machen. Auf der anderen Seite dann riesen Chips mit RT, die sicherlich kostspielig sind, davon aber nur die 2080ti gerade so die 60 FPS marke kratzt @1080p.

Man hätte bei der 2070 und der 2080 erstmal RT weglassen können und dafür eher in Richtung Mainstream was tun können um auch in den anderen beworbenen Projekten/Bereichen auch was zu liefern.
Ich habs nix gegen neue Entwicklungen, aber wenn es bedeutet die Auflösung wieder runter zu schrauben und die Bildwiederholtrate wieder drückt, ist es zu früh bzw. am Markt vorbei entwickelt.

Wie ich aus den Beiträgen der Foristen lese, geht es denen nicht anders. Falls du auch ein Plus Abo hast, schau mal in den neuen Artikel mit den Benchmarks, ab WQHD hat sich wirklich nicht viel getan, wenn man den Aufpreis auf die eh schon happigen Graka Preise zusätzlich berücksichtigt....

Hinsichtlich RT und dem Geld das man dafür zahlen muss, fühlt sich das dann wie ein Rückschritt an.
RT hätte man dan über 2-3 Generationen stück für Stück ins Mainstream tragen können . Wie ein Vorposter schon sagte, jeder muss mitzahlen, damit wenige es nutzen können...
 
Zuletzt bearbeitet von einem Moderator:
Bis dato ist die neue NVIDIA-Generation einfach nur überflüssig - ein Schritt zurück. Mancher würde sie vielleicht sogar eine Enttäuschung nennen - Abzocke trifft es wohl am ehesten. Daran ändert auch - oder gerade deshalb - nicht das Raytraycing-Feature. Wie sich schon bei den - aktuell - besten Karten zeigt, wurde dem Chip eine Zusatzfunktion spendiert, die sie gerade mal so mit vernünftigen Bildraten in 1080p erreichen kann und dann handelt es sich - ähnlich wie bei früheren Features wie der Haardarstellung - nur um selektive Sequenzen, die bedingt performant dargestellt werden können. Bei der RTX 2070 dürfte die Leistung vermutlich gerade mal für 30fps in 1080 reichen - mit etwas Glück - vermutlich jedoch eher sogar mit reduzierten Details. Dafür dann noch einen unverschämten Aufpreis zu verlangen ist lächerlich. Zumal, wenn man bedenkt, dass eigentlich erst einmal 4k für den breiten Markt interessant gemacht werden sollte - für den Spieler ähnlich sinnfrei wie ein halbbackenes Raytraycing-Feature. Mehr Bildpunkte bringen vor allem dann etwas, wenn man die dadurch zusätzlich zur Verfügung gestellten Informationen auch verarbeiten kann. Das ist - um nur ein Beispiel zu nennen - bei Tabellen der Fall, nicht jedoch bei bewegten Bildern - besonders, wenn diese sehr schnell aufeinander folgen - aber zurück zur 2000er NVIDIA-Generation: Die vernünftige Reaktion wäre ein klares NEIN DANKE und der damit verbundene Konsumverzicht - leider ist Vernunft nicht gerade eine Stärke der Menschheit, daher dürften sich Ende des Geschäftsjahres die Aktionäre des Unternehmens ins Fäustchen lachen.

Zum Thema Berichterstattung über die 2000er Generation: Bezahlt NVIDIA eigentlich dafür - oder gibt es gar keine Testexemplare mehr, wenn man sich einmal ehrlich äußern würde? Ist die Gesellschaft bereits derart degeneriert, dass es ihr nicht mehr auffällt, dass das hier eher Werbung als professionellem Journalismus entspricht? Im Großen und Ganzen könnte man das Thema auch in einem einzigen qualifizierten Artikel nach Erscheinen ALLER Karten abhandeln. Das wäre dann endkundenfreundlich - aber daran dürften weder die Hersteller noch deren Erfüllungsgehilfen ein Interesse haben.
 
Also ich sehe die 2070 nicht so als Entäuschung wie viele hier. Klar erwartet man einen Fortschritt in der Rohleistung, wenn man von einer Generation in die nächste wechselt, aber hier ist es jetzt mal so, dass man für den gleichen Preis eben ähnliche Leistung bekommt.... WENN man die Zusatzfeatures einmal außen vor lässt.
Nun ist es so, dass solche Sachen wie die RT und die Tensorcores bisher kaum Verwendung finden. Sind diese erstmal entsprechend in die Engines implementiert, erwarte ich schon einen Zuwachs der Leistung. Verschiedene Features können von den normalen Cores oder gar von der CPU abgenommen werden und werden so auf die spezialisierten Cores umgelegt werden, was wiederum Ressourcen auf der Basis für anderes freischafft.
Zum Release einer neuen GPU-Generation erwarte ich sowas nie.
Ich sehe die RT und TCs als wirklichen Zugewinn, die in Zukunft einiges ermöglichen können. Aber eben auch nur bei den Leuten die die entsprechende Hardware dann einsetzen. Aus der Sicht eines Entwicklers sehe ich die Möglichkeiten und freue mich ehrlich schon darauf die Cores zu reizen und auszunutzen, eventuell sogar zweckentfremdet zu verwenden.
Beschäftigt man sich nämlich mal etwas mehr mit OpenCL oder Cuda und der Technik in den Cores, sieht man, dass diese nicht so strikt nur dem Raytracing oder dem Deeplearning zuzuordnen sind, sondern auch bei entsprechender Programmierung anderweitig verwendet werden können.
Lasst etwas Zeit verstreichen, die Engines für die aktuellen Features reifen und ihr werdet ganz anders reden.
 
Ich nehme an der Kommentar war auf den No-SLI-Mod der 2070 abgezielt? Der ist ab Werk, dafür sind die Karten aber hübscher.

Super, mit meiner 1070Ti bin ich also auch mit der neuen Gen noch auf 70er Niveau unterwegs. Dann bin ich mal so richtig dolle auf die neue Mittelklasse mit 2060 gespannt. :P

Auch ??
aber die inneren Werte zählen ja ?
 
Also ich sehe die 2070 nicht so als Entäuschung wie viele hier. Klar erwartet man einen Fortschritt in der Rohleistung, wenn man von einer Generation in die nächste wechselt, aber hier ist es jetzt mal so, dass man für den gleichen Preis eben ähnliche Leistung bekommt.... WENN man die Zusatzfeatures einmal außen vor lässt.
Nun ist es so, dass solche Sachen wie die RT und die Tensorcores bisher kaum Verwendung finden. Sind diese erstmal entsprechend in die Engines implementiert, erwarte ich schon einen Zuwachs der Leistung. Verschiedene Features können von den normalen Cores oder gar von der CPU abgenommen werden und werden so auf die spezialisierten Cores umgelegt werden, was wiederum Ressourcen auf der Basis für anderes freischafft.
Zum Release einer neuen GPU-Generation erwarte ich sowas nie.
Ich sehe die RT und TCs als wirklichen Zugewinn, die in Zukunft einiges ermöglichen können. Aber eben auch nur bei den Leuten die die entsprechende Hardware dann einsetzen. Aus der Sicht eines Entwicklers sehe ich die Möglichkeiten und freue mich ehrlich schon darauf die Cores zu reizen und auszunutzen, eventuell sogar zweckentfremdet zu verwenden.
Beschäftigt man sich nämlich mal etwas mehr mit OpenCL oder Cuda und der Technik in den Cores, sieht man, dass diese nicht so strikt nur dem Raytracing oder dem Deeplearning zuzuordnen sind, sondern auch bei entsprechender Programmierung anderweitig verwendet werden können.
Lasst etwas Zeit verstreichen, die Engines für die aktuellen Features reifen und ihr werdet ganz anders reden.

Da magst du recht haben, vielleicht kommt es so.
Sicher ist aber, etwas weniger Chipgröße mit der neuen Architektur samt GDDR6 - gänzlich ohne Tensor oder Raytracing - Ein klassischer Rastererisierer mit allem schönen - der üblichen Leistungsmage (2070 = 1080ti) wäre etwas, mit dem alle Entwickler und alle bisherigen Entwicklungen, etwas hätten anfangen können.

Das allseits geforderte 4k 60 fps+ wäre safe gewesen und der nicht gestiegene Vram wäre nicht so arg aufgestoßen, weil die Karten wenigstens perfomant wären... Und zwar wirklich, nicht theoretisch vielleicht manchmal irgendwann....
 
Zuletzt bearbeitet:
Zum Thema Berichterstattung über die 2000er Generation: Bezahlt NVIDIA eigentlich dafür - oder gibt es gar keine Testexemplare mehr, wenn man sich einmal ehrlich äußern würde? Ist die Gesellschaft bereits derart degeneriert, dass es ihr nicht mehr auffällt, dass das hier eher Werbung als professionellem Journalismus entspricht? Im Großen und Ganzen könnte man das Thema auch in einem einzigen qualifizierten Artikel nach Erscheinen ALLER Karten abhandeln. Das wäre dann endkundenfreundlich - aber daran dürften weder die Hersteller noch deren Erfüllungsgehilfen ein Interesse haben.

Finde eigentlich den Plus Artikel über die Leistung ziemlich gut und neutral geschrieben, die Fazits fallen am Ende ziemlich durchwachsen aus, sprocht also nicht für die neue Generation...
 
Zurück