Nvidia Turing: Geforce RTX 2070 im 3D Mark Timespy der GTX 1080 auf den Fersen

Oh Rollera verteidigt die Karte. Weil der Chip ja so schön groß ist. Der GM204 ist übrigens größer als der GK110. Was sagt uns das?
 
Eben das ist es ja. Da ist halt eine 1080 oder Vega auch günstiger, zumindes gebraucht... oder man nimmt ne gute 1070ti custom, die werden oft in guten Angeboten zwische 430 und 460 vertickert, so auch meine Zotac...

Jo bei dem Preis hab ich auch lieber zur 1080 gegriffen, 430 für ne Amp Extreme bezahlt, glaube ich habe keinen Fehler gemacht
 
Meine RTX geht ganz gut zu Ocen +100/700 mhz
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    1,7 MB · Aufrufe: 43
[...] Meiner Meinung nach ist die Chipfläche dort verschwendet - ein komplett unnötiger Kostenfaktor - wir reden immerhin von 25% Chipfläche.
[...]
Nein, denn man weiß nicht wie viel Fläche die RT-Cores prozentual benötigen.

Oh Rollera verteidigt die Karte. Weil der Chip ja so schön groß ist. Der GM204 ist übrigens größer als der GK110. Was sagt uns das?
Schau noch einmal nach.
 
Mir inzwischen auch. Habe gerade mit einem Kumpel geschrieben, der die 2080 gekauft hat mit einem i7 4790k und mit seinem Monitor (1080p) gnadenlos im CPU-Limit klebt. Mein R7 1700 ist da trotz geringerem Takt mit der alten 1080 um knapp 25% schneller, als er mit dem alten i7 und der neuen 2080.

ganz bestimmt xD
AMD Ryzen 7 1700 im Test gegen Intel Core i7 7700K - GameStar

ich glaub dir gerne das du irgend ein spiel gefunden hast in dem dein ryzen 1700 flinker ist als ist als der alte i7, aber dass das derzeit die regel ist, ist wohl eher dein wunschdenken.
 
und täglich grüßen die gleichen Foren leute mit den gleichen Meinungen ... ähh ich meine natürlich das Murmeltier

Ja immer die selben werden nicht müde ihre alberne Doppelmoral zur Schau zu stellen.
Als AMD 1,5 Jahre nach der GTX 1080 auch nur mit 8 GB Speicher ankam war das alles Tiptop, gibt ja HBCC. :D

Ihr wollt ernsthaft erwarten die RTX 2070 sei im gleichen Prozess der Nachfolger einer GTX 1060? Wo lebt ihr eigentlich, völlig illusorisch und nicht machbar.
Nvidia verkauft die RTX 2080 grade mal mit 50 Dollar (FE) mehr als die 1080 zum Start, trotz gleichem Prozess und +65 % Chipfläche und neuem Speicher also denkt doch mal nach.

Nvidia macht hier sicher nicht mehr Marge oder Gewinn damit.
Seit Nvidia mit Gsync und RTX mal dankbar, AMD wär mit Freesync oder RT sonst nie aus den Knick gekommen.


Was zum Teufel ist mit diesem Forum nur los?
Es gibt hier nur noch dieses überflüssige Preisgenörgel und Rumgenöle auf unterstem Niveau, teilweise schon wie ein Sport.
Dass man im gleichen Prozess mit massiv grösseren Chips und ähnlichem Strombedarf die Leistung nicht wie bei 980 Ti >>> 1080 Ti steigern kann, dürfte auch klar sein, einigen hier scheint aber jedweder Realismus und technisches Verständnis zu fehlen um mal auf ein sachliches und vor allem konstruktives Niveau zurückzukommen.

Ich geh doch auch nicht ins Auto Forum und nöle über den Preis eines Sportwagen.

Dann kauf ich halt nicht, was soll das Problem sein, kann man doch auch froh sein, dass die alte 1080 von 2016 noch für 400 verkauft werden kann.
 
Zuletzt bearbeitet:
Nein, denn man weiß nicht wie viel Fläche die RT-Cores prozentual benötigen.
Mir wurde erzählt, dass RTcores und Raytracing (schätzungsweise) je 25% ausmachen - trotz geringfügiger, meinetwegen extrem effizienten neu Anordnung gegenüber Pascall - der genannten Cudas und der tatsächlichen Performance beim rastern sehe ich keinen Anlass, was anderes zu glauben. Nvidias eigene Präsentation bestärkt weiter. Ein Pascall Update, ohne neuem Kühler, ohne Werks OC, mit GDDR6, das klingt ziemlich nach der Rasterseite von Turing...


Ich lass mich aber gerne belehren, wohlwissend dass wir uns ausserhalb der Fakten bewegen...


EDIT :
Ja immer die selben werden nicht müde ihre alberne Doppelmoral hier zur Schau zu stellen.
Als AMD 1,5 Jahre nach der GTX 1080 auch nur mit 8 GB Speicher ankam war das alles Tiptop, gibt ja HBCC. :D

Ihr wollt ernsthaft erwarten die RTX 2070 sei im gleichen Prozess der Nachfolger einer GTX 1060? Wo lebt ihr eigentlich, völlig illusorisch und nicht machbar.
Nvidia verkauft die RTX 2080 grade mal mit 50 Dollar (FE) mehr als die 1080 zum Start, trotz gleichem Prozess und +65 % Chipfläche, also denkt doch mal nach.

Pascall war super - nur viel zu teuer - wurde nach der 1080ti Einführung fast gut im Preis. Aber weil eine neu Karte kaum teurer als der viel zu teure Vorgänger ist (wenn du es so sehen willst) machts auch net besser.

Eine 70 ist mit 400 € gerade so ok - ein Fortschritt - welcher ein Genwechsel ja mit sich bringt wären 350€.
Aktuell ist es aber so, dass jeder% Zusatzleistung entsprechend kostet - für 300 € bekomme ich seit Jahren den gleichen mist. Fortschritt? Die Karten schaffen zwar immer mehr, kosten aber defakto auch ne Klasse höher. Deine Argumentationen über die Zeit haben genau diesen Umstand ständig unterstützt und gerechtfertigt.


Du kannst argumentieren wie du willst, dein Gehalt wird nicht im selben Maße steigen wie die Preise von Nvidia - deshalb wird unweigerlich der Punkt kommen, wo du eine , dann die nächste usw. Klasse abrutschst, sollte es so weiter gehen. Wenn du magst, unterstütze es halt- verlange dies nur nicht von mir...



Edit2:


Vielleicht ist die Chipfläche, welche bei Turin angeflanscht wurde, und fürs klassische Rastern nutzlos ist, auch ein hemmer - vielleicht wird der dadurch größere Chip,träger und konsumiert mehr, vielleicht wirft er uns gar zurück?
wird die 2060 überhaupt Turing? Vielleicht wird sie sogar dass, was ich mir auch für alle oberhalb gewünscht hätte, gut neu modern (und natürlich zu teuer)...


@Schaffe89 so lang du nicht immer in die teuerste, erhältliche GPU die deine nennst, muss ich davon ausgehen, dass dir der Preis nicht unwichtig ist. Also überlege gut, welche Bepreisung du unterstützt - es ist ja nicht so, dass Nvidia das lange geforderte feature endlich weitergab, sondern etwas bietet, nach dem keiner fragte und dennoch mitzunehmen hat. Bedenke, der Aufpreis wird nicht durch die Mehrleistung (classic) begründet. letzteres würde ja vermutlich auf Verständnis stoßen.

Außerdem war bei Vega keinesfalls alles "TippTopp" wäre vielleicht was geworden, wenn HBM2 höher getaktet deutlich früher, vor allem vor der Mininggeschichte gekommen wäre - dann wäre es zwar noch immer ein säufer (soo schlimm nun auch wieder net - ) aber für einen Preis wie aktuell ok...so wie es war, war es mist...nix Doppelmoral....
8GB Speicher bei Vega (kam viel zu spät, war aber immer noch Pascall Gegner hatte extrem teuren HBM2 - Nvidia fand den auch gut, nur zu gut für den classic User. Dennoch waren 8 GB schon zu Vega unterstes Minimum, gerade bei AMD die oft spendabel mit Speicher umgingen. Dass eine 2080 mit ü 800€ allerdings auch nicht mehr hat - eine Gen später -ist doch nicht das Gleiche?!


2070 = 1080ti wäre mit dieser Chipfläche möglich gewesen, behaupte ich - günstiger - (man hätt nicht an RT entwickeln müssen)
 
Zuletzt bearbeitet:
Die 2070 ist für den Preis den sie hat ein nette stück hardware und ich vermute stark das sie auch viele zum wechseln bewegen wird. leistung auf 1080 Niveau für um die 500€ ist für viele okay. dazu die neuen Features die es gibt bald. Ich glaube hier liegt PCGH nicht so falsch das man damit den Markt etwas vergrößern möchte, spätestens wenn das Feature RT da ist und wirklich einschlägt wird der Verkauf sowieso in die Höhe schießen.

Um 500Euro guter Preis??
Preise schiessen in die Höhe bei RT release!??

...vergiss es!
 
Mir wurde erzählt dass RTcores und Raytracing (schätzungsweise) je 25% ausmachen - trotz geringfügiger meinetwegen extrem effizienter neu Anordnung gegenüber Pascall - der genannten Cudas und der tatsächlichen Performance beim rastern sehe ich keinen Anlass, was anderes zu glauben. Nvidias eigene Präsentation bestärkt weiter. Ein Pascall Update, ohne neuem Kühler, ohne Werks OC, mit GDDR6, das klingt ziemlich nach der Rasterseite von Turing...

Ich lass mich aber gerne belehren, wohlwissend das wir uns ausserhalb der Fakten bewegen...
[...]
Schätzungsweise könnte man die ganze Chipfläche auf die Shader Cores umlegen und das Ganze hochskalieren, dass wäre natürlich eine Milchmädchen-Rechnung, da man somit unweigerlich andere Bestandteile miteinrechnet, aber wenn wir einen GP102 mit einem GT102 vergleichen, dann haben wir einige Parameter die gleich sind, 384-Bit für das Speicherinterface, 6 GPCs und 96 ROPs, weswegen man nicht völlig daneben landen sollte.
Ein GP102 besitzt insgesamt 3840 Shader Cores und ist 471mm² groß.
Ein TU102 besitzt insgesamt 4608 Shader Cores (+20%) und ist 754mm² (+60%) groß.
Wenn wir die ganze Fläche beim GP102 auf die Shader-Anzahl normalisieren würden, würden +20% mehr Shader 565mm² bedeuten bzw. ein TU102 wäre nur 33% größer für die gleiche Shader-Anzahl.
Nun gibt es mehrere Faktoren, wo Turing mehr Chipfläche bezahlen muss.
Ein TU102 hat zwei NVLINKs, dass geht ein wenig in die Rechnung mit ein, GDDR6-Controller sollten ein wenig größer sein, die Video-Engines sollten ebenso mehr Fläche benötigen, Turing investiert auch etwas in die Tensor-Cores, etwas in die RT-Cores, aber der Hauptkostenanteil sollte bei den veränderten Shader-Cores liegen, diese haben jetzt getrennte Ports für Integer- und FP-Execution, dass sollte relativ nicht viel kosten, aber zusätzlich kommen zwei gravierende Dinge dazu, Turing hat ein doppelt so großes Register-File pro ALU, 256KB für 64 ALUs vs. 256KB für 128 ALUs (Pascal) und 33% größere SM-Caches + 100% mehr L2$, 6MB statt 3MB.
Allgemein gibt es auch noch andere Schmarkel, Turing besitzt mehr Features als Pascal, es gibt Conservative Rasterization Tier 3 vs. 2, Resource Heap Tier 2 statt 1, Variable Rate Shading, Mesh Shaders, 2xFP16 beherrschen auch die Shader-Cores etc.

Nun als Laie kann man schwer einschätzen, wie viel Fläche was genau benötigt, es hilft aber dabei Chip Fotografien anzugucken (Rot ist ein Shader-Cluster, Grün ist der Scheduler/Dispatcher-Anteil, vermutlich Teile vom Frontend wie den Tessellation-Units, bei Blau befindet sich was auch immer, dass schwarze Bild ist kein echter die shot, dass Bild hat Nvidia bei ihrer Turing-Präsentation beim GP102 gezeigt, was definitiv keinen GP102 zeigt, da jeder andere Pascal Chip völlig anders aussieht und der ganze Aufbau nicht zu den Specs passt. Ein Turing ist es von den Specs auch nicht, ich gehe da von einem Phantasie-Bild nur für die Präsentation aus.)
dmta8xdxgaaulcr-jpg-large-jpg.1013924


mullinsdieshot_12001-jpg.1013921


Der untere shot ist vom 28nm Jaguar/Puma SoC, welcher ungefähr 107mm² groß ist, 4 Jaguar-Kerne bietet, 2 Comute Units (128 ALUs) und wo man immerhin ein grobes Gefühl dafür bekommt, wie viel die Video-Engines UVD/VCE an Platz verbrauchen und wie groß auch der L2$ ausfällt.
Man kann und sollte sich natürlich auch andere Chips anschauen, wie Zen.

Letztendlich kann könnte man noch annehmen das 12FFN dichter ist, als 16nm, aber selbst wenn wären es wohl maximal 10%, 12nm FFC ist laut TSMC 20% kompakter, da sind aber auch die Standard-Zellen kompatker und mit geringeren Performance-Targets designed.
Insgesamt lehnt man sich aus meiner Sicht massiv aus dem Fenster, wenn man annimmt, dass Turing 25% an Fläche nur für die RT-Cores bezahlt, wenn schon pro Pascal hochgerechnet der Overhead eher bei 33% liegt und es viele Investitionen von Nvidia gibt, wo man teilweise schon konkret ausrechnen kann, wie viel diese ungefähr an Platz einnehmen müssen.
 

Anhänge

  • MullinsDieShot_12001.jpg
    MullinsDieShot_12001.jpg
    885,8 KB · Aufrufe: 240
  • Dmta8XDXgAAuLcr.jpg large.jpg
    Dmta8XDXgAAuLcr.jpg large.jpg
    355,9 KB · Aufrufe: 243
Die GTX 1080 (Ti) werden knapp, fragt sich ob nur temporär oder ob Nvidia und Board-Partner nochmal eine Ladung nachschieben. Sonst bleibt bald nichts mehr anderes übrig als eine RTX 2070 oder RTX 2080 zu kaufen. Vega 64 wäre noch eine Alternative im ersteren Fall. Die GTX 2080 verkaufen sich momentan ziemlich zäh, wenn man sich die Mindfactory-Zahlen ansieht: RTX 2080 -> GeForce RTX für Gaming -> Grafikkarten (VGA) -> Hardware | Mindfactory.de - Hardware,

Doch der Gebrauchtmarkt und da verdient, Nvidia keinen Cent an Dir!
 
Was soll da noch interessant sein. Für Full HD Ok. Mit WQHD in anspruchsvollen Titeln sehr knapp und so teuer wie früher die High End Versionen.
Meiner Meinung nach ein Rückschritt...

Wenn die GTX2070 das Niveau einer GTX1080 erreicht und grade noch so für WQHD reichen sollte, dann sieht es selbst für die "Schnellste Grafikkarte der Welt" aka RTX2080Ti so richtig düster in UHD aus. Den diese ist nicht doppelt so schnell wie eine GTX1080, soll aber 121% der Auflösung stemmen.
Dann können alle die UHD spielen wollen sich gepflegt vom PC-Gaming verabschieden und alle stricken gehen ... Den dann gibt es keine Grafikkarte die genug Leistung für UHD hat.

Aber da es zum Glück für uns alle Regler in Spielen gibt (ein Vorteil des PC Gamings), ist deine Version zum Glück ziemlich blödsinnig und nur die sind verloren, die alle Regler immer ganz rechts stehen haben müssen.

Was allerdings das Preis/Leistungsverhältnis angeht erleben wir aktuell einen Stillstand. Man zahlt für die gleiche Leistung in dieser Generation den gleichen Preis wie in der Vorgängergeneration. So was würde ich als Stillstand bezeichnen.

BTW. Als die GTX1070 auf den Markt kam hatte ich schon eine Karte die die gleiche Leistung hatte wie diese (GTX980Ti) und nun habe ich bei der RTX2070 eine Karte mit der gleichen Leistung (GTX1080) ... Das macht diese Karten so richig uninteressant.

Na was solls, spart jede Menge Geld. Aktuell gibt es für mich nicht einen Grund etwas an meiner Hardware zu ändern. Für WQHD reicht es noch locker wenn man in der Lage ist die Regler zu bedienen und nicht an Ultra zu verzweifeln, dass sowieso für einen ganz kleinen optischen Vorteil viel zu viel Leistung verschlingt.

Wie groß isn der Chip nochmal? Und ist man damit nicht nach wie vor gleichauf oder schneller wie die schnellste Karte der Konkurrenz UND hat mehr Features? Klar die 2000 er Serie ist angesichts ihrer riesen Chips enttäuschend bei der Performance, aber man ist damit immer noch vor der Konkurrenz.
Vergleich bitte mal die Chipgröße mit der der 1060 und erzähl mir nochmal was von Käufer haben keine Ahnung...


Oh super ... Wenn es den so wäre, habe ich diese Leistung seit August 2016 in meinem Rechner ... Und mal ehrlich, glaubst du ernsthaft, dass diese "Features" irgendwie zum tragen kommen, bevor die nächste Generation erscheint? Feature Nr. 1 DLSS kannst du knicken, da die RTX2070 zu langsam für UHD ist und DLSS nur für diese Auflösung umgesetzt wird. Feature Nr. 2 Raytracing schaltest du spätestens dann ab, wenn du 2-3 Minuten in 1080P gespielt hast und feststellst, dass die Karte dafür auch noch zu lahm ist und du die Karte ja eigentlich für deinen WQHD Monitor gekauft hast.
Und "immer noch schneller als die Konkurenz" (die weniger kostet und dieser Satz in Bezug auf die Vega 64 sicherlich nicht zutrifft), ist doch eher unbefriedigend, wenn die Konkurrenz aus der Vorgängergeneration stammt.

Es wäre besser gewesen, diese Features nur auf die RTX2080Ti zu beschränken (da sie nur hier wirklich zum tragen kommen), um hier einen Kaufanreiz zu schaffen und die beiden anderen Karten jeweils ohne diese Features in der entsprechenden Leistungsklasse der nächst höheren Klasse anzusiedeln. Sprich eine GTX2070 auf GTX 1080Ti Niveau und die GTX2080 (mit 11 GByte VRAM) auf dem Leistungsniveau einer RTX2080Ti.
Für die RTX2080Ti hätte es eben dann die Features zusätzlich gegeben mit entsprechenden Aufpreis und als Namen Titan T ... Ich glaube dann wären alle Zielgruppen glücklich gewesen. Außerdem hätte NVIDIA dann den Preis der RTX2080Ti (Aka Titan T) damit rechtfertigen können, dass sie ja wesentlich weniger als eine TITAN V kostet bei gleichger Ausstattung und schnellerer Performance.

Getroffene Hunde bellen immer. Du bist einer davon ohne zweifel.
Und da hätten wir wieder mal das Totschlagargument, wenn einem nichts anderes mehr einfällt.


Eigentlich zur Zeit eine mehr als günstige Gelegenheit mal eine lange Forumspause einzulegen und erst wiederzukommen wenn es dann mal wieder interessante Hardware gibt. Die letzten 1 1/2 Jahre waren auf dem Hardwaresektor ja so richtig schön langweilig und es hat sich mit der neuen NVIDIA Generation nicht gebessert ... Ebenso werden auch die neuen Intel-Prozessoren nicht wirklich besser werden.
Komischerweise meinen aber Intel und NVIDIA, dass ihre Hardware jetzt plötzlich mehr Geld wert sein sollte ... und es gibt so einige die selbst dann noch heftigst nicken und ihre Kreditkarten zücken. Aber das muss man nicht verstehen.

Sagt Bescheid, wenn es mal wieder interessante Hardware gibt. Bis dahin macht es alle gut. Ich habe besseres zu tun als mich hier ewig im Kreis zu drehen. Da bekommt man ja einen Drehwurm.
Ich bin dann mal meine Spiele genießen.
 
Zuletzt bearbeitet:
Und da hätten wir wieder mal das Totschlagargument, wenn einem nichts anderes mehr einfällt.

Das siehst du falsch, das war schlichtweg ein Fakt der aufgrund der uhrzeit auch nicht weiter ausgeführt werden muss.

Und da man bei 99% der Forennutzer sowieso versucht einem ochsen ins horn zu pfetzen und sie lediglich die eigene meinung als richtig ansehen, ist auch keine diskussionsgrundlage vorhanden.

Du bist da übrigens nicht ausgenommen. Ich finde deine Beiträge zum thema rtx mehr als fraglich. Die Qualität schwindet.
 
Genau wie ich schwinde, also sollte es für Dich doch passen ... Noch ein User weniger von dem du in deiner RTX-Ruhe gestört wirst. Machs gut und viel Spaß mit der aktuellen Grafikkartengeneration.
 
Lasst mich mal herumspinnen.
So sähe das Ergebnis aus wenn AMD dieses Jahr eine Grafikkarte gebracht hätte.
Aus der RTX 2070 wäre die RTX 2060 geworden. Die Leute hätten gejubelt. Eine RTX 2060 mit der Leistung einer 1080.
Aus der RTX 2080 wäre die RTX 2070 geworden, Die Leute hätten wieder gejubelt. Eine 2070 mit der Leistung einer 1080Ti.
Und aus der RTX 2080Ti wäre die RTX 2080 oder 2070Ti geworden. Und in einem Jahr wäre dann eine 2080TI gekommen die den Namen auch verdient.
 
Zuletzt bearbeitet:
Genau wie ich schwinde, also sollte es für Dich doch passen ... Noch ein User weniger von dem du in deiner RTX-Ruhe gestört wirst. Machs gut und viel Spaß mit der aktuellen Grafikkartengeneration.

Lustig an deiner Aussage ist das ich nichtmal eine RTX Karte habe

@vorposter: Das ist komplett falsch. Eine AMD Karte hätte rein garnichts daran geändert wie Nvidia vor geht weil Nvidia nach wie vor den Marktanteil hat. So funktioniert die Welt nicht.
 
Das war ja bei dem "günstigen" Preis zu erwarten, dass sich eine bis zum Kotzen übertaktete RTX 2070 gerade so mit einer GTX 1080 im Referenztakt messen kann. :D
Also zahlt man bei der Custom RTX 2070 nur etwa 200 Eur mehr für eine kastrierte GTX 1070(Ti) ohne SLI Option mit sinnlosen Features, weil die Karte viel zu langsam dafür ist.:lol:

Da bin ich ja mal auf die Raytracing Performance der RTX 2070 gespannt.:daumen:

Well done Nvidia :ugly:
 
Zuletzt bearbeitet:
Ich bin mal gespannt was ihr für gegenkommentare bei der RTX Generation nutzt wenn das Feature da ist und sich als gut herausstellt und einige nachziehen. Vermutlich werden wir dann wieder Preisdiskussionen haben :D Hier gehts ja zu über 90% nicht darum wirklich aktiv drüber zu diskutieren ob RTX Karten nun gut sind oder nicht, sondern darum Nvidia schlecht zu machen weil die Karten eben den Preis haben den sie haben. Daran merkt man das viele gerne umsteigen würden aber nicht die Preise bezahlen wollen.

Ich würde mich viel mehr fragen was hab ich eigentlich als alternative ? Zur RTX garnix, zur gtx 1080 Ti ebenfalls nix. Zur GTX 1080 mit abstrichen eine Vega ... und sonst so ? Mh ..
 
Schöner währe es wenn die 2070 Günstiger zum Preis einer 1060 angeboten hätten, die 2080 12 GIgabyte hätte, und die neue Ti RT in Wqhd bei 60 FPS bieten würde. Aber nein absolut gewinnorientiert meiner Meinung nach :daumen2:.
 
Zurück