Nun und Vega mhmm, ne tolle Karte die aufs falsche Pferd setzte (hbm2) und dann noch zur Miningkrise erschien - vielleicht jetzt gerade überhaupt das erstmal wirklich erwägenswert ist aber indessen für viele auch schon zu alt erscheint. Wenn man die 2070 beschreiben möchte und dabei den Vega Vergleich braucht, erweckt es genau den Eindruck der tatsächlich passt - Ich dachte 2070 wäre der Nachfolger von 1070.....
Wega hat nicht mit HBM aufs falsche Pferd gesetzt, sondern war einfach eine Fail-Entwicklung. Mit GDDR5 wär man noch langsamer gewesen.
PS: Chipfläche
Vega: 484 mm²
TU106: 445mm²
Weil Chipfläche ja so viel kosten muss...
Entweder du begreifst es wirklich nicht, oder du verstehst mich mit Absicht falsch: ich setze den angeblichen 2060 Nachfolger in Relation zur 1060. Und letztere hatte knappe 200mm² Chipfläche, die 2070 mehr als das doppelte. Na begreifst du es immer noch nicht?
Und zu deinem OT Beispiel: die Vega hat bei Release auch ähnlich viel gekostet. Ist es nun böses Nvidia oder böses AMD. Oder beide? Oder misst du bewusst mit zweierlei Maß?
Nö wäre er nicht, ich erinnere:
GTX 1070 ~ GTX 980TI
GTX 2070 ~ GTX 1080 non TI
Nenene...kann man nicht schön reden das Teil sorry
. Für mich ist das im Prinzip ne maßlos überteuerte 2060. Und wat interessiert mich denn die Chipfläche
....106er Chip bleibt 106er Chip und den lässt sich Nvidia jetzt mal richtig vergolden
.
Und wat interessiert imch die Chipfläche
Und wat interessiert mich was du glaubst welche überteuerte, noch nicht vorhandene Grafikkarte es sein soll?
Chipfläche zeigt wenigstens, dass die Produktionskosten höher sind als bei der 1060. Dein imaginärer Vergleich zeigt NICHTS.
Noch dazu weil du 2 Karten vergleichst (1070 und 980 Ti) von denen beide in einem anderen Verfahren gefertigt wurden und vorallem: mit Konkurrenz.
Und jetzt vergleichst du halt Karten, die im selben Verfahren gefertigt werden: nochmal die Frage: was hast du eigentlich erwartet? 100% Mehrperformance obwohl man mit "demselben Wasser" kocht?
Und BAHAHAHAHAHA 106er Chip bleibt 106er Chip. Weil der Chip in der Produktion nun weniger kostet, weil er einen anderen Namen hat? WAS IST DAS FÜR EIN ARGUMENT?
Klar, der Name suggeriert "Performance-Klasse", aber letztendlich ist in dieser Performance-Klasse auch eine gewisse Rentabilität gegeben, also klieine Chips (siehe 200mm² bei der 1060). Ganz offenbar musst du den 106er Chip jetzt eher mit einem 102er Chip vergleichen.
Nvidia wollte wohl schon eher in 7nm Produzieren. Dann kannst du die Chipfläche halbieren. Ist aber nicht so gekommen.
Du willst es einfach nicht verstehen, Oder?
Erklärs mir bitte...
Der Chip der GTX 1060 wäre auch deutlich größer, wenn man dieser damals die RTX Features mit implementiert hätte, was nutzt Dir ein großer Chip, wenn man die gleiche Leistung auch mit einem Chip hinbekommt, der nur 1/3 so groß ist! Es geht hier auch nicht um einen Performance Chip von 200 bis 300,00 Euro, die RTX 2070 ist mit dem kastrierten und verstümmelten RTX Chip und der Leistung nicht mehr wert als eine GTX 1080 und von daher dürfte auch der Preis nicht mehr als 400,00 Euro betragen, das kostet nämlich derzeit eine GTX 1080.
Der Chip von Turing ist ja nicht nur wegen der RT Cores so groß... omg. Ja, die 1060 hätte dann 15-20% mehr Chipfläche. Also 240mm² BOAAAH
Woher willst du wissen, ob die 1070 ihre Leistung nicht wert ist. Die Architektur wurde massiv verändert und skaliert vielleicht ebenso wie Maxwell erst in Zukunft besser. Man erinnere sich in neueren Benchmarks fällt Kepler massiv ab, wo diese Architektur noch nahe dran war. Das wissen wir nicht. Wir sehen nur: teure GPU.
AMD ist halt mal zurzeit keine Konkurrenz, daher bringt es überhaupt nichts, ständig mit diesem Argument, die Abzocker Methoden von Nvidia zu verteidigen. Es bestand überhaupt kein Grund, dass man die Turing Modelle jetzt mit einem Raytracing Feature auf den Markt bringt, was im Moment selbst von einer RTX 2080Ti für 1.400,00 Euro gerade mal so mit 60 FPS in 1080p schafft. Man hätte sich einfach darauf konzentrieren können, den Grafikkarten mehr Leistung in Form von FPS zu verpassen und das Ganze mit einer nochmals verbesserten Effizienz gegenüber den Pascal Grafikkarten gepaart.
Natürlich gibt es einen Grund: Wenn man das nächstes Jahr macht, wo AMD Konkurrenzchips aufm Markt hat, hat man Probleme, weil die zusätzliche Chipfläche vielleicht für traditionelle Rastereinheiten wichtig gewesen wären. Jetzt hat man ein Jahr lang freies Feld. Oder ums mit deinen Worten zu sagen: du willst es einfach nicht verstehen wie wichtig es ist, dass Konkurrenz existiert. Preise über 600€ haben wir generell nur, weil AMD seit knapp 7 Jahren keine Konkurrenz mehr ist.
Man hätte der Turing 2080Ti dann als Gimmick diese RTX Features verpassen können, um zu zeigen, wohin der Weg in der Zukunft führt, da eigentlich nur diese 2080Ti in der Lage ist, Raytracing einigermaßen in 1080p zu stemmen. Aber so sind die RTX Turing Modelle bezüglich der Leistung und des Preises völlig uninteressant!
Woher willst du das eigentlich wissen? An einem Spiel, das völlig unoptimiert das Feature drangepappt hat und festgestellt hat: es läuft halt unter diesen Bedingungen langsam?
Ein von Null auf für die 2080 Ti entwickeltes Spiel mit Raytracing kann da auch in 4K super laufen. die 1080 P sind ja keine festgeschriebene größe, sondern der spezielle Fall, dass aktuelle Engines und Assets nicht auf RT ausgelegt sind.
Mit etwas Glück hast in 2-3 Jahren Spiele, die super laufen in Raytracing.
Fast so schnell wie die 1080?
Das ist ja ein ganz heißes Eisen.
Aber hey, 5 Watt weniger Verbrauch