Nvidia Turing: Angeblich neben Geforce RTX nun doch Geforce-GTX-Grafikkarten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Turing: Angeblich neben Geforce RTX nun doch Geforce-GTX-Grafikkarten

Aus Fernost stammen aktuelle Gerüchte, dass Nvidia neben der kommenden Geforce RTX 2060 auch eine "Geforce GTX 1660 Ti" veröffentlichen werde. Die Leakerseite Videocardz.com geht dabei von einem Fehler aus, man will aus eigenen Quellen von einer Geforce GTX 1160 erfahren haben, die auf der Turing-Architektur basiert. Andere Gerüchte reden von einem GTX-1060-Rebrand.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Turing: Angeblich neben Geforce RTX nun doch Geforce-GTX-Grafikkarten
 
Wäre doch super.
Auf die RTX, DLSS etc. Features kann ich verzichten wenn dafür aber die Leistung der RTX Karten da ist.

Und das ganze zu einem Preis, wie die bei Navi gemunkelt wird, wäre doch für alle super.
 
Es könnte auch die Mobilevariante gemeint sein, diese wird nämlich noch als GTX 1160 gehandelt und wird im Frühjahr zumindest für OEMs verfügbar sein.
 
Oh ich bin mal auf die

GTX Titan Xt +25% Leistung**
GTX 1180 Ti, +20% Leistung**
GTX 1180, +30% Leistung**
GTX 1170, +20% Leistung**
GTX 1160 +20% Leistung**

mit GDDR6 Speicher aber ohne Raytracing

für ca. 269€, 369€, 569€, 869€, 1369€

gespannt !

Was so alles abstürzende Wertpapiere bewirken können.

fantastisch !
__________________

**zum Vorgänger der letzten GTX Serie.
 
Zuletzt bearbeitet:
Wie wäre es mit nem Rebrand auf Turing der gesammten Reihe ich kaufe dann die 1180Ti ohne RT das Geld sollen andere im unreifen stadium zahlen dafür den Platz aber durch Leistung ersetzt. So 80% wären ein Traum realistisch 50%, die wären mir 600-800€ wert. Problem der Prise-Fail 2080Ti hat nur 30% mehr als die 1080Ti:P und die will man sicher nicht übertrumpfen. 20% mehr Leistung für 800€+ wäre ein Fall für den Gebrauchtmarkt kauf nach 2 Jahren für 1080/1080Ti Besitzer das wäre nur etwas für Neukunden. 11 Minimum fps mehr bei 60fps-Lock... naja. Aber es wäre nicht schlecht im Gegenteil
 
Zuletzt bearbeitet:
Wäre doch super.
Auf die RTX, DLSS etc. Features kann ich verzichten wenn dafür aber die Leistung der RTX Karten da ist.

Und das ganze zu einem Preis, wie die bei Navi gemunkelt wird, wäre doch für alle super.
Gibts doch schon in Form der 10er Reihe, von der Leistung der 2080 Ti mal abgesehen.

Ich finde das nicht gut. Raytracing ist ein tolles Feature, das momentan noch in den Kinderschuhen steckt. Wenn das in Zukunft großflächig eingesetzt werden soll, darf es nicht auf sündteure RTX Sonderkarten beschränkt bleiben, sondern muss in den nächsten Jahren zum Standard Featureset einer Grafikkarte wachsen. Denn Raytracing IST besser als Rasterizing, nur eben noch nicht bereit für 60 fps.

Tesselation war am Anfang auch ein 15 fps Fermi Showcase in Metro 2033, mittlerweile wird es auf entsprechenden Detailstufen praktisch in jeder Szene eingesetzt. Das hätte nicht geklappt, wenn es ein High-End exklusives Feature geblieben wäre.
 
Also ich würde für mehr Rohleistung statt RTX Schrott auch gerne bezahlen, und wenn die 1180 ti dann wieder 1300€ kostet, wenn sie dafür dann 6000 Shader hat.
 
Raytracing ist sicher ein tolles Feature und ich finde es super, dass Nvidia mal was neues wagt, leider haben die bei den Preisen den Arcsh etwas zu weit offen. Wie viele anderen hier brauche ich im Moment die Rohleistung für 4K, die 980 Ti will langsam ersetzt werden. Eine 1180 Ti ohne RTX würde ich gern nehmen. Meine Schmerzgrenze liegt aber bei magischen 999 inklusive Wasserkühler. Schaumermal, vielleicht können die "abstürzende Wertpapiere" [(c) Snowhac] wirklich die Nvidia-Hirnies etwas züchtigen
 
Mit Turing ist das ganze Raytracing sowieso noch sowas wie eine nette Spielerei. Wirklich interessant wird das erst, wenn mehr RT-Cores zum Einsatz kommen, also mit zukünftigen Generationen. Wenn nVidia jetzt also Turing-Karten ohne RTX bringt, dann um teildefekte GPUs an den Mann zu bringen. Die fetten Turing-GPUs sind sicher alles andere als billig in der Herstellung und Ausschuss tut da besonders weh. Darum klingt es gar nicht so unwahrscheinlich, dass nVidia diese GPUs zu Geld machen will.
Dann hätte ich mir aber an Stelle von nVidia gleich die RTX 2070 und 2060 gespart, denn wenn schon die 2080 (Ti) zu schwach für anständiges RT sind, trifft das erst recht auf die Varianten darunter zu. Dann hätte man eben eine GTX 1170 auf Basis des TU104 gebracht, bzw. eine GTX 1160 auf TU106 (116)-Basis.

Wäre ich die Lederjacke, würde ich aber sowieso tunlichst dafür sorgen, dass ich 2019 noch GPUs in 7nm auf den Markt bringe. Und wenn es schon kein Turing mit mehr CUDA, RT- und Tensor - Cores wird, dann wenigstens ein Shrink dieser fetten 12nm GPUs, um Kosten einzusparen und vielleicht die Taktraten erhöhen zu können.
Denn wer weiß was AMD macht, wie schnell Navi werden wird. Die Gerüchte sind sich noch uneins. Manche sagen Navi 10 soll die GTX 1080 angreifen, andere gehen sogar von der RTX 2080 aus. Genau so wird gemunkelt, dass Navi 20 schon Ende 2019 erscheinen könnte. Auch wenn dem nicht so sein sollte und die konservativeren Schätzungen eher zutreffen sollten, nVidia sollte nicht den Fehler machen sich auf den Lorbeeren auszuruhen wie es Intel gemacht hat.
 
Sollte sich das bewahrheiten dann könnte dass auch bedeuten dass Raytracing eine Totgeburt ist. Nvidia könnte RTX absichtlich auf das 2000er Namensschema gelegt haben um zur Not doch auch weiter ohne Raytracing GTX 11xx, 12xx usw vermarkten zu können. Könnte sein dass die RTX 20xx die einzige Karten mit Raytracing und diesem namensschema bleiben. Wäre aber irgendwie schade, RT ist eigentlich dass wo es in Zukunft hingehen soll. Nur sind die Fertigungsprozesse wohl noch nicht so weit um da genug Leistung zuzulassen.

Mal sehen ob es dann mit 7nm oder besseren Prozessen einen neuen Anlauf gibt, auch von AMD. Wäre schade wenn es das mit Turing gewesen wäre und RT ein einmaliges Experient wäre. Die Chips sind einfach noch zu groß und damit zu teuer und leisten zu wenig für RT.
 
Wäre sicher ein Deal um die Ausbeute zu erhöhen, wenn es sich um Chips handelt bei denen man RT Fähigkeiten teildeaktiveren kann, wenn diese beschädigt ist.

Einfacher dürfte es sein GPU104 Dice (1070/1070ti) zu verwenden, die man aus dem Miningboom noch über hat. Dann kann man die 590 überflügeln und die eigene Entwicklung in ähnlicher Preiskategorie halten, bis die Dice abverkauft sind. Direkte Partner gaben da 1000ende Stückzahlen zurück, weil sich abzeichnete das man diese nicht wirklich los wird. Insgesamt würde dies die Abschreibungen für das 4.Q im laufenden Fiskaljahr mindern was sich positiv auf den Aktienkurs auswirken könnte und um Investoren zu halten.

Genausogut kann das GT107 ohne geplante RT-Fähigkeit sein, weil es von der Leistung her einfach keinen Sinn mehr macht.

Es könnte auch die Mobilevariante gemeint sein, diese wird nämlich noch als GTX 1160 gehandelt und wird im Frühjahr zumindest für OEMs verfügbar sein.
Da wurde auch die 2060 angekündigt, denn erstere Daten zum GT106 waren imo auf den mobile bezogen. Kann gut sein das der GT106 dort als GTX2070m mit 6GB VRAM GDDR6 vermarktet wird und nur in teureren Gaming Notebooks verbaut wird. Multimedia reicht ja auch ein Derivat ohne RT.
 
Zuletzt bearbeitet:
Ein Namensschema im 1100er Bereich wäre sicherlich vor allem im Interesse der Großkunden - naja, lieber eine 1160 als Pascal im 2000er-Bereich.
 
Eine GTX 2080Ti würde mich interessieren. :)

Die hätte mich auch vor einiger Zeit noch interessiert.
Für 8-900€.

Heute interessieren mich nur noch Nachfolger meiner 1080Ti, für um die 350€.
Kann ein paar Jahre dauern, bis die Leistung in der Preisklasse angekommen ist(4060 ? 5060 ? gebraucht ?).

Aber interessant finde ich trotzdem, was preislich und technisch mit der 2060 wird(aus reiner Neugier) und was unterhalb dieser Klasse mit, bzw. wohl eher ohne RTX-Feature passiert.

P.S.: Kann mir nicht vorstellen, dass es eine RTX 2050(Ti) geben wird.
 
Ich glaub ja eher an ein Rebranding. Ich kann mir nur schwer vorstellen wie die Shader genau so laufen sollen wie bei Turing ohne die integrierten Tensors.
 
Ich glaub ja eher an ein Rebranding. Ich kann mir nur schwer vorstellen wie die Shader genau so laufen sollen wie bei Turing ohne die integrierten Tensors.
Das ist eine gewichtige Frage, ich persönlich glaube das es im mobile Bereich möglich wäre, im Desktop aber nicht.

Die neuen Mesh Shader bzw. die Pipeline ermöglicht das Level of Detail in Abhängigkeit zur Distanz bestimmter Objekte positiv im Sinne der Berechnungszeit zu beschleunigen. Das spart Berechnungszeit hauptsächlich auf der CPU. Groß genutzt wird es noch nicht, aber es wird sicherlich die Leistung gerade bei geometrielastigen Engine und auch vielen Objekten steigern können.

Introduction to Turing Mesh Shaders | NVIDIA Developer Blog

Ist natürlich auch eine Frage inwieweit man es damit übertreibt (Linsenoptik), aber es spart auf jeden Fall Zeit und der Algorithmus verbleibt auf der GPU. Das entlastet auch die Pipeline.

Man spricht von "Turing Shader" und Pascal kann das so nicht. Die Demo dazu müsste raus sein.:)
 
Zuletzt bearbeitet:
Zurück