Nvidia Turing: Angeblich neben Geforce RTX nun doch Geforce-GTX-Grafikkarten

Aber dafür müsste ein eigenes Chipdesign her oder aber der Chip trägt trotzdem die Tensorkerne. Wofür? Pascal eignet sich doch wunderbar für das Leistungssegment.
 
@gurdi
Weil das culling die Leistung beträchtlich steigern kann. So ein ähnliches Thema hatten wir ja heute schon. Das Verwerfen erfolgt dann in Gruppen, weil die GPU prüft was sie tatsächlich für das jeweilige Objekt braucht, dabei sind unterschiedliche LoD Level auf Objekte anwendbar (bis zu 7 Ebenen). Gleichzeitig werden Primitive die nicht sichtbar sind, schon früh (früher) verworfen. Tesselation braucht es für die Texturen dann nicht. Man spricht von 5mio Triangles pro Objekt (je nach Größe).

Wäre nett AMD würde sich noch mal Gedanken um ihre Pipeline machen. gfx9 versus gfx10. Ab Polaris werden meshes ja auch in den Geometrieengines gehalten und nicht mehr direkt im Level2-Cache. Siehe Vega theoretischer Durchsatz der Geometriengines. :)

So wie ich das verstehe und sehe kann man im Turing SM, Tensor einfach Tensor sein lassen. Da braucht es kein neues Chipdesign.:)
 
Die hätte mich auch vor einiger Zeit noch interessiert.
Für 8-900€.

Heute interessieren mich nur noch Nachfolger meiner 1080Ti, für um die 350€.
Kann ein paar Jahre dauern, bis die Leistung in der Preisklasse angekommen ist(4060 ? 5060 ? gebraucht ?).

Aber interessant finde ich trotzdem, was preislich und technisch mit der 2060 wird(aus reiner Neugier) und was unterhalb dieser Klasse mit, bzw. wohl eher ohne RTX-Feature passiert.

P.S.: Kann mir nicht vorstellen, dass es eine RTX 2050(Ti) geben wird.
Für mich geht es hier auch ums Prinzip. Es ist nicht so, dass man sich die neuen Karten nicht leisten könnte, aber dafür zahle ich keinen vierstelligen Betrag.
Mich interessiert Raytracing nicht, so lange es sich nicht durchgesetzt hat.
 
Eine GTX 2080TI mit 30% mehr Leistung einer RTX 2080TI nur ohne RT und für 999,- € hätte ich auch lieber genommen. Jetzt ist es aber so das RT eingeführt wurde und nach 10Jahren Entwicklungszeit nicht einfach wieder begraben wird. Die GTX Modelle unterhalb der RTX 2060 machen Sinn, darüber wird es wohl zu 99% Sicherheit bei RTX bleiben. Ab der nächsten Gen mit 7nm Fertigung werden dann wohl auch die kleineren Modelle RT und Tensorkerne erhalten. Alles andere würde mich schon sehr verwundern.

Das Nvidia jetzt wegen des Börsenkurs irgendwas unternimmt hinsichtlich Portfolio ist auch zu bezweifeln. Dafür ist die Planungsphase viel zu langfristig. Da reden wir eher von einem Jahr Reaktionszeit für neue / angepasste Produkte (Entwicklungszeit und Herstellung)
 
Da meine 1080ti mindestens 4 Jahre ihren Dienst tun soll hab ich zum Glück erstmal bis ca. 2021 ruhe.
So kann ich schön abwarten wie sich RT entwickelt, ob AMD wieder gute High End Karten bringt und was Intel für Grafikkarten abliefern wird.
Aktuell eine Grafikkarte zu kaufen ist doch reines Glücksspiel ob sich der RT Part für den man extra zahlt durchsetzt oder nicht.
 
Für mich geht es hier auch ums Prinzip. Es ist nicht so, dass man sich die neuen Karten nicht leisten könnte, aber dafür zahle ich keinen vierstelligen Betrag.
Mich interessiert Raytracing nicht, so lange es sich nicht durchgesetzt hat.
Ich sehe das ganz ähnlich. Bei vielen (incl. meinereiner) geht`s nicht ums nicht leisten können, sondern um`s nicht leisten wollen, für das bissi an Mehrperformance im Gegenzug zu Pascal. Ein vierstelliger Betrag ist bei mir für ne Graka eh nie vorgesehn, auch wenn ich meine Vorgängerkarte immer zu einem guten Preis verkaufen konnte. Ich hab mir ein Budget gesetzt und irgendwann ist auch halt schluss mit lustig...

Es geht auch nicht darum anderen ihre RTX 2080/ Ti nicht zu gönnen. Allerdings gefällt mir die Preisspirale besonders bei Oberklasse-Grakas in der letzten Zeit überhaupt nicht. Nvidia versucht da relativ geschickt höhere Preise zu etablieren. Wenn ich das mal ausreize/übertreibe: ne Titan RTX ist eh overkill für die meisten, aber die RTX 2080/Ti wirkt daneben ja wie ein Schnapper:D
Ankerpreis und so...:gruebel:

Gruß
 
Das Nvidia jetzt wegen des Börsenkurs irgendwas unternimmt hinsichtlich Portfolio ist auch zu bezweifeln. Dafür ist die Planungsphase viel zu langfristig. Da reden wir eher von einem Jahr Reaktionszeit für neue / angepasste Produkte (Entwicklungszeit und Herstellung)
Wenn die Stütze bei 130 wegfällt kann sie auf 70$ fallen, dass wäre ein Gau. Dann ist auch klar die Bewertung immer noch viel zu hoch. Bisher kommt RTX nicht an und das gefällt den Anleger scheinbar überhaupt nicht. Heute wieder neuster Tiefpunkt.

Ich will damit nicht sagen, dass man erst jetzt reagiert - aber wann man News streut ist wichtig. Das Entwicklungen weit vorher beginnen ist klar, manchmal kann der Zeitpunkt stimmig sein sie dann zu bringen. Wenn man Umfragen traut reichen 50% ohne RT Karten völlig aus. Enthusiast sind lediglich 4% wirklich interessiert jetzt zu kaufen, dass ist nichts. Man hat das Pferd von hinten aufgesattelt.

Derzeit kann man nur sagen "Finger weg" oder so wenig wie möglich, oder eben "Watchlist" und gut.:D
 
Das ist eine gewichtige Frage, ich persönlich glaube das es im mobile Bereich möglich wäre, im Desktop aber nicht.

Die neuen Mesh Shader bzw. die Pipeline ermöglicht das Level of Detail in Abhängigkeit zur Distanz bestimmter Objekte positiv im Sinne der Berechnungszeit zu beschleunigen. Das spart Berechnungszeit hauptsächlich auf der CPU. Groß genutzt wird es noch nicht, aber es wird sicherlich die Leistung gerade bei geometrielastigen Engine und auch vielen Objekten steigern können.

Introduction to Turing Mesh Shaders | NVIDIA Developer Blog

Ist natürlich auch eine Frage inwieweit man es damit übertreibt (Linsenoptik), aber es spart auf jeden Fall Zeit und der Algorithmus verbleibt auf der GPU. Das entlastet auch die Pipeline.

Man spricht von "Turing Shader" und Pascal kann das so nicht. Die Demo dazu müsste raus sein.:)

Naja aber GPU Culling kostet oft auch Leistung, kommt auf das Spiel und das Szenario an. In höheren Auflösungen dürfte es kaum was bringen abseits von DrawCall Bombs ala Odyssey oder Unreal Engine.

Zumal man das Problem eigentlich ja auch recht einfach via DX12 und Vulkan umgehen kann, dann spielt das Culling eigentlich keine Rolle mehr.

Das Nvidia jetzt wegen des Börsenkurs irgendwas unternimmt hinsichtlich Portfolio ist auch zu bezweifeln. Dafür ist die Planungsphase viel zu langfristig. Da reden wir eher von einem Jahr Reaktionszeit für neue / angepasste Produkte (Entwicklungszeit und Herstellung)

Nvidia hat sich binnen 4 Wochen die 1070ti aus dem Hals gewürgt nur wegen der V56. Die können ganz schnell ganz flexibel sein wenn die wollen.
 
Oh ich bin mal auf die

GTX Titan Xt +25% Leistung**
GTX 1180 Ti, +20% Leistung**
GTX 1180, +30% Leistung**
GTX 1170, +20% Leistung**
GTX 1160 +20% Leistung**

mit GDDR6 Speicher aber ohne Raytracing

für ca. 269€, 369€, 569€, 869€, 1369€

gespannt !
Wozu Features die für die Zukunft wichtig sind wieder rausnehmen und kaum was am Preis ändern? Und was soll eine 11xx Serie sein?
Was so alles abstürzende Wertpapiere bewirken können.

fantastisch !
Ist das dein Ernst?:wall: Du glaubst echt, dass die Nachfolger der 1030 und 50 ohne RTX, die schon seit einem Jahr oder mehr in Entwicklung sind irgendwas mit den aktuellen Kursen zu tun hat? :lol:


Ich finde es eher befremdlich, dass hier alle die Schuld für die hohen Preise beim RTX Feature suchen. Die einzig und alleinige Schuld ist hier der Markt (und somit die Käufer genauso wie die mangelnde Konkurrenz) selbst: Nvidia bietet mit der RTX Serie lauter Karten an die schneller sind als das schnellste Ding der Konkurrenz UND bietet weitere Features. Natürlich verlangt man dafür wie blöde. Solange es die Leute kaufen, wirds auch so sein. Kauft halt nicht, dann muss Nvidia was ändern.
Diejenigen die hoffen es kommen neue HIGHENDkarten (oder Performance) ohne RTX, aber gleichzeitig hoffen, dass sich das Feature dann ausgereift durchsetzt (wie soll das gehen ohne Marktverbreitung?) sind sowieso die lächerlichsten Träumer. Kauft doch Karten ohne Shader, da tut sich auch noch ständig was in der Entwicklung und am besten wärs ihr kauft Karten mit lauter Fixed Function Units ohne Shader, die sind dann aber wirklich Blitzschnell! Wer braucht schon diesen neuen Kram! Die sollen das zuerst endlich fertig entwickeln! Willkommen in 1996!

Zu den Preisen: wenn AMD mal wieder so dumm ist und die Situation nicht nützt (Nvidia verbrät derzeit viel Transistorbudget für Tensor und RT Cores), werde ich von denen keine Karte mehr kaufen. Sie haben 2019 die Chance ordentlich anzugreifen. 2080Ti oder mehr Performance mit 7nm - wenn man will. Und somit fast wieder auf Augenhöhe mit Nvidia sein (AMD braucht mehr Transistoren um dieselbe Leistung wie Nvidias Pascal zu erreichen, aber Nvidia braucht mehr Transistoren für die zusätzlichen Features).

Wäre ich die Lederjacke, würde ich aber sowieso tunlichst dafür sorgen, dass ich 2019 noch GPUs in 7nm auf den Markt bringe. Und wenn es schon kein Turing mit mehr CUDA, RT- und Tensor - Cores wird, dann wenigstens ein Shrink dieser fetten 12nm GPUs, um Kosten einzusparen und vielleicht die Taktraten erhöhen zu können.


in 7nm zu produzieren ist leider NICHT wie früher günstiger (wie im älteren Prozess) geworden: Es gibt Berichte, wonach sich mit 7nm die Preise pro Chip massiv erhöhen. Also auch wenn der 7nm Chip dann "nur" noch 350mm² groß ist, sind die Kosten dieselben wie in 12nm.
Nvidia wird also unter Umständen (AMD kann die 2080, Ti oder Titan nicht schlagen) es gar nicht nötig haben, die Turing-Generation abzulösen und erst im Frühjahr 2020 was bringen (also 6 Jahre nach Maxwell, 4 Jahre nach Pascal und 2 Jahre nach dem ursprünglich geplanten Turing Launch um wieder zum 2 Jahres-Rhytmus zurückzukehren). Es ist eh erstaunlich wie gering die Verbräuche (im Vergleich zur Konkurrenz) sind angesichts der riesigen Chips, desselben Herstellungsverfahrens, der Features...

Ich hatte lange Zeit die Hoffnung Nvidia wird mit 7nm die Leistung gleich nochmal verdoppeln. Aber weder erwarte ich das noch (in 7nm wären die Chips ja immer noch groß und man wird nicht gleich wieder riesige auflegen, eher für den Refresh dann) noch ist das sinnvoll (wie gesagt, falls AMD Nvidia auch in 7nm nicht schlägt (wie schon beim Wechsel auf 14nm vs Nvidias 28nm), ist Nvidia nicht gezwungen etwas zu ändern (und lacht sich weiterhin ins Fäustchen, weil der Vorsprung immer größer wird (Stichwort Erfahrung mit Raytracing, Zusammenarbeit mit Entwicklern).
AMD wird auch dankend Nvidias Preise annehmen, sobald sie auch wieder annähernd solche Features bringen
Wer braucht Raytracing, was die FPS abbremst?
erst in paar Jahren wird die Sache Marktreif werden. Belegt nur unnötig Chipfläche.
Na sowas, ein neues Feature bremst die Leistung! Das gabs noch nie! Frechheit (wer den Sarkasmus findet...)
Wie willst du etwas marktreif machen, das abhängig ist davon, wie sehr die Software dafür optimiert wird und somit braucht die Software eine vorhandene Hardwarebasis). Entwickler werden Raytracing erst richtig in ihre Entwicklung miteinbeziehen (und somit ordentlich optimieren und zur Schau stellen), wenn viele Leute es in ihren PCs haben und nicht nur die Titan-User
 
Zuletzt bearbeitet:
Nvidia hat sich binnen 4 Wochen die 1070ti aus dem Hals gewürgt nur wegen der V56. Die können ganz schnell ganz flexibel sein wenn die wollen.
Das war auch so ein Mining Produkt. Dann nicht losgeworden, weil AMD halt mit Vega dazwischen funkte. Wollte ja zuerst keinen haben und dann waren sie doch Recht teuer (anfängliche Lieferschwierigkeiten wegen HBM2). Die Miner griffen wegen dem neuen Treiber auf jeden Fall zu AMD und Polaris war zeitweise ausverkauft.:)

Async? Komisch auf der GDC2016 stellte EA etwa ähnliches per Präsentationsmaterial vor. Möglicherweise hat es nVidia umgesetzt. Dürfte ja nicht das erste mal sein das Entwickler bekommen was sie wollen.
 
Die Radeon RX 590 hat eigentlich den Schritt komplett erzwungen...

Schon die RTX 2060 ist eine komplett durchgeknallte Entscheidung gewesen, nach dem Flop-Start der größeren Karten ... Im Mainstream-Bereich um 100-300€ kann man dann Tensor Cores komplett vergessen - die würden jede Grafikkarte völlig wettbewerbsunfähig machen, weil sie den Preis stark hochdrücken.
Umbranden wäre einerseits eine Möglichkeit, die GTX 1060 besser abzuverkaufen. Aber danach gibt es dann wahrscheinlich neue Karten, auch wenn sich vielleicht nur das Fertigungsverfahren und die Effizienz ändert.
Oder es handelt sich eben um eine geshrinkte GTX 1060, die neu aufgelegt wird, um gegen die RX 590 bessere Chancen zu haben.

Da ich Kommentare gelesen habe, Nvidia solle doch einfach den Preis der RTX-Karten senken:
Da gibt es sicherlich Spielräume, weil Nvidia generell hohe Margen nimmt. Aber die können nicht so weit runter, wie diejenigen wahrscheinlich denken.
Die Tensor Cores nehmen Die-Fläche weg und sind bisher eigentlich nutzlos für PC-Spiele... Somit kann Nvidia niemals den Preis auf eine Höhe bringen, die gegenüber der Leistung gerechtfertigt ist - geht einfach nicht.
Die ganze Idee, ein Feature einzuführen, für das viel zu wenig Rechenleistung da ist, und dafür sogar zusätzliche Die-Fläche in der Menge zu opfern, ist schlicht ein Konstruktionsfehler, der in Hardware gegossen ist. Das kann niemand mehr retten.
 
Also ich würde für mehr Rohleistung statt RTX Schrott auch gerne bezahlen, und wenn die 1180 ti dann wieder 1300€ kostet, wenn sie dafür dann 6000 Shader hat.
Glück für dich: ROHleistung bekommt man ganz günstig. Muss man halt AMD kaufen, die haben meist mehr Rohleistung als Nvidia Pendants. Mir ist halt auch praktische Leistung wichtig, weshalb ich in der 7nm Generation neu kaufen werde - und diesmal erstmals vielleicht nicht AMD only. Hab den Saftladen lange genug mein Geld gegeben
Aber dafür müsste ein eigenes Chipdesign her oder aber der Chip trägt trotzdem die Tensorkerne. Wofür? Pascal eignet sich doch wunderbar für das Leistungssegment.

Ich finde auch schade, dass man Pascal nicht einfach weiterlaufen lässt. Für all die "RTX ist Mist!" Schreier einfach eine Karte ohne anbieten
Wer wirklich glaubt das Nvidia 10 Jahre intensiv(!) an RT gearbeitet hat, glaubt auch das Zitronenfalter Zitronen falten.
Nvidias Raytracing-Forschung geht mindestens auf das Jahr 2006 zurück. Damals haben wir am Institut mit ATI und Nvidia gemeinsam an Raytracinglösungen gearbeitet. Grundlagenforschung gabs schon viel früher
Nvidia hat sich binnen 4 Wochen die 1070ti aus dem Hals gewürgt nur wegen der V56. Die können ganz schnell ganz flexibel sein wenn die wollen.

Man hat bestehendes Chip und Kartendesign einfach umbenannt. Das ist etwas völlig anderes wie einen Chip aufzulegen ohne Tensor und RT Cores. Natürlich sind sie flexibel, sie sind ja nicht AMD die seit 8 Jahren nur 3 Buchstaben für ihre Architektur verwenden können. G.C.N..
 
Zuletzt bearbeitet:
Da ich Kommentare gelesen habe, Nvidia solle doch einfach den Preis der RTX-Karten senken:
Da gibt es sicherlich Spielräume, weil Nvidia generell hohe Margen nimmt. Aber die können nicht so weit runter, wie diejenigen wahrscheinlich denken.
Du hast bei knapp 61% Marge aber kein Mitleid, oder? Die können noch weit runter, nur wollen sie das gar nicht. Bei Alternate sah ich gestern ein GT104 non A Dice (RTX2080) für 699. Geht doch, wenn die Käufer nicht wollen. Diese Mogelpackung kommt ja leider noch dazu, bei der 2070 sicher nicht ganz schlimm, wie Raff aufzeigte (ein paar Frame weniger, dafür deutlich geringere Leistungsaufnahme). Die A Dice prügelt man dann auch über 200-220W.:D
 
Zuletzt bearbeitet:
die ganzen kommentare hier sind wieder einfach zum fremdschämen.

ich glaube es haben inzwischen genug leute verstanden das ihr die RTX reihe NICHT kaufen wollt. dann tut es doch einfach nicht und spammt doch bitte nicht jeden nvidia thread damit voll.

zu den gerüchten: schwachsinn, irgendein unsinniger fake sonst nix
 
Du hast bei knapp 61% Marge aber kein Mitleid, oder? Die können noch weit runter, nur wollen sie das gar nicht. Bei Alternate sah ich gestern ein GT104 non A Dice (RTX2080) für 699. Geht doch, wenn die Käufer nicht wollen. Diese Mogelpackung kommt ja leider noch dazu, bei der 2070 sicher nicht ganz schlimm, wie Raff aufzeigte (ein paar Frame weniger, dafür deutlich geringere Leistungsaufnahme). Die A Dice prügelt man dann auch über 200-220W.:D
Die Marge bei Nvidia war schon lange super. Seit Kepler baut man kleinere, günstigere Chips/Karten und kann diese zu höheren Preisen anbieten. Seit Maxwell ist der Vorsprung sogar riesig
 
PCGH führte das vor Kurzem aus: http://www.pcgameshardware.de/Nvidi...schaeftszahlen-Mining-Aktie-Einbruch-1269447/

Wobei das dann nach Preisverfall aussehen würde. Will man auch nicht, man könnte aber in Läden seine UVP durchsetzen, im Onlinehandel leider nicht. Macht kaum ein Hersteller. Bedenken muss man, dass die ganz sicher in Stückzahlen abgeben.

NVidia hat es mit dem Direktverkauf irgendwo übertrieben und tritt dabei zu sehr in Konkurrenz mit seinen eigenen Partner. Dabei schaukelt sich alles hoch, jeder will und muss was abhaben - bis hin zum Händler. Das GPU Binning für die FE macht es nicht besser.

Was die Meldung über TU ohne RT angeht, die stammt von zwei unterschiedlichen Quellen.
 
Zuletzt bearbeitet:
Wenn sie wirklich die Karten ohne das RTX Gedöns zu nem annehmbaren Preis verkaufen wär das schon ne coole Sache, aber dann kommen sich die ganzen RTX Käufer bestimmt verarscht vor wie die 1080 Käufer nachdem diese damals um 1-200 Dollar (weiß nimmer) gesenkt wurde bei der Ankündigung der 1080ti.
 
Naja,

wenn die Gerüchte stimmen, dass Nvidia da noch einen haufenweiese GP 106 auf Halde liegen hat, wird es wahrscheinlich nen Reband als GTX 1160 geben, vlt. dann nur auf dem chinesischen Markt um die 5GB Variante abzulösen?

Die fertigen Chips alle nochmal zu binnen scheint mir wenig auf kaufmännischer Sicht wenig sinnvoll und eine Ti Variante halt ich, im Angesicht der bald erscheinenden GTX 2060, für recht unwahrscheinlich.

Einen, wie auch immer gearteten, Turing Chip als GTX 1160 zu verkaufen wäre doch allein aus Marketinggründen schon Quatsch: Wenn man schon kein RTX Prefix hat, dann doch bitte wenigstens 20XX um sich von Pascal abzuheben.
 
Zurück