Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

Nvidia enthüllt sämtliche technische Daten der Geforce RTX 2080 Ti, RTX 2080 und RTX 2070. Ab dem 20. September wird die neue Geforce-Generation mit dem Codenamen Turing offiziell in den Händlerregalen stehen. Die Grafikkartenreihe Geforce RTX 2000 führt unzählige Neuerungen ins Feld, welche wir an dieser Stelle zusammenfassen - die konkreten Produkte Geforce RTX 2080 Ti, RTX 2080 und RTX 2070 behandeln wir in gesonderten Artikeln.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen
 
Ein wirklich überzeugend tolles GPU Monster - was Nvidia mit den neue Geforce RTX 2080Ti (2080/2070) & Quadro RTX 8000/6000 Serie .... als völlig Neue HighEnd 'Turing' GPU Architektur mit Ai Tensor & RT Cores Power hier abgeliefert hat. :daumen:

Weiter so Nvidia - Vorsprung durch hervorragende Forschungs-Arbeit & neue zukunftsweisende Technologien !!!

Danke dem .... :nicken: "GPU Welt-Marktführer" :nicken:
 
Zuletzt bearbeitet:
Wow, ich würde DLSS wirklich auf einem Level mit 4xSGSSAA einordnen, wenn sich diese Qualität bewahrheitet. Die Kantenglättung ist sogar noch besser, doch dafür werden einige Details verfälscht. Damit ist 8k Gaming bald möglich. Aaaber, ich kaufe mir dennoch keine RTX Karte um von meiner 1080 Ti umzusteigen, dafür müsste das schon in allen Games möglich sein und die Glättung wirklich so hochwertig herauskommen wie auf den Bildern zu sehen. Denn wenn ich das in allen Games aktivieren könnte und auch in 4k bei 60 oder mehr Hertz, dann wäre die RTX 2080 Ti wirklich 2x1080 Ti.
 
Thx, ich habe mich schon gefragt wann die News kommt. ^^

Aber schon jetzt kann ich der Redaktion ein großes Lob geben, alles ist sehr gut und detailliert erklärt, und liest sich gut. :daumen:
 
Zuletzt bearbeitet:
Ich glaube halt wirklich das die Turings von der Leistung nichts groß reißen werden sonst hätte sie die NDA Termine nicht verschoben und würden nicht erst jetzt beginnen andere über RTX reden zulassen.

Wenn die RTX 2070 den TU 106 bekommt, bedeutet das ja dann wohl auch, dass der Leistungsabstand zur RTX 2080 größer wird, als das noch bei der GTX 1070 zur GTX 1080 der Fall war, oder? Nach allem was man bisher so weiß, kann ich mir beim besten Willen nicht vorstellen, wie eine RTX 2070 deutlich schneller sein soll, wie eine GTX 1070 von Pascal.

Einen deutlichen Vorsprung wird man nur erreichen mit Raytracing oder dem neuen Kantenglättungsfeature DLSS, vermutlich hat man genau auch aus diesem Grund so ein neues Feature kreiert, damit überhaupt ein deutlich Leistung Vorteil entsteht!

Schaut man sich dann noch an, welche Probleme eine RTX 2080 und 2080Ti schon mit Raytracing unter 1080p haben und man sich jetzt noch vorstellt, das eine RTX 2070 die Raytracing Berechnungen nur halb so schnell wie eine RTX 2080Ti in der gleichen Zeit durchführen kann, da bin ich doch mal gespannt was das für eine Ruckelorgie wird!
 
Zuletzt bearbeitet:
Ein wirklich überzeugend tolles GPU Monster - was Nvidia mit den neue Geforce RTX 2080Ti (2080/2070) & Quadro RTX 8000/6000 Serie .... als völlig Neue HighEnd 'Turing' GPU Architektur mit Ai Tensor & RT Cores Power hier abgeliefert hat. :daumen:

Weiter so Nvidia - Vorsprung durch hervorragende Forschungs-Arbeit & neue zukunftsweisende Technologien !!!

Danke dem .... :nicken: "GPU Welt-Marktführer" :nicken:

Du willst ums verrecken Leute triggern mit deinen Posts oder?


Haha, direkt als zweiter Beitrag ist schon wieder Werbung reingerutscht :)

Zum Whitepaper... Eh zu teuer und ich warte auf Benchmarks...

Da bin ich auch sehr skeptisch, die 10er Reihe wird für das Groß der Leute wohl weiterhin die bessere Karte bleiben.

@PCGH da habt ihr aber schön euren Print Text im Artikel verwurstet :D
 
Ok. Das war wirklich eine Wall of Text, durch die man sich erst einmal durchlesen musste, bzw. mochte. :)
Teilweise natürlich sehr technisch spröde, aber für mich dennoch spannend zu lesen(Zielgruppe getroffen ;) ). Also gut gemacht ! :daumen:

Wenn ich das alles richtig verstanden habe, hab ich richtig vermutet, dass für mich der Einsteig in's RT noch nicht lohnt, da meine Ziele nicht Full HD sind, sondern UWQHD und das zu einem guten Preis-/Leistungsverhältnis und flüssig(für mich wenn's geht 60+ Minimum FPS auf 100Hz G-sync).
Hab für mich da ja schon eine gute Lösung zur Überbrückung von 1-2 Generationen gefunden.

Wie ich vermutet habe ...
wobei die Präzision (mehr Rays) jederzeit hochgefahren werden kann, wenn stärkere Hardware erscheint. All das muss auch für Globale Beleuchtung, Schatten, Refraktionen et cetera implementiert werden, wobei vor allem Lichtbrechung ein höheres Maß an alternierenden Strahlen braucht und sich daher nicht derart leicht optimieren lässt
... wird es noch einige Zeit brauchen, bis das so implementiert ist, wie ich es gern hätte.
Und so lange kann ich gern noch auf RT verzichten und mit den künstlichen Tricks der Spieleentwickler leben, die ja auch so schon ganz gute Arbeit leisten, in so manchem Spiel.

Ich finde aber gut, dass Nvidia jetzt den Einstieg gewagt hat, denn eine bessere Situation hätten sie sich kaum aussuchen können. Der Zeitpunkt wo sie den Highendgamingbereich beherrschen und wenig Druck von der Konkurrenz kriegen, ist schon ziemlich passend, wie ich finde.
Natürlich wünsche ich mir, dass AMD bald richtig gut nachlegt und auch in das Thema RT mit einsteigt und am besten die nächsten Konsolengenerationen in Zukunft ebenfalls. Letzteres zumindest in abgespeckter Form.

Dann könnte ich mir vorstellen, dass die Unterstützung der Spieleentwickler steigt.

Bin auf jeden Fall gespannt darauf, wie sich diese Technik(en) weiter entwickeln und wie schnell es sich in der Spieleindustrie wirklich verbreitet. Gewünscht sind diese Effekte im Gegensatz zu anderen älteren, sicherlich.
Von daher rechne ich mit einer größeren Bereitschaft dazu.

Mal gespannt wie gut die das bereits jetzt hinbekommen, in der Anfangsphase.


Aber ich kann das natürlich ganz entspannt beobachten, denn ich habe meine Hardware für die nächsten(zumindest 2) Jahre schonmal passend zu UWQHD ohne RT gewählt.

Ich drücke RT die Daumen, dass das was wird. :daumen: Würde mich freuen.
Und irgendwann in 1-2 Generationen könnte ich mir auch den Kauf eines RTX Modells(mit dann hoffentlich deutlich mehr Leistung für RT) vorstellen, wenn denn alles optimal laufen sollte, sprich: Alle anderen auch mitspielen.


edit:

Computerbase bringt es ziemlich gut auf den Punkt, was ich meine:

... werden sie das gesamte Potenzial von Turing noch nicht erschließen können, denn Raytracing und KI in Spielen steht noch in – oder eher gesagt vor – den Startlöchern. Was die neuen Techniken wirklich bringen, wird sich so richtig erst in ein paar Jahren wirklich klären lassen.
Quelle: GeForce RTX 2080 Ti, 2080 & 2070: Technik im Detail (Seite 3) - ComputerBase
 
Zuletzt bearbeitet:
Ich Denke schon .... Turing ist nicht nur Pascal auf 'Steroiden' - da ist mehr dahinter RT & Ai !

NVIDIA Turing-Architektur: Automatisches Overclocking per OC Scanner

Mit der Turing-Architektur und den dazugehörigen Grafikkarten der GeForce-RTX-20-Serie führt NVIDIA ein neues automatisches Overclocking ein. Der OC Scanner durchläuft die Spannung/Frequenz-Kurve automatisch ab und ermittelt den jeweils höchsten Takt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
NVIDIA machts AMD vor und NVIDIA weiß das sie was besseres haben, daher können sie auch mehr verlangen, zumindest fürs erste. Besser als das was Intel gemacht hat, von Sandy Bridge (Anfang 2011) bis Kaby Lake (Ende 2017) keine relevante Steigerung, wenn man bei gleichem Takt vergleichen würde. "Nur" energie-effizienter und etwas verbesserter integrierter Grafikchip, womit man trotzdem heute nicht mal ältere Spiele halbwegs zocken kann.

Aber egal. Kann mir einer sagen was es mit NVLink auf sich hat? Ist das jetzt so ne Art SLI 2.0? So wie ich das verstanden habe - oder eher verstehen will ^^ - könnte man echte 100% Mehrleistung bekommen und man wäre nicht abhängig von Entwicklern, die NVLink in ihre Spiele integrieren müssen wie es bei SLI war.
 
Zurück