Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

Hier mal nun undervolted. GPU verbraucht im Schnitt rund 180-190W dabei, also nicht von der max TDP ausgehen, meist liegen mid 70er Werte da an und immer noch schneller als die RTX 2080 (die erreicht da ja nur 4629Punkte :D
CPU wieder nur 8600K mode mit 4.5GHz Takt und 4.2 Cachetakt. RAM auf 3000MHz.

Anhang anzeigen 1009738

Oh weh, nicht mal ne 1080ti mit 1,75Ghz wird geschlagen.Trotz schnellerem Ram.

die 8gb der turing arbeiten doch viel effektiver als die von pascal.
Darauf wurde von raff doch schon eingegangen. Das spart keine Speicherbelegung sondern lediglich Rechenzeit! 8GB bleiben 8GB. Die Kompression ist für die Pipeline.
 
Das Nein bezieht sich drauf, dass ich hier nach Informationen über die Nvidia RTX Karten suche. Bin froh sie hier zu finden und dankbar wenn jemand für mich danach sucht. War beim Erscheinen von Vega genauso. Also hier wo im Thread Titel genau darauf abgezielt wird . Warum denn nicht. Nochmal, auch deine zusätzlichen Beiträge habe nichts mit dem eigentlichen Inhalt des Artikels zu tun, gar nichts. So und damit du wiEder das letzte Wort hast kannst du gerne antworten. Post 15362 bitte.
Und wie bitte willst du dann nach spezifischen Informationen suchen, wenn zum Beispiel, wie hier, Quadro--Infos beim 2080/ti Dossier gepostet werden? Ist doch Unsinn aber vielleicht wäre es besser wenn man nicht mehr schreibt sondern auch nur noch mit Folien und c&p Posts antwortet, überall und egal zu was.^^ Am besten PCGH schreibt auch keine Produkt spezifischen Artikel mehr sondern postet alles nur noch in irgendwelche threads als c&p von Marketingsfolien. :ugly: Ja klingt viel effektiver und logischer. :P

MfG
 
Viele der komplett neuen Turing Technologie-Features gilt es noch zu ergründen .... zum einen die NEUE 'lossless Memory Compression' (verlustfreie Speicherkomprimierung) der Nvidia RTX Turing Architektur, als auch die Neuen erweiterten 'Turing Tensor Cores' (Volta Erbe), sowie die Leistung der Neuen Streaming Multiprocessor (SM) samt dem 'Killer-Feature' Deep Learning Super-Sampling (DLSS) .... wird also richtig spannend mit voll gebündelter FP32 + INT32 Rechenleistung gleichzeitig .... ;o)

>>> Die Turing SM unterstützt die gleichzeitige Ausführung von FP32 und INT32 Operationen (weitere Details weiter unten), unabhängige Thread-Planung ähnlich der Volta GV100-GPU. <<<
[...]
Ich finde es interessant, wie Du, statt mich mit Argumenten zum Speicher zu kontern, jetzt auf die Rechenleistung umschwenkst.
 
noch 21 Std
ich bin so geil auf diesen test
mal sehen wie sehr neutral PCGH computerbase und co bleiben
echte Test kommen wohl erst ab den ersten Oktober falls sich Heise CT dazu bemüht
 

Stell mal auf 8K um und du bekommst die gleiche Fehlermeldung für ne AMD Vega FE mit 16 GByte VRAM ... Die Fehlermeldung kam bei dem Versuch Wolfenstein 2 in 5K zu starten.
Du kannst jeden Grafikspeicher aushebeln, wenn du die Auflösung hoch genug wählst.

Ich gebe dir aber trotzdem in soweit Recht, dass für eine Grafikkarte die explizit mit UHD beworben wird 8 GByte schon sehr an der Grenze sind. Und das bereits in heutigen Spielen.
 
Ich gebe dir aber trotzdem in soweit Recht, dass für eine Grafikkarte die explizit mit UHD beworben wird 8 GByte schon sehr an der Grenze sind. Und das bereits in heutigen Spielen.
Das ist halt der Punkt. Durch den Focus auf 4k muss man davon ausgehen, das an den entscheidenden Stellen nicht mit Einschränkungen zu rechnen ist, von daher kann man das bei einer 830 € + Karte schon als enttäuschend betrachten.

p.s.: Im PCGH Test steht aber etwas von UHD Auflösung/ maxed out und nicht 5k?!??

MfG
 
Zurück