• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080 deutlich schneller als 2080: Digital Foundry macht den Hands-on-Test

Chronik

PC-Selbstbauer(in)
Wenn du sofort eine brauchst, dann kannst du jetzt günstig eine gebrauchte 2080 kaufen. Wenn du die Mehrleistung der 3080 nicht brauchst, eventuell auch auf die 3070 warten. Vorteil wäre noch, dass bis dahin auch AMD sicherlich was gezeigt hat.

Jetzt eine neue 2080 kaufen halte ich nicht für den besten Zeitpunkt, außer der alte Rechner ist gerade kaputt gegangen und man will nichts gebrauchtes.

Mit AMD meinst doch sicher eine Radeon? Gut von Radeon halte ich nicht viel (btw.: hat als Kind eine Radeon karte im Rechner [mit ME oder XP] ...)
Oder kann man mit einer AMD CPU + AMD (Radeon) Karte noch mehr aus denm Rechner rausholen (ohne übertakten zu müssen)?

Weiß den schon einer die Leistung von der 1070 zur 3070 und wieviel Watt diese im Vergleich brauch?

Also z.Z. habe ich eine 1070 drin und diese tut auch ihren Dienst :daumen: aber man muss auch ein bischen mit der Zeit gehn und aktuelle Spiele brauchen halt immer mehr Leistung (nicht nur CPU abhängig)! Mein jetziger Rechner wird 2021, vier Jahre alt.
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ich spiele langsam mit dem Gedanken die 3080 einfach so zukaufen und nicht auf die 20gb Version warten. Habe mal einige VRAM Test angeschaut und für WQHD reicht 10Gb aktuelle mehr als aus. Und die 3080 haben ja auch neue schnellere VRAM. Mal gucken was die neuen Tests wirklich sagt, hoffentlich mit kräftigen Aussage über VRAM Verbrauch.

Es ist ein landläufiger Irrtum, dass schneller Speicher einen Mangel an Kapazität ausgleicht. Lesetipp dazu: https://www.pcgameshardware.de/Gefo...-vs-Radeon-R9-Fury-X-5-Jahre-spaeter-1350843/ :-)

MfG
Raff
 

RavionHD

PCGH-Community-Veteran(in)
10 TF (2080) vs. 30 TF (3080) ist eine Steigerung von 200% (3x). Während im DF-Video eine durschnittliche Leistungssteigerung von 80% (1,8x) erzielt wurde. Dabei wurde diese Steigerung ausschließlich in RT-Spielen erzielt. Leadbetter meinte ja selbst im Video dass die von Nvidia proklamierten 100% (2x) Steigerung in Leistung nur in Heavy-RT Spielen erzielt werden können. Das hat er mit Szenen aus Control, wo besonders viele RT-Effekte verwendet wurden und mit RT-Version von Quake 2 (die mit Path Tracing lief) verdeutlicht.

In normalen Spielen, die nicht auf RT-Cores angewiesen sind, sondern nur auf TF-Leistung ist die Leistungssteigerung noch deutlich geringer. Deswegen wundere ich mich dass eine 3x TF Steigerung höchstwahrschinlich nur eine 1,5x Steigerung in Leistung bedeutet. Das alles mit einer Generation weiter entwickelten GPU-Architektur wohl gemerkt.
Nein, fast 90% wurde auch in Doom erzielt, das nutzt kein RT, auch Borderlands 3 nutzt kein RT.
Im Schnitt liegt die Steigerung bei den getesteten Spielen (auch ohne RT) zwischen knapp 70% bis fast 100%.
Hochgerechnete Zahlen (ohne RT):
Borderlands 3 (4k/Bad Ass/DX12/4K/TAA)
RTX 2080 - 34.33fps
RTX 2080 ti - 48FPS
RTX 3080 - 61.79fps (180%)


Shadow of the Tomb Raider (4k/Highest/TAA)
RTX 2080 - 47fps
RTX 2080 ti - 61FPS
RTX 3080 - 78.96fps (168%)


Battlefield V (4k/Ultra/TAA/DXR OFf)
RTX 2080 - 67fps
RTX 2080 ti - 84FPS
RTX 3080 - 112fps (168%)


Control (4k/High/TAA/DLSS OFf)
RTX 2080 - 31.8fps
RTX 2080 ti - 41.7FPS
RTX 3080 - 56.47fps (177.6%)


Doom Eternal (4k/Ultra Nightmare)
RTX 2080 - 82.3fps
RTX 2080 ti - 105.8FPS
RTX 3080 - 156fps (189.6%)

Das ist eine Steigerung von 45% bis 75% zur RTX 2080ti(!!).

Die enorme Steigerung der Rohleistung wird sich mit Sicherheit mit der Zeit immer mehr bemerkbar machen - der Abstand zwischen Turing und Ampere wird wohl immer mehr wachsen.
 

TheWitcher79

PC-Selbstbauer(in)
Ich freue mich ja so sehr, dass ich die 2er ausgelassen habe. Jetzt stehe ich nur noch vor dem Dilemma zu entscheiden, ob meine gute alte 1070 durch die 3080 abgelöst werden sollte oder doch lieber die 3070 und dafür eine neue Plattform (B550 + Zen 4) ? Oje ich sehe schon das wird echt schwer. Was meint Ihr ?
 
M

Metamorph83

Guest
Mit AMD meinst doch sicher eine Radeon? Gut von Radeon halte ich nicht viel (btw.: hat als Kind eine Radeon karte im Rechner [mit ME oder XP] ...)
Oder kann man mit einer AMD CPU + AMD (Radeon) Karte noch mehr aus denm Rechner rausholen (ohne übertakten zu müssen)?

Weiß den schon einer die Leistung von der 1070 zur 3070 und wieviel Watt diese im Vergleich brauch?

Also z.Z. habe ich eine 1070 drin und diese tut auch ihren Dienst :daumen: aber man muss auch ein bischen mit der Zeit gehn und aktuelle Spiele brauchen halt immer mehr Leistung (nicht nur CPU abhängig)! Mein jetziger Rechner wird 2021, vier Jahre alt.

Sagen wir mal so deine 1070 gegen die 3070, ist wie golf gegen audi rs 6 mtm
 

TheGoodBadWeird

Software-Overclocker(in)
Tja Leute..."kaufe niemals 1st Gen" Is' so. :nicken:

Der Trick ist sich in der 1st Gen die Mittelklasse zu kaufen und dann 1-2 Jahre später ein größeres Modell des Refreshs oder Nachfolgers mit besserem Preis-/Leistungsverhältnis.

Alternativ ein oder zwei Generationen komplett überspringen und dann massiven Zuwachs in allen Metriken haben. :hail:

Panik-Verkäufe auf allen Verkaufsplattformen...alleine die Ebay-Kleinanzeigen werden überflutet mit 1st Gen RTX Karten.

War das bei einem großen Generationswechsel jemals anders? Außer vielleicht dem Miningboom von Pascal & Polaris und bei Turing wegen der gestiegenen Preise war das immer so! ;)

Die Leute sind das nur nicht mehr gewohnt und weinen jetzt, weil sie aus idiotischen Gründen dedacht haben die Grafikkarten halten alle so lange wie Pascal mit z.B. einer 1080 Ti. :devil:

Kein Wunder. Die Präsentation war ein heftiger Schlag ins Gesicht für alle 2080 und 2080Ti-Käufer. Über 60% Wertverlust von einen auf den anderen Tag...mein Beileid :ugly:

Pfff ... selber Schuld sage ich dazu nur! Der Wertverlust war abzusehen und eigentlich Monate vorher über Leaks quasi angekündigt. Die Informierten haben in den letzten Wochen fast zum Originalpreis verkauft und sind jetzt glücklich.

Der Rest behält seine Stücke entweder oder hört generell auf zu meckern. Früher hatte man diese Problematik alle 6 Monate. Da war alles beim Kauf prinzipiell bereits hoffnungslos veraltet. Werteverluste von 100% waren keine Seltenheit. :daumen2:

Dagte ich schon, als der Test Publik wurde... Aber ich denke, selbst 50% Mehr Leistung overall wäre alles andere als schlecht.

Pessimisten und vielleicht der eine oder andere neidische Redakteur, unabhängig von der Testquelle. Ob das jetzt 60%, 70% oder 90% Mehrleistung im Vergleich zum Vorgänger sind, macht doch eh keinen großen Unterschied.

Vor allem für die ewig wartenden mit Kepler, Maxwell oder Pascal dürfte sich das jetzt mehr als jemals zuvor lohnen.

Es ist ein landläufiger Irrtum, dass schneller Speicher einen Mangel an Kapazität ausgleicht. Lesetipp dazu: https://www.pcgameshardware.de/Gefo...-vs-Radeon-R9-Fury-X-5-Jahre-spaeter-1350843/ :-)

Raff, die Fury X war von vorne herein ein Speicherkrüppel und damit zum Scheitern verurteilt. Jeder wusste das und die Frage, ob es reicht konnte man sich ohne Kopfschütteln garnicht ernsthaft stellen.

Die Fury X war außerdem von AMD falsch vermarktet. Darin hieß es, das HBCC-Feature würde das ausgleichen, ähnlich wie es die Konsolen mit der Streamingoption jetzt tun(!). Funktionierte wie die meisten RADEON_Features™ nicht richtig und hatte deshalb die leichtgläubigen Fans in die Irre geführt.

Bei Speicher generell nützt mehr Kapazität mit langsamerem Speicher auch nichts. Das hatte ich in meinem Leben bereits viel zu oft, besonders bei regulärem Arbeitsspeicher. :wall:

Videospeicher hingegen kann man mit schlauer Bedienung der Regler steuern. Eine Methode, für die ich allerdings die meisten Mitforisten inzwischen nicht mehr für fähig halte. :lol:
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Fiji konnte leider noch kein HBCC, das kam erst 2017 mit Vega. Eine Fury/Nano mit HBCC würde ich heute wirklich gerne mal testen, damit könnte man womöglich einige Probleme leicht entschärfen.

Es gibt viele interessante Ansätze, um Spiele in Zukunft effizienter zu programmieren, auch was Streaming und Allokation angeht. Allein ... es macht niemand. Wer kauft sich schon eine Grafikkarte für die zwei Bestcases, wenn der Rest läuft wie Grütze?

[x] 10 GiByte sind gegen Ende des Jahres 2020 das Minimum (und für eine Grafikkarte der Leistung "2080 Ultra" zu wenig)

MfG
Raff
 

TheGoodBadWeird

Software-Overclocker(in)
Fiji konnte leider noch kein HBCC, das kam erst 2017 mit Vega. Eine Fury/Nano mit HBCC würde ich heute wirklich gerne mal testen, damit könnte man womöglich einige Probleme leicht entschärfen.

Die Nano hätte ich mir damals fast als kleine HTPC-Karte zugelegt. Größe und Stromanschluss an der Seite waren wirklich Argumente, aber der Preis war einfach nicht tragbar.

Inzwischen ist sogar Polaris besser und ich glaube selbst mit funktionierendem HBCC würde keine Fiji-Karte in Sachen Rohleistung noch mithalten. Dagegen helfen auch keinen Trillionen-Gigggabeitzzz (virtuellem) VRAM. :devil:

Es gibt viele interessante Ansätze, um Spiele in Zukunft effizienter zu programmieren, auch was Streaming und Allokation angeht. Allein ... es macht niemand. Wer kauft sich schon eine Grafikkarte für die zwei Bestcases, wenn der Rest läuft wie Grütze?

Nun ja, diese Generation sehen wir sowohl im PC als auch den Konsolen einen Ansatz in Richtung Flaschenhalsbekämpfung und allgmeinen Datendurchsatz. Es ändert sich scheinbar der Fokus in der Industrie, was ich generell begrüße.

Hoffentlich werden die Restriktionen nicht zu einengend. Das ist ein wichtiger Punkt, vor dem ich ein wenig Bammel habe.

[x] 10 GiByte sind gegen Ende des Jahres 2020 das Minimum (und für eine Grafikkarte der Leistung "2080 Ultra" zu wenig)

Ich weiß und schätzt dich als "Extremspieler & Benchmarker" mit ebenso großen extremen Ansprüchen. Wer sich eine Titan eimal geholt hat, wird sicher niemals wieder zurück gehen.

Bei so einer Karte wie der 3080 sehe ich die Dinge allerdings aus einem anderen Blickwinkel. In meinem Haushalt benutzen die Spieler 32:9 Ultra-Wide Monitore(?). Das sind die 49-Zöller Sondermodelle mit 2x WQHD (5120x1440).

Bisher sind wir noch nicht einmal ins vRAM-Speicherlimit gelaufen. Rohleistung hingegen ist massiv ein Problem. Eine 3080 sehe ich da als ideale Karte und wird wahrscheinlich sogar vorbestellt.

Falls in der Redaktion noch Zeit für Sondertest besteht, würden wir uns über Tests in dieser Konfiguration sehr freuen. :hail:
 
Zuletzt bearbeitet:
M

Metamorph83

Guest
Ich such mal die Rechnung.
Ich habe in Erinnerung das ich ~2 Monate nach Release die Karte gekauft hatte (war zu dem Zeitpunkt des Release auch nicht in DLand).

Hier hat schon einer die Rechnung gepostet und es bestätigt 719€ für ne Palit. Da ich selber ne 1080 von Zotac gekauft hatte direkt nach Relese für 769 Euro, sind mir die Preise bekannt...
 

Frank-Langweiler

Freizeitschrauber(in)
Fiji konnte leider noch kein HBCC, das kam erst 2017 mit Vega. Eine Fury/Nano mit HBCC würde ich heute wirklich gerne mal testen, damit könnte man womöglich einige Probleme leicht

[x] 10 GiByte sind gegen Ende des Jahres 2020 das Minimum (und für eine Grafikkarte der Leistung "2080 Ultra" zu wenig)

MfG
Raff

Proof it! Bitte benche uns den Beweis. Ich vertraue euch absolut. Im Moment scheint mir die 3080 für WQHD angemessen.
 

Pootch

Komplett-PC-Käufer(in)
Also bevor da nicht auch die gängigen Auflösungen auftauchen, sind mir diese Benchmarkvergleiche sowas von wurst.
Wieviel % zocken in 4k? sinds überhaupt 2%?

Bei den anderen Auflösungen schaut der Vorsprung dann nämlich ganz anders aus.. aber die Leute springe wieder auf den Hype auf ;) (wie jedes Jahr)
So wie die Leute jedes Jahr ihr neues Handy brauchen brauchen sie auch ihre neue GPU jedes neu.. Es leben die Konsumgesellschaft
 
R

RNG_AGESA

Guest
Also bevor da nicht auch die gängigen Auflösungen auftauchen, sind mir diese Benchmarkvergleiche sowas von wurst.
Wieviel % zocken in 4k? sinds überhaupt 2%?

Bei den anderen Auflösungen schaut der Vorsprung dann nämlich ganz anders aus.. aber die Leute springe wieder auf den Hype auf ;) (wie jedes Jahr)
So wie die Leute jedes Jahr ihr neues Handy brauchen brauchen sie auch ihre neue GPU jedes neu.. Es leben die Konsumgesellschaft

mir ist nur 3840x1600 wichtig... und da bin ich deutlich näher an 4k, daher.. 1x 3080
 

Blackout27

Volt-Modder(in)
Nein, fast 90% wurde auch in Doom erzielt, das nutzt kein RT, auch Borderlands 3 nutzt kein RT.
Im Schnitt liegt die Steigerung bei den getesteten Spielen (auch ohne RT) zwischen knapp 70% bis fast 100%.
Hochgerechnete Zahlen (ohne RT):


Das ist eine Steigerung von 45% bis 75% zur RTX 2080ti(!!).

Die enorme Steigerung der Rohleistung wird sich mit Sicherheit mit der Zeit immer mehr bemerkbar machen - der Abstand zwischen Turing und Ampere wird wohl immer mehr wachsen.

Hast du noch zu den RT spielen die Fps Angaben? :)

Die 3080 macht schon eine super Figur. Ich finde aber den Stromverbrauch trotz dieser Leistung sehr hoch. Hoffentlich zieht die Karte bei Spielen nicht die vollen 320 Watt ^^
Ich hoffe nun auch auf die sogenannte 3080ti samt 9216- 10240 Shader und den 20GB GDDR6X: Bitte mit dem 3090 Kühler :devil:

Die hohe Shaderzahl verwirrt mich aber nach wie vor. Weiß man denn wie Nvidia die Shader nun zählt oder ob es überhaupt "vollwertige" Shader sind im Vergleich zu Turing.
 

Bevier

Volt-Modder(in)
Proof it! Bitte benche uns den Beweis. Ich vertraue euch absolut. Im Moment scheint mir die 3080 für WQHD angemessen.

Das Problem ist aber, dass die reine Rohleistung auch problemlos für 4k reicht und hier wird der Speicher, dank der neuen, stärkeren Konsolengeneration in naher Zukunft vermutlich knapp für maximale Details und Texturen. Die Karte ist deutlich stärker als die aktuell stärkste Karte, die aktuell am ehesten für 4k geeignet ist, da sollte die 3080 doch noch mehr können. Von der reinen Leistung her, ist das auch der Fall aber der Speicher wird doch etwas zu knapp für das sehr hohe Potential...

Klar, jeder, dem WQHD reicht, wird noch lange glücklich sein aber für FullHD reichten theoretisch auch 4 GB und wurden vor etwa 4 Jahren doch schon zu knapp. Der Speicher ist extrem auf Kante genäht und so wird eine potentielle Version mit doppelten Speicher immer die bessere aber auch deutlich teurere Wahl sein. Hier wäre eine Version mit 12 GB an 384 Bit schöner gewesen und hätte effektiv kaum mehr gekostet (unter 50 $), was das Preisverhältnis noch einmal deutlich verbessert hätte und selbst dem größten Gegner verdammt viel Wind aus den Segeln genommen...
 

Cook2211

Kokü-Junkie (m/w)
Klar, jeder, dem WQHD reicht, wird noch lange glücklich sein aber für FullHD reichten theoretisch auch 4 GB und wurden vor etwa 4 Jahren doch schon zu knapp. Der Speicher ist extrem auf Kante genäht und so wird eine potentielle Version mit doppelten Speicher immer die bessere aber auch deutlich teurere Wahl sein. Hier wäre eine Version mit 12 GB an 384 Bit schöner gewesen und hätte effektiv kaum mehr gekostet (unter 50 $), was das Preisverhältnis noch einmal deutlich verbessert hätte und selbst dem größten Gegner verdammt viel Wind aus den Segeln genommen...

Ich kann mich noch gut an Diskussionen rund um die GTX580 erinnern. Die Standardvariante hatte 1,5GB VRAM. Damals herrschte größtenteils die Meinung dass das für alles lange Zeit ausreichen würde.
Dann brachten die Boardpartner Versionen mit 3GB VRAM und es wurde häufig die Meinung vertreten, dass das auch langfristig niemand brauchen wird.
Das langfristige Ergebnis sah dann jedoch so aus, dass die 3GB Käufer lange Spaß an ihrer GTX580 haben konnten, während die 1,5GB Variante schneller als es manchem Käufer lieb war, durch den VRAM limitiert wurde.
Lange Rede kurzer Sinn: Mehr VRAM ist immer besser, und die 10GB der 3080 sind in meinen Augen, in Anbetracht dessen, was die GPU (vermutlich) zu leisten im Stande ist, zu knapp bemessen.
 

Olstyle

Moderator
Teammitglied
Ob GDDR6X mit kleinem Speicherinterface am Ende die schlauste Wahl war muss sich auch noch zeigen. Man spart vielleicht ein Layer auf dem PCB und etwas Chipfläche, aber erkauft sich das mit Backdrill und hohen Speicher-Preisen wie -Stromverbräuchen.
 

olimon0

Komplett-PC-Käufer(in)
Kann mir nochmal einer erklären, warum die 1080ti nicht besser in 4K ist, als die 2070S? Ich habe das als Beleg verstanden, das 11Gb Apfel nicht mehr sein muss als 8Gb Birnen.

Das ist nur ein Beleg wie überdimensioniert die 1080ti damals war. Pascal war einfach der Hammer,
Speicherverdopplung durch die Bank und eine immense Leistungssteigerung. So gut, dass man bei Turing die Speicherausstattung einfach beibehalten konnte.

Das bedeutet wir sind jetzt bei einer Speicherverdopplung über 2 Generationen gelandet. Wenn man jetzt sieht, dass heute 8GB gerade so reichen (Bei Wolfenstein Youngblood und Horizon und Flugsimulator eher nicht). Dann weiß man, dass die Speicherausattung steigen sollte.

Verdopplung über 2 Generationen halt ich für sinnvoll, also wären 50% diese Gen sinnvoll gewesen und eine 12 GB 80er Karte wäre in meinen Augen eine Gute Msichung aus Leistung und Speicheraussattung gewesen.
 

Chronik

PC-Selbstbauer(in)
Kann mir jemand sagen wann die 2. (oder 3. ?) Gen in der Regel raus kommen? ein viertel/halbes Jahr später?
Nun ich finde die 10GB VRAM ziemlich wenig! Wird den der VRAM in der Regel erhöht wenn eine neue Gen rauskommt?
 

Threshold

Großmeister(in) des Flüssigheliums
Die 1070 gibt es mit 8GB, die 2070 gibt es mit 8GB, die 3070 gibt es mit 8Gb.
Vram erhöhen ist daher eher nicht zu erwarten. Und wann die 4000er kommt, weiß keiner.
 

Threshold

Großmeister(in) des Flüssigheliums
Aha aber wie unterscheide ich eine 1. Gen zu einer 2. Gen (ggf. 3 Gen) karte

guck dir doch die 2080 und die 2080 Super an. die Super ist ein Refresh. Sie hat etwas mehr Leistung und fertig.
Das was du meinst wäre die nächste Generation. Also die 4000er Serie und die wird wohl erst Ende 2022 kommen.
 

Chronik

PC-Selbstbauer(in)
guck dir doch die 2080 und die 2080 Super an. die Super ist ein Refresh. Sie hat etwas mehr Leistung und fertig.
Das was du meinst wäre die nächste Generation. Also die 4000er Serie und die wird wohl erst Ende 2022 kommen.

Upps sry,, ja falsch von mir ausgedrückt ich mein eine refresh.
Als ich hier ein paar Kommentare weiter gelesen habe, schrieb ein User: "kaufe niemals 1st Gen" (ist von NIghtlight), tja und da dachte das die 3080/3070 eigene Generationen (bei der 2080 ists ja Super?!) mit Verbesserungen haben. Nun wenn diese einfach mit Refesh versehen sind (oder ein anderes Wort hinter der Zahl haben)...
Also nochmal wenn kommen diese Refeshs in Regel immer raus?
 

Threshold

Großmeister(in) des Flüssigheliums
Die Refresh kommen ein Jahr später. Also 2021 sollte die 3080 Super kommen -- oder wie sie immer heißen wird.
In welchem Maße sie dann mehr Leistung hat, bleibt abzuwarten. Der Unterschied von der 2080 Super zur 2080 war ja nicht so groß.
Und eine 2080 Ti Super gab es ja nie.

Meine 1080 ti hat jetzt 4 Jahre gehalten. Das passt soweit.
Ich werde vermutlich auf die 3090 wechseln und dann wieder schauen, was die 5000er Generation zu bieten hat.
 

Chronik

PC-Selbstbauer(in)
Und eine 2080 Ti Super gab es ja nie.

Die "Ti" ist eine eigene Genration?
Naja kann ja sein das Nvidia sich gesagt hat, kommt nennen wir dieses Jahr die Refesh Version einfach Super und verbinden somit die "Super" und "Ti" version der 2 Karten, in eine Karte? (Ich wei aber nicht was die Ti und die normale für Specs hat!)

Edit: naja wenn die Refesh Karten immer erst ein Jahr später rauskommen, werde ich wohl noch ein Jahr warten dranhängen.
 
Zuletzt bearbeitet:

Threshold

Großmeister(in) des Flüssigheliums
Na ja, es geht um den Refresh. Einen Refresh der 2080 Ti gab es halt nicht.
War ja auch nicht nötig, da AMD in dem Leistungsbereich nichts anzubieten hat.
 
Oben Unten