Geforce RTX 3080: Wie UHD-tauglich ist die Ampere-Karte?

Ich hab keine RTX 3080, aber in ersten Anwendungen beim Rendern und Bildnachbearbeitung melden schon verschiedene Tester, wo die RTX 20xx schon unschlagbar war, noch einmal bis zu 70% schneller sein als der Vorgänger.
Beim Spielen in egal welcher Auflösung ist Aktuell auch keine OC-CPU von beiden Herstellern in der Lage, Sie an den Flaschenhals-Limit zu bringen, nur eben ans Speicherlimit. Daher weis ich nicht genau, ob sich Aktuell eine Spieler-PC Aufrüstung da lohnt.
Die Power gibts auch nicht umsonst, auch wenn der Kaufpreis mal etwas angenehmer als die letzten geworden sind. Dafür wird Ordentlich Saft aus der Steckdose genuckelt, was eig bisher AMD´s Spezialität war, aber schwerer für jede Konkurrenz die neue durstige RTX zu schlagen.
 
Redest du von diesem ... sagen wir mal ... recht vermurksten Möchtegern-benchmarkporgramm, wo sich ne 3080 selbst mit "RT ON" noch tierisch langweilt ? Also in 4k jetzt mit alles auf max und can i
edit: In dem Test dort, lief die 3080 teilweise nur mit 50% Auslastung auf 4k mit alles can it run crysis.
Bei RT on ging's auch mal auf zumindest 70-80% hoch. Aber die 3080 langweilte sich immer noch.

War anfänglich positiv überrascht, von der Leistung der GPU weil auf 2GHz. Bis ich gemerkt hatte. Die hat gar nix zu tun !
Also konnte man da leider gar nix Richtung GPU ableiten. Das Programm (Crysis Remastered) schien mir total vermurkster Müll zu sein. Extrem CPU Limitiert. Hab das Video dann nicht weiter geguckt.

Die 3080 langweilt sich da nicht, sondern läuft am Limit. Der Grafikspeicher der Karte reicht nicht aus, und deshalb ist die Auslastung so niedrig.
 
Die 3080 langweilt sich da nicht, sondern läuft am Limit. Der Grafikspeicher der Karte reicht nicht aus, und deshalb ist die Auslastung so niedrig.
Nein, das Spiel lastet nur einen CPU Kern sehr aus, und diesen zu 100% und daher befindet es sich im CPU Limit. Selbst in 1080P mit weniger Vram Belegung befindet sie sich im CPU Limit.
Das hat nichts mit dem Grafikspeicher zutun.
 
Ich kann es langsam echt nicht mehr hören. Ja, die 10 GB der Karte sind eine gewisse Schwachstelle. Aber nein man wird auch mit der Karte in den nächsten 5+ Jahren alles zum laufen bekommen und davon in den nächsten 2 Jahren alles sehr gut bis ultimativ. Momentan ist es einfach die beste Karte. Wer sich daran extrem stört, der soll sich eine RTX 3090 holen, damit wird er ohnehin glücklicher.
Die 10GB sind nicht eine gewisse Schwachstelle sondern die Schwachstelle.
Bei den ersten Next Gen. Konsolenports können wir uns wieder über die Speicherthematik mit
einer dann auf PCGH hofentlich folgenden Tiefenanalyse unterhalten.

Die 10GB der XBOX werden wohl kaum die Referenz für high performance pc gaming darstellen.
Der Anspruch sollte wohl schon 1 bis 2 Qualitätsstufen oberhalb angesiedelt sein, sonst kannst du dir ja gleich eine Konsole für 500€ holen und glücklich damit werden.
Ergo kannst du von Glück reden wenn 16-20GB für diesen Anspruch noch reichen werden.

Aber was jetzt passiert ist eine Never Ending Story die sich jedesmal wieder aufs neue abspielt wenn NVIDIA einen
halbgaren Speicherkrüppel auf den Markt wirft.
Es wird verzweifelt, krampfhaft nach Schema F in einer Endlosschleife versucht die geringe Speichermenge gut zu reden komme was wolle und wer gegenteiliger Meinung der spinnt. Das war bereits bei der GTX970, GTX680 und diversen anderen Karten der Fall.
 
Schön wie viele 4k-jünger sich über die 10GB Vram der 3080 aufregen. Die 3080 ist ein Pendant zur 2080 und nicht zur 2080Ti (womit sie ständig verglichen wird), nur weil sie deren Performance übertrifft.

Für Spieler mit Full- und WQHD reichen die 10GB Vram der 3080 die nächsten relevanten Jahre völlig aus. Es gibt durchaus Spieler, die sich die Karte zulegen, um ihre neuen kompetitiven 240 und 360hz Monitore zu befeuern, oder einfach auf hohe Bildraten in WQHD bei schickter Optik stehen...wofür die 3080 in ihrer Preiskategorie vollkommen geeignet ist.

Wer 4k spielen möchte und entsprechend enthusiastisch ist, der soll zum 2080Ti Nachfolger greifen und sich eine 3090 verbauen. Die hat ausreichend Vram und die 4k Leistung ist ebenfalls besser. Wem das nicht reicht - die 3090 ist SLi fähig. Zu teuer...der Leistungsgewinn steht in keinem Verhältnis zu den Mehrkosten? Nicht unser Problem - kauft euch was anderes, was besseres.

Problem gelöst.
 
Für mich in 3440*1440P eigentlich optimal die Karte, da auch genug Leistungsreserven.
Was den Vram angeht bezweifle ich dass die 10GB zu Problemen wie Ruckler oder Texturmatsch führen.
Und da sollte man sich nicht von der Vram Belegung in die Irre führen lassen, Horizon Zero Dawn z.Bsp. befüllt gerne mal fast 16GB Vram wenn vorhanden, trotzdem habe ich es mit 8GB flüssig gespielt.
Im worst Case stellt man die Texturstufe eine Stufe runter, davon geht die Welt nicht unter, vor Allem weil es ohnehin zu 90% gleich aussieht.
Und wer das nicht möchte greift zur 20GB Variante für mehr Geld.

bei 3440x1440 könnte es tatsächlich sein, dass der Unterschied zwischen 4k Texturen und 8 Texturen in vielen fällen nicht zun erkennen ist. Weil ja niemand 20cm vorm Bildschirm sitzen wird oder während des Spielens mit der Lupe nach unterschieden suchen kann.

60FPS bei UHD finden die meisten PC Spieler doch nicht voll UHD tauglich.
Ich lese immer von 144FPS und mehr sonst ruckelts

50 - 60FPS ist das wo Spiele gerade erst beginnen tauglich zu werden... Voll tauglich liegt mehr bei 90 FPS und darüber liegen Kompfortzonen die es durchaus noch angenehmer machen können.

Der Genussspieler will aber sicher mehr als 60fps

Das Programm (Crysis Remastered) schien mir total vermurkster Müll zu sein. Extrem CPU Limitiert.

War nicht das original Crysis auch auch CPU limitiert nach dem die Gafikkarten das nötigste schafften... - das wäre dann eine bekannte Altlast.


Ja, die 10 GB der Karte sind eine gewisse Schwachstelle. Aber nein man wird auch mit der Karte in den nächsten 5+ Jahren alles zum laufen bekommen und davon in den nächsten 2 Jahren alles sehr gut bis ultimativ.

Wer unter 4k spielt und sich vorstellen kann in zwei Jahren wieder upzugraden - dürfte mit der kleinen 3080 keine Probleme haben - muss nicht auf die 20GB-Version warten - kauft sich dann eben eine 4080 mit mehr Speicher und kann in den zwei Jahren die nun kommen sicher alles spielen.

Und wer immer das max haben will muss auch jetzt zur 3090 greifen und zwei Jahren trotzdem wieder aufrüsten, weil auch die 3090 in zwei Jahren nicht mehr alles bieten wird.


Für FullHD empfiehlt sich die 2070. Schließlich spielt man auf FullHD um Geld zu sparen. - Noch mehr kann der FullHD--Spieler einsparen, wenn er grundsätzlich auf Raytracing verzichtet.

Denn als Ratracing-Liebhaber ist es schwerer ein überzeugter Sparefroh zu bleiben.
 
Die Leute, die jetzt vorerilig eine bestellt haben, werden sich entweder bei der AMD-Präsentation oder bei der Ankündigung einer 20G 3080 sehr ärgern. Aber gut, dann ist die Strategie von NV aufgegangen. Und wer direkt nach Launch bestellt, dem ist eh nicht zu helfen.
 
Der Lüfter auf der Rückseite sieht im ersten moment aus als wenn er zur Karte hin pustet, nicht raus.:)

Joa nicht schlecht. Ich hoffe indes auf eine 3080Ti.
Dieses"Super" kürzel der vor Gerneration, kommt mir vor, wie ein Kleinwagen mit extra großer Auspuffblende und Chiptunig! Parkplatztuning eben. Aber das Ti Kürzel ist auch irgendwie dazu verkommen. 1660Ti und konsorten
Ein verbeulter Eimer der Goldfarbend angesprüht wird, und mit Kunstoff Edelsteinimitaten beklebt

1. Zu wenig Speicher,Man will die Karte ja auch ein paar Jahre nutzen. Meine 11GiB sind so schon bei 1, 2, 5 Spielen in UHD fast am Limit. Aktuell hab ich grad FFXV gekauft und davor SotTR, das war auch nah dran. Auf weniger VRAM Nutzung in den Nächsten Jahren und Engine Gernerationen braucht man nicht hoffen.

Und als 2. , für Mich sind 60% kein Lohnendes Upgrade.. Ich spiele in WQHD und UHD. Da sollten 70-80fps schon an mein Auge weitergegeben werden sonst fangen sie das Bluten an^^.
Details Runterdrehen macht kein Sinn für mich-Es gibt immer nur eine Richtung: "Nach Vorne". Denn ich spiele ja auch am PC damit es besser aussieht als der Standard konsolen kram.

Egal welche GPU ich kaufe -vlt auch AMD wer weiß- das Powerlimit wird sowiso bei jedem Spielstart ausradiert.
 
Zuletzt bearbeitet:
2017:
Für 4K nimm die GTX1080Ti mit 11GB! Die hat übertrieben viel Speicher und ist 30% schneller als die GTX1080!

2018:
Für 4K nimm die RTX2080Ti mit 11GB! Die hat übertrieben viel Speicher und ist 50% schneller als die GTX1080Ti!

2020:
Für 4K nimm AUF KEINEN FALL die RTX3080! Die ist zwar bis zu 35% schneller, bringt jede aktuelle CPU zum Limitieren, und kostet, mit einer UVP von 300€, weniger als die RTX2080Ti, ABER HAT NUR 10GB!!!!! dU wIrSt DaMiT iNs SpEiChErLiMiT gElAnGeN!!!111einself

:lol:
 
Schön wie viele 4k-jünger sich über die 10GB Vram der 3080 aufregen. Die 3080 ist ein Pendant zur 2080 und nicht zur 2080Ti (womit sie ständig verglichen wird), nur weil sie deren Performance übertrifft.

Für Spieler mit Full- und WQHD reichen die 10GB Vram der 3080 die nächsten relevanten Jahre völlig aus. Es gibt durchaus Spieler, die sich die Karte zulegen, um ihre neuen kompetitiven 240 und 360hz Monitore zu befeuern, oder einfach auf hohe Bildraten in WQHD bei schickter Optik stehen...wofür die 3080 in ihrer Preiskategorie vollkommen geeignet ist.

Wer 4k spielen möchte und entsprechend enthusiastisch ist, der soll zum 2080Ti Nachfolger greifen und sich eine 3090 verbauen. Die hat ausreichend Vram und die 4k Leistung ist ebenfalls besser. Wem das nicht reicht - die 3090 ist SLi fähig. Zu teuer...der Leistungsgewinn steht in keinem Verhältnis zu den Mehrkosten? Nicht unser Problem - kauft euch was anderes, was besseres.

Problem gelöst.

Ziemlich dumme Argumentation wenn die 3080 von Nvidia für 4K beworben wird oder? Auch besonders wenn die Vergleiche von Nvidia immer mit 4K angestellt werden. Dabei hatte ich mir vorgenommen, niemandes Kommentar zu lesen, der das Wort Jünger benutzt. Für solche Leute wie dich habe ich eine ganz spezielle Schublade.
 
Schön wie viele 4k-jünger sich über die 10GB Vram der 3080 aufregen. Die 3080 ist ein Pendant zur 2080 und nicht zur 2080Ti (womit sie ständig verglichen wird), nur weil sie deren Performance übertrifft.

Für Spieler mit Full- und WQHD reichen die 10GB Vram der 3080 die nächsten relevanten Jahre völlig aus. Es gibt durchaus Spieler, die sich die Karte zulegen, um ihre neuen kompetitiven 240 und 360hz Monitore zu befeuern, oder einfach auf hohe Bildraten in WQHD bei schickter Optik stehen...wofür die 3080 in ihrer Preiskategorie vollkommen geeignet ist.

Wer 4k spielen möchte und entsprechend enthusiastisch ist, der soll zum 2080Ti Nachfolger greifen und sich eine 3090 verbauen. Die hat ausreichend Vram und die 4k Leistung ist ebenfalls besser. Wem das nicht reicht - die 3090 ist SLi fähig. Zu teuer...der Leistungsgewinn steht in keinem Verhältnis zu den Mehrkosten? Nicht unser Problem - kauft euch was anderes, was besseres.

Problem gelöst.

Du erzählst uns jetzt mit welcher Karte die 3080 verglichen wird ? Woher nimmst du dir das Recht raus, mir vorzuschreiben mit welcher Karte ich die 3080 vergleiche ? Wer bist du eigentlich ?

Ich bin WQHD Spieler und werde von meiner 1080 wechseln, Fakt ist aber die 10 Gbyte aktuell nicht die gleiche Zukunftsfähigkeit bietet wie meine Gamerock 1080 mit 8 Gbyte. Deine Kommentare kannst du dir sparen über Speicherauslastung in WQHD, denn Fakt ist, du weißt es nicht. Wenn ich eine Prognose möchte, lese ich das Horoskop.

Sind die gleichen Aussagen wie 4 Kerner vs 6 Kerner..... Quad Core hält ewig ...kauf bloß keinen 5820K mit der teuren Plattform.... Fakt ist, der hält heute noch die Fahnen hoch und mit 4,20Ghz auf allen 6 Kernen muss er sich vor keinem Ryzen verstecken....
 
Was ihr so fürProbleme habt die 3080 hat doch 2 GB mehr Speicher als die 2080 was ja ihr Vorgänger ist aber na ja

Geiz ist Geil Mentalität :-)
 
Ziemlich dumme Argumentation wenn die 3080 von Nvidia für 4K beworben wird oder? Auch besonders wenn die Vergleiche von Nvidia immer mit 4K angestellt werden. Dabei hatte ich mir vorgenommen, niemandes Kommentar zu lesen, der das Wort Jünger benutzt. Für solche Leute wie dich habe ich eine ganz spezielle Schublade.

Hahahaha du bist ein guter Typ. Natürlich ist der Wow-Effekt in 4k Vergleichen größer, wenn eine 700 Euro Karte mehr abliefert, als eine 2080Ti. Sie ist durchaus 4k tauglich - das bewirbt man auch. Dennoch - wem das nicht reicht, der kann zur 3090 greifen. Darüber hinaus stehen die Leute auf 4k...egal ob nativ, oder nicht - wie auf dem Konsolenmarkt, hauptsache es steht 4k drauf. Marketing läuft...aber du bist kluk genug, um nicht darauf hereinzufallen...denke ich.



Du erzählst uns jetzt mit welcher Karte die 3080 verglichen wird ? Woher nimmst du dir das Recht raus, mir vorzuschreiben mit welcher Karte ich die 3080 vergleiche ? Wer bist du eigentlich ?

Du kannst die Karte gerne mit jeder x-beliebigen Karte auf dem Markt und aus jeder Preiskategorie vergleichen. Du bist frei. Ich bin dein Bruder Hans-Dieter, wenn du so aufbrausend fragst.
 
Frage:
Gibt es Stand jetzt ein Spiel wo es in 4K/Ultra mit einer RTX 3080 aufgrund eines vollauflaufenden Vrams zu Rucklern oder Texturmatsch führt?

Die meisten können nicht unterscheiden zwischen notwendigem Vram und Spielen die den Vram Pool sofern vorhanden einfach gerne befüllen, einfach weil er da ist.
 
Man kanns auch übertreiben mit dem Quatsch, Erstkäufer einer 2080 oder TI brauchten sich auch nicht zu ärgern, die ist bis heute gut, die Super hat nur ein paar % drauf gelegt.

Die 3080 ist für WQHD/UWQHD eine top Grafikkarte, ich freu mich sehr auf die 30-60% Mehrleistung in meinen Spielen, bei mir war bisher nur auf einer Map in Squad mal der VRAM knapp und die war noch nicht optimiert. Nun bekomme ich auch nochmal 2G dazu.

Denkt ihr die 3080 20G wird ähnlich teuer sein? Sicherlich nicht die geht wieder an die 1000€ und irgendwann ists auch mal gut. Man braucht keine 3080,20G oder 3090 um in ein paar Jahren noch flüssig in WQHD / UWQHD zocken zu können. Das ist nur jedes mal die selbe Panikmache.
 
Gibt es Stand jetzt ein Spiel wo es in 4K/Ultra mit einer RTX 3080 aufgrund eines vollauflaufenden Vrams zu Rucklern oder Texturmatsch führt?
Ich weiß von Reddit, dass der MSFS2020 bei einer RTX2080Ti den VRAM auf knapp 11GB füllen kann, allerdings kann man dabei intern im Spiel auslesen, dass nur 6-7GB tatsächlich für's Rendern genutzt werden. Der Rest wird lediglich als Cache verwendet, weil der Speicher verfügbar ist.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Control kann auf 8K mit RayTracing bis zu 18GB RAM auslasten. Ohne RT sind es dann noch 14GB auf 8K.
Auf 4K benötigt es mit RT 8,1GB und ohne RT 7,6GB.
DLSS senkt den Speicherbedarf übrigens rapide. Das ist hier noch überhaupt nicht berücksichtigt.

As you can see, even with RTX disabled it only drops to 14.6GB of VRAM -- and within normal operating limits at 4K with between 7.6-8.1GB of VRAM used when RTX is disabled, and enabled respectively. 18.5GB of VRAM with everything at 8K is just insanity.

Read more: https://www.tweaktown.com/articles/9131/control-tested-8k-nvidia-titan-rtx-uses-18gb-vram/index.html

Also 10GB sollten eigentlich ausreichen.
Und selbst wenn einige Spezialisten immer sagen 'das Spiel nutzt 1x GB VRAM', dann sollte man wirklich mal genau nachfragen ob 'Reservierung/Cache' oder tatsächlich 'Nutzung' gemeint war. Es ist nämlich in der Regel ersteres.

Eine Ausnahme die mir spontan einfällt wäre Crysis Remastered auf 'Can it run Crysis?'. Das scheint auf 4K deutlich mehr als 10GB zu benötigen, ist allerdings laut Eigenaussage von PCGH absolut unoptimiert und eher eine Techdemo, die nicht wirklich darauf abzielt, dass aktuelle Generationen von Grafikkarten das flüssig wiedergeben können.
 
Zuletzt bearbeitet:
" Selbst von der Geforce RTX 2080 Ti sind es immer noch 32 Prozent. "
Die Satz stimmt - was ich gesehen habe - nur in Bezug auf die 2080Ti Founders Edition (GeForce RTX 2080 Ti FE, 1.665–1.680 MHz) . Die meisten haben die 2080Ti eher als OC Customer Edition ( GeForce RTX 2080 Ti OC, 1.935-1.950 MHz ) gekauft und da sind es dann nur noch 15-20% Versprung unter UHD ... also ehrer nicht wirklich der Rede wert für den PR-Aufriß. Ober aber ihr sagt, die Jungs von ComputerBase können nicht mehr benchen...
3080FE-280TiOC.jpg
 
Zurück