• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

VRAM-Diskussion

TE
dragonslayer1

dragonslayer1

PC-Selbstbauer(in)
Gpu sind keine Wertanlage sondern Konsumgut. Preisverlust ist normal und auch gut so. Mir doch egal ob die dann 100€ kostet wenn ich fertig bin damit.^^
 

DaPopCOH

PC-Selbstbauer(in)
Ich habe hier manchmal das Gefühl, man sucht mit aller Gewalt nach Fehlern und Mankos , gerade von den 2080 TI Nutzern, weil sie pissed sind, dass eine 3070 jetzt schneller und um die Hälfte billiger ist.

wie oft ich das in letzter zeit lese....ist doch unsinn.....
enthusiasten, die 1200 euro für ne high end graka ausgeben interessieren sich eher weniger für ne 3070 mit weniger speicherbandbreite und 3 gb weniger vram. und auch nicht für ne 3080, die ebenfalls weniger vram hat.
die leute versuchen alle halt noch gutes geld für die 2080ti zu bekommen, um es in ne 3090 zu stecken. wen interessiert denn die 3070......tsts :-)

ich persönlich werde die 2080ti vermutlich einfach behalten und irgendwann in meinen streaming pc stecken. außerdem seh ich sowas eher als sammlerstück, denn als wertanlage. wenn sie zu garnichts mehr gut is, stell ich mir die erste rtx high end karte ins regal :-) außerdem seh ich das als hobby, das kostet halt geld. von daher ist mir der wertverlust egal. und ich bin mir relativ sicher , dass das die meisten besitzer von high end hardware so sehen. sonst müssten wir uns ja alle bei jedem generationswechsel erschießen....:-)
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
Es ist am Ende doch immer die Gleiche Diskussion. VRAM ist wichtig aber genauso ist es die Rohperformance und einen Tod wird man immer sterben. Bei der 3080 ist der Speicher knapp bemessen und hätte ruhig mehr sein dürfen aber man muss sich halt auch fragen in wie vielen Fällen es einen wirklich betrifft. Für den 4k Ultra Enthusiast ist das sicher nichts, da gibt es aber einer 3090 die genau die Bedürfnisse erfüllen dürfte. Und selbst die wird am Ende ihres Zyklus sicher keine 4k 60hz @ Ultra schaffen. Man wird am Ende wieder mit kompromissen Leben müssen. Ob man dann mit einer günstigen Karte und etwas mehr kompromiss besser fährt kann nur jeder selbst beurteilen.
Wer in WQHD unterwegs ist, dem wird der VRAM keine echten Sorgen bereiten. Habe auch noch kein Spiel gespielt wo ich Probleme mit dem Speicher habe, FPS technisch aber schon einige barrieren gehabt.
Muss ehrlich sagen, dass die Unterschiede zwischen hoch und ultra so gering ausfallen das man meist sowieso extrem drauf achten muss um überhaupt etwas zu merken wenn überhaupt was sichtbar ist. Runterstellen sehe ich daher auch nicht tragisch an solange man es kaum merkt wird es der Immersion kaum schaden. Solange man in die Welt eintauchen kann hat das Spiel alles richtig gemacht selbst wenn es Pixelgrafik ist.
-----
Am Ende passiert genau dass was immer passiert es wird gemeckert.
GPU ist teuer: Ich kriege nicht genug performance für das Geld.
GPU Ist billig: Der Wiederverkaufswert der vorgänger Gen ist weg, was für eine s******.
GPU bringt zu wenig Speicher: Speicherkrüppel
GPU hat zu viel Speicher: Bläht die Kosten auf ist dadurch zu teuer
Man findet immer was. Teilweise aus prinzip weil es Nvidia/AMD ist, teilweise weil nicht das auf einen maßgeschneiderte Produkt erschienen ist und nicht zu dem Preis den man wollte.
 

RavionHD

PCGH-Community-Veteran(in)
Die Frage ist doch:

Wieviel Vram genehmigt sich ein Spiel bzw ab wann fängt es an zu stottern?

Ein Horizon Zero Dawn genehmigt sich stellenweise 16GB Vram, trotzdem läuft es auch mit GPU's die deutlich weniger haben flüssig.
 

wari

Software-Overclocker(in)
wie oft ich das in letzter zeit lese....ist doch unsinn.....
enthusiasten, die 1200 euro für ne high end graka ausgeben interessieren sich eher weniger für ne 3070 mit weniger speicherbandbreite und 3 gb weniger vram. und auch nicht für ne 3080, die ebenfalls weniger vram hat.
die leute versuchen alle halt noch gutes geld für die 2080ti zu bekommen, um es in ne 3090 zu stecken. wen interessiert denn die 3070......tsts :-)

ich persönlich werde die 2080ti vermutlich einfach behalten und irgendwann in meinen streaming pc stecken. außerdem seh ich sowas eher als sammlerstück, denn als wertanlage. wenn sie zu garnichts mehr gut is, stell ich mir die erste rtx high end karte ins regal :-) außerdem seh ich das als hobby, das kostet halt geld. von daher ist mir der wertverlust egal. und ich bin mir relativ sicher , dass das die meisten besitzer von high end hardware so sehen. sonst müssten wir uns ja alle bei jedem generationswechsel erschießen....:-)

Wenn man bedenkt, dass die 3070er mehr FPS liefern wird als die 2080TI, würde ich mich von Nvidia wohl auch verarscht vorkommen. Da wird dann der VRAM auch nichts bringen, wenn die Grundkarte mehr Rohleistung hat. Mach nicht so, als wäre VRAM hier das Maß aller dinge. Letztes Endes zählen die FPS bei der entsprechenden Bildqualität.

Ich will keinen persönlich angreifen, also bitte nicht persönlich nehmen. Aber dass die 2080 TI null zukunftssicher ist sollte doch spätestens dann klar gewesen sein, als man gesehen hat, dass sie gerade mal so 60 FPS in 4k schafft, je nach Game. Wenn man doch ein Enthusiast ist, will man, zumindest geht es mir so, FPS zahlen jenseits von 100 haben.

Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.

Genauso wenig wird die 3080 zukunftssicher sein, aber das muss sie ja auch gar nicht, ich kaufe mir doch eh alle 2 Jahre eine neue GPU. Dennoch bietet sie für mich einfach das beste Paket aus Leistung und Preis.

Im Endeffekt ist das alles nur Mutmaßung und Zukunftsmusik. Ihr kennt weder die neuen Karten im Detail, noch die zukünftigen Spiele und deren Hardwarehunger. Aber bitte bedenken, das schwächste Glied sind eher die Konsolen, nicht der VRAM. Und jetzt kommt mir bitte nicht mit dem Schrottport Zero Dawn oder irgendwelchen Texture-DLCs...
 

Pu244

Lötkolbengott/-göttin
Warum wird sich oft das Maul drüber zerrissen? Die Leute hier tun so als hätten sie die Karten 5 Jahre lang das tun aber nur die wenigsten hier......

Nur weil du das so handhabst bedeutet es nicht, dass das andere genauso machen müssen. Mir ist gestern meine GTX 980Ti abgeraucht, seither geistere ich mit der GTX 670 herum. Gerade die GTX 980Ti hat irre viel von ihren 6GB profitiert.


Jede wette die 10gb der 3080 werden Jahrelang ohne Probleme laufen.(vor allem in 1440p oder niedriger, shader auslastungsprobleme wer weis werden wir bald sehen denke aber mit RTX eher nicht.....)

Sicher, es läuft auch eigentlich noch alles auf meiner GTX 670. Es ist nur eine Frage des Anspruchs und da dürfte man mit 10GB bald an Grenzen stoßen, wenn man "Always Ultra" haben möchte. Es gibt hier viele, die schalten aus Prinzip keine Details ab.


Strohmanargument für Fanboygebashe mehr ist das nicht.

Es gibt genügend Karten, denen der VRAM ausgegangen oder zumindest knapp geworden ist: GTX 670/680, 780Ti oder Fury X, um nur die berühmtesten zu nennen. Wie gesagt: es kommt eben auch immer auf den Anspruch an. Wenn man das Argument zu Ende denkt, dann besteht auch keine Notwendigkeit für Turing oder Ampere, da auf den alten Karten von 2012 immer noch alles läuft.
 

wari

Software-Overclocker(in)
Nur weil du das so handhabst bedeutet es nicht, dass das andere genauso machen müssen. Mir ist gestern meine GTX 980Ti abgeraucht, seither geistere ich mit der GTX 670 herum. Gerade die GTX 980Ti hat irre viel von ihren 6GB profitiert.




Sicher, es läuft auch eigentlich noch alles auf meiner GTX 670. Es ist nur eine Frage des Anspruchs und da dürfte man mit 10GB bald an Grenzen stoßen, wenn man "Always Ultra" haben möchte. Es gibt hier viele, die schalten aus Prinzip keine Details ab.




Es gibt genügend Karten, denen der VRAM ausgegangen oder zumindest knapp geworden ist: GTX 670/680, 780Ti oder Fury X, um nur die berühmtesten zu nennen. Wie gesagt: es kommt eben auch immer auf den Anspruch an. Wenn man das Argument zu Ende denkt, dann besteht auch keine Notwendigkeit für Turing oder Ampere, da auf den alten Karten von 2012 immer noch alles läuft.

Sorry, aber das ist doch wieder Käse, du machst gerade, als könnte man mit einer RTX 3080 nur 1 Jahr alles auf Ultra zocken und müsste danach die Details runterschrauben. Du kannst mit einer RTX 2080TI auch in 5 Jahren Safe nicht mehr alles maxed out auf 4 k spielen, da ändert auch gewiss der VRAM nichts dran.

Aber ich im Gegenzug gebe dir Brief und Siegel, dass ich mit einer RTX 3080 in den nächsten 2 Jahren, also bis zur nächsten Generation, restlos alles auf Ultra Spielen kann, und das jenseits von 1440p. Denn laut Nvidia soll diese ja bereits schon die 4k Karte sein, die RTX 3090 hat ja komplett andere Ambitionen und wird als Pendant zur Titan gesehen, die sich nicht zu Letzt primär gar nicht an Spieler gerichtet hat.
 

Pu244

Lötkolbengott/-göttin
Aber ich im Gegenzug gebe dir Brief und Siegel, dass ich mit einer RTX 3080 in den nächsten 2 Jahren, also bis zur nächsten Generation, restlos alles auf Ultra Spielen kann, und das jenseits von 1440p

Tja, da hast du schon längst verloren. Es gibt schon ein paar Texturpakete, die jenseits der 10GB haben möchten. Im Laufe der nächsten 2 Jahren wird die Zahl wohl explodieren, da mehr Karten im Verkehr sind, die das auch nutzen können (bisher war man ja auf Vega FE, Vega VII und die Titan RTX beschränkt).

Für Leute die möglichst alles haben wollen ist ein großer VRAM Pflicht
 
TE
dragonslayer1

dragonslayer1

PC-Selbstbauer(in)
Wetten? Sagte der mit ner 980TI dein ernst? so ein quatsch was machen dann die millionen an 98% der Gamer die nicht diese Karten haben unvorstellbar es gibt viel mehr leute mit unter 8gb Karte als mit 8 oder darüber. Achja stimmt ja die Entwickler gehen ja nach den High end käufern....NICHT.
 

DaPopCOH

PC-Selbstbauer(in)
Wenn man bedenkt, dass die 3070er mehr FPS liefern wird als die 2080TI, würde ich mich von Nvidia wohl auch verarscht vorkommen. Da wird dann der VRAM auch nichts bringen, wenn die Grundkarte mehr Rohleistung hat. Mach nicht so, als wäre VRAM hier das Maß aller dinge. Letztes Endes zählen die FPS bei der entsprechenden Bildqualität.

Ich will keinen persönlich angreifen, also bitte nicht persönlich nehmen. Aber dass die 2080 TI null zukunftssicher ist sollte doch spätestens dann klar gewesen sein, als man gesehen hat, dass sie gerade mal so 60 FPS in 4k schafft, je nach Game. Wenn man doch ein Enthusiast ist, will man, zumindest geht es mir so, FPS zahlen jenseits von 100 haben.

Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.

Genauso wenig wird die 3080 zukunftssicher sein, aber das muss sie ja auch gar nicht, ich kaufe mir doch eh alle 2 Jahre eine neue GPU. Dennoch bietet sie für mich einfach das beste Paket aus Leistung und Preis.

Im Endeffekt ist das alles nur Mutmaßung und Zukunftsmusik. Ihr kennt weder die neuen Karten im Detail, noch die zukünftigen Spiele und deren Hardwarehunger. Aber bitte bedenken, das schwächste Glied sind eher die Konsolen, nicht der VRAM. Und jetzt kommt mir bitte nicht mit dem Schrottport Zero Dawn oder irgendwelchen Texture-DLCs...

du verstehst mein argument nicht.....wieso soll sich jemand verarscht vorkommen, weil er vor 2 jahren das flaggschiff gekauft hat???
enthusiasten geben viel geld für gute hardware aus. punkt. die ti war zu dem zeitpunkt die stärkste karte und war die erste high end karte mit raytracing. das ist es was enthusiasten tun, sie kaufen sich das beste, weil es ihr hobby ist und weil sie es können. und nicht als wertanlage oder ähnliches.wenn ich mir was neues hole wandert die ti in meinen streaming pc und dann als ausstellungsstück ins regal.
argumente von wegen preis leistung und wertverfall usw spielt doch für den enthusiasten markt gar keine rolle.
und immer dieses gelaber von wegen zukunftssicher....was soll das überhaupt bedeuten.......zukunftssicher gibt es im hardware markt sowieso nicht.
außerdem tust du ja fast so als ob die 2080ti totaler schrott wäre. ich bin mir sehr sicher dass man damit noch lange zeit sehr gute ergebnisse bekommt.

und zum vram: natürlich bringt vram alleine nichts. trotzdem würde doch kein mensch seine 2080ti durch eine 3070 ersetzen, selbst wenn sie ein paar prozent schneller wäre (ob sie wirklich in allen szenarien schneller ist als die ti bezweifel ich eh, aber mal abwarten). schon aus prinzip wegen dem 3 gb weniger ram. von daher ist dein vergleich mit der 2080ti unsinn. das interessiert keinen. was interessant ist , ist der vergleich flaggschiff vs flaggschiff, also 2080ti und 3090.
 

RtZk

Lötkolbengott/-göttin
Wetten? Sagte der mit ner 980TI dein ernst? so ein quatsch was machen dann die millionen an 98% der Gamer die nicht diese Karten haben unvorstellbar es gibt viel mehr leute mit unter 8gb Karte als mit 8 oder darüber. Achja stimmt ja die Entwickler gehen ja nach den High end käufern....NICHT.

Die Ultra Settings sind nicht für 98% der Gamer gedacht. Es ist normalerweise das letzte bisschen Optik das überproportional viel VRAM und/oder Leistung kostet.
 

Birdy84

Volt-Modder(in)
Puh, ich sehe mich gezwungen ein paar grundsätzliche Fakten zu erklären.
Meinem Verständniss nach hat die VRam Auslasung jetzt per se nichts mit der Auflösung zu tun, sondern vorallem? mit den Texturen?
Auflösung und Farbtiefe bestimmen de facto die Speicherauslastung, nur nicht mehr so maßgebend wie früher. Pixelanzahl*Farbtiefe=Speicherverbrauch eines 2D Bilds in Bit.
Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.
Da Spielloglik und Eingaben (je nach Spiel) von der Bildwiederholrate abhängen, kann es sehr wohl sein, dass mehr FPS als Bildwiederholrate von Vorteil ist. Mit steigenden Werten nimmt der gefühlte Vorteil natürlich ab.

@Topic: Aus meiner Sicht gibt es da wenig zu diskutieren: Wer keine Kompromisse eingehen möchte, der ist mit 10GB bereits heute nicht gut bedient. Das kann man anhand mehreren PCGH Benchmarks festmachen (Doom Eternal, Minecraft RTX, Wolfenstein YB, HZD). Raff schreibt in der aktuellen PCGH: "[...]Die größten Unterschiede tun sich erwartungsgemäß in Ultra HD auf, das partiell sogar 8-Gigabyte-Grafikkarten einbrechen lässt. Allerdings wirkt sich das selten auf die Differenz zwischen Average und Perzentilen aus [...]. Und in seinem Kommentar zu Ampere schreibt er: [...]Nicht mal Nvidia, welche bekannt für RAM-Knauserei sind, wird diesen Fehler begehen. 12GiByte gab es das erste Mal im Jahr 2015 auf der GTX Titan X (und bei Turing gar nicht). Eine derart scharfe geplante Obsoleszenz beißt sich mit zwei Ansprüchen: Raytracing Wegbereiter zu sein und den eigenen Kunden einen Mehrwert gegenüber den Konsolen und Radeons zu bieten.[...]
Außerdem ist die Vergangenheit voll von beispielen von Karten mit knapper Speicherausstattung. Das ist nie das Ende der Welt, klar, es ist aber auch nicht wegzudiskutieren, dass sich Karten mit mehr VRAM länger besser halten. Und weil höher aufgelöste Texturen keine Leistung kosten, ist es umso ärgerlicher, wenn man diese reduzieren muss.

Edit: Was Billy Khan von id dazu sagt: https://publish.twitter.com/?query=...ykhan/status/1301129891035914240&widget=Tweet
 
Zuletzt bearbeitet:

IphoneBenz

Software-Overclocker(in)
Das entscheidet wohl jeder für sich ob es was bringt. Gibt auch Spiele die ich in 4K mit 8xMSAA spiele. Bringt einiges finde ich wenn man gar kein Flackern mehr sehen will :)
 

LastManStanding

PCGH-Community-Veteran(in)
....Da diese Karte abseits von Penisersatz eh keine Käufer findet, die Mehrheit hat wohl Karten im Leistungsbereich einer 1060, stellt sich diese Vram Diskusion für viele Nutzer einfach nicht :ka:

pen"sersatz...Aha guck an. Davon ab das nicht jeder hier son ding besitzt, auch wenn du das gar nicht meinst. Ist es eine ziemlich engstirnige Herangehensweise an das Thema. Denn das kann man auf nahzu alles umwälzen und sei es nur das heute "normale" Smartphone. Zum Anrufen reicht auch ein Altes Tastenhandy oder eben gar keins und per Post da braucht man kein Smartphone- es ist ebenso unnötiger Luxus wie überhaupt einen PC und vorallem dann zum Spielen zu besitzen.
Wenn der kleine Tellerrand über den man nicht zu schauen vermag plötzlich ne tiefe Salatschüssel wird. Sollte man umdenken.

Zum Thema
So manch einer hier schließt gerne von sich auf andere. Und gesteht anderen nicht das zu was man selbst nicht für wichtig oder erstrebenswert hält.
Es ist nicht aus der Luft geriffen das mehr VRAM sinvoll sein können in bestimmten Situationen. Aber nur weil man es selbst für unnötig hält heißt es nicht, das es das auch wirklich ist.
Lasst doch andere nach mehr VRAM rufen. Und lasst dieses unkommentiert wenn es nicht Sinvoll ist in den eigenen Augen. Zumindest dann um eine Humane Diskussion zu Gewährleisten, es nicht verteufeln und herabwürdigen
 

Birdy84

Volt-Modder(in)
Das entscheidet wohl jeder für sich ob es was bringt.
Natürlich, bis zu einem gewissen Punkt ist es subjektiv und manch einer kann mit dieser Einschränkung auch leben. Persönlich finde ich Grafikkarten für 500€ mit absehbarem Speichermangel indiskutabel, es sei denn man vor diese sowieso nur kurz zu halten.
 
TE
dragonslayer1

dragonslayer1

PC-Selbstbauer(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

passt ja ab 24:05 circa
 

Birdy84

Volt-Modder(in)
passt ja ab 24:05 circa
Und was sagt er? 1. In DE sind 8GB bereits ein Nachteil. 2. Hat er keine Messungen gemacht und dazu eine Aussage zu treffen. PCGH indessen hat auch Analysen der Frametimes erstellt, die unterschiedliche Berechnungszeiten zeigen, die bei Durchschnitts-FPS und P1 allerdings nicht berücksichtigt werden.
 

RtZk

Lötkolbengott/-göttin
Mir ist kein Spiel bisher bekannt, was wirklich so viel RAM und VRAM nutzt wie möglich, er erzählt einfach nur Unsinn. Mein RAM wurde noch nie auch nur mit 20 GB in einem Spiel gefüllt (es gibt welche aber keines das ich habe) und mehr als genug Spiele hätten genug Daten um das locker hinzukriegen.
Auch auf VRAM bezogen absoluter Unsinn. CoD MW mit RT und Ultra Settings braucht mehr als 11 GB und das resultiert daher bei einer 2080 Ti in starkem Ruckeln.
Der Mann weiß nicht wovon er redet, er testet es ja noch nicht mal sondern stellt Aussagen in den Raum die kinderleicht widerlegbar sind. Vielleicht sollte er wirklich mal anfangen zu testen, ich habe gehört, dass sich das als Hardwareseite rentiert ;).
 

sethdiabolos

Volt-Modder(in)
Auf eine 20gb 3080 wartet ihr eh lange...sie bekommt 12gb^^

Hmm, warte mal, wenn man die Speicherdichte beim VRAM erhöht und plötzlich 2GB Blöcke statt 1GB verbauen kann, dann ergibt das wenig Sinn. Ohne Speicherhickhack zu fabrizieren oder das PCB um 20% zu vergrößern wird es da nix mit den 12GB. Dann würde man aber auch das Speicherinterface auf 384bit erhöhen müssen und Cudacores etc. ebenfalls erhöhen. Könnte natürlich eine 3080Ti werden, welche eine 3090 wieder nass macht, aber wer weiß das schon. Hinsichtlich VRAM-Usage sind 10GB ziemlich auf Kante genäht und reichen schon bei Spielen der letzten Generation nicht immer aus. Wie sollen da die neue Spiele in 1440p und darüber darauf laufen.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Oder anders. Ich will olle Schinken wie Assassins Creed 3 aus 2011 in 8K per Downsampling spielen, da reichen 10GB ebenfalls nicht aus (genauso wie 16GB RAM). Die Rohleistung der Karte schafft es aber locker. Verständlich ist das aktuelle Szenario seitens Nvidia aber schon. Erhöht man die Speichergröße mit mehr Ramblöcken wird die 3080 zu stark, so lange man aber die Speicherdichte nicht erhöhen kann bleibt man bei 10GB. Ist das Problem behoben kommt die 3080 als Super-Modell für z.B. 899€auf den Markt.
 

RtZk

Lötkolbengott/-göttin
:lol: cry more achja tust du ja bereits als 2080 ti besitzer. ;) nutzen brauchen weil können ist ein riesen unterschied aber dir baby muss man das ja 10 mal erklären und duc checkst es nicht . bleib hier fern danke.

Beeindruckend. Wie alt bist du eigentlich? Dein Verhalten lässt mehr als zu wünschen übrig. Deine Ahnungslosigkeit übertrumpft das Ganze aber fast schon.
CoD braucht den VRAM sonst ruckelt es was das Zeug hält und das ist nicht das einzige Game.
 
Zuletzt bearbeitet:

sethdiabolos

Volt-Modder(in)
Bisher ist der GA103 doch nur ein Gerücht. Ein 320Bit Speicherinterface beim GA103 könnte zwar auf 20GB hindeuten, aber wie schon geschrieben nur, wenn die Speicherdichte bei GDDR6X erhöht wird (was noch nicht geht, deswegen ist die 3090 auch beidseitig bestückt). In den Berichten, die ich überflogen bin ging man aber noch von GDDR6 aus und nicht GDDR6X, sprich man könnte 20GB verbauen (ähnlich Titan RTX) verliert da aber an Geschwindigkeit. Etwa 10% Leistungsschwund kämen kumuliert noch hinzu, da der GA103 im Gegensatz zum GA102 nur 60 statt 68 Shader-Cluster haben soll. Alles in Allem spricht der GA103 eher für eine hypothetische RTX 3070Ti bzw. Super mit 7360 Cudacores, 320Bit Speicherinterface (soll GA103 ja haben) und 10GB VRAM. Alles knapp 10-15% unterhalb einer RTX 3080, aber für später 549-599€.

Ich habe jetzt einfach mal ein wenig gesponnen, vielleicht liege ich auch vollkommen falsch. Es ist aber im Rahmen des Möglichen.
 
Zuletzt bearbeitet:
TE
dragonslayer1

dragonslayer1

PC-Selbstbauer(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

der herr erklärts auch nochmal. last part of the video
 

IphoneBenz

Software-Overclocker(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Also natürlich keine 60FPS aber als ruckeln würde ich das nicht bezeichnen. Ist zwar schon 8 Monate her aber dennoch.

Ein BF5 in UHD mit RT geht auch klar. Aber 8Gb sind viel zu wenig. Ob die 10 reichen wird schwer. Glaube kaum das die neue Komprimierung solch Wunder vollzieht. Die einzige Karte die gut klingt ist die 3090.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Also natürlich keine 60FPS aber als ruckeln würde ich das nicht bezeichnen. Ist zwar schon 8 Monate her aber dennoch.

Ein BF5 in UHD mit RT geht auch klar. Aber 8Gb sind viel zu wenig. Ob die 10 reichen wird schwer. Glaube kaum das die neue Komprimierung solch Wunder vollzieht. Die einzige Karte die gut klingt ist die 3090.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ich nehme morgen mal selbst eins auf. Die Kampange habe ich nie gespielt, im MP belegt MW ohne RT bereits bis zu 10,7 GB, mit RT führt es dann zu Rucklern, wird man dann aber sehen.
 

IphoneBenz

Software-Overclocker(in)
Glaub ich dir. Den Mp habe ich nie gespielt. Will das auch nicht als Referenz für das gesamte Spiel darstellen. Nur hatte ich keine Probleme mit dem SP. :)
Grüße
 

DaHell63

BIOS-Overclocker(in)
Ich nehme morgen mal selbst eins auf. Die Kampange habe ich nie gespielt, im MP belegt MW ohne RT bereits bis zu 10,7 GB, mit RT führt es dann zu Rucklern, wird man dann aber sehen.
Am i7 6700K kann es nicht liegen?
Der MP mit voller Map verlangt der CPU doch mehr ab als der SP.
Und RT will ja auch noch ein wenig von deiner CPU.
 

RtZk

Lötkolbengott/-göttin
Am i7 6700K kann es nicht liegen?
Der MP mit voller Map verlangt der CPU doch mehr ab als der SP.
Und RT will ja auch noch ein wenig von deiner CPU.

Nein. 99% GPU Auslastung. Ich spiele nur Deathmatch und ähnliche Modi dementsprechend ist die CPU sowieso nie ein Problem.
Abgesehen von BFV und manchmal in Ark limitiert die CPU sowieso nicht.
 
TE
dragonslayer1

dragonslayer1

PC-Selbstbauer(in)
Jetzt popelns noch immer mit dem afterburner rum :lol: ich steck jetzt die banane in die karte vielleicht komme ich dann mal auf 7gb
 

Birdy84

Volt-Modder(in)
Ein BF5 in UHD mit RT geht auch klar. Aber 8Gb sind viel zu wenig. Ob die 10 reichen wird schwer. Glaube kaum das die neue Komprimierung solch Wunder vollzieht. Die einzige Karte die gut klingt ist die 3090.
Allerdings ist die ein bisschen zu teuer. Bessere Speicherkomprimierung hat sich bislang bei keiner Karte merklich bemerkbar gegenüber älteren Karten gemacht. Von daher erwarte ich das auch bei Ampere. Und je länger ich über Jensen Präsentation nachdenke, desto frecher finde ich sie. Die einzige Karte, die ein wirklicher Fortschritt ist, hat eine so hohe TDP wie keine Consumer Karte zuvor und ist extrem teuer. Beides Punkte die Jensen bei der Vorstellung natürlich nicht angesprochen hat.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Allerdings ist die ein bisschen zu teuer. Bessere Speicherkomprimierung hat sich bislang bei keiner Karte merklich bemerkbar gegenüber älteren Karten gemacht. Von daher erwarte ich das auch bei Ampere. Und je länger ich über Jensen Präsentation nachdenke, desto frecher finde ich sie. Die einzige Karte, die ein wirklicher Fortschritt ist, hat eine so hohe TDP wie keine Consumer Karte zuvor und ist extrem teuer. Beides Punkte die Jensen bei der Vorstellung natürlich nicht angesprochen hat.
Natürlich wird das bei einer Nvidia Präsentation nicht angesprochen. Denkst du ernsthaft er kommt mit: "Sorry die 3090 ist extrem teuer und wir wissen das. Aber das zahlt ihr ja trotzdem, deshalb nehmen wir es!" Da wird das eigene Produkt vermarktet und da werden die Stärken hervorgehoben. Ist nichts anderes als eine Marketingveranstaltung. Daher muss man auch alle Aussagen mit einer gewissen Vorsicht genießen.
Ich gehe hier bei den Karten von einer taktischen Maßnahme aus. Man will mit dem aktuellen Lineup AMD preislich unter druck setzen und schauen was passiert und wenn nötig weitere Modelle mit mehr VRAM im nächsten Jahr aufzulegen.
 

RtZk

Lötkolbengott/-göttin
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ist jetzt nur in Full HD verfügbar, keine Ahnung wann 4k verfügbar ist.
Es ruckelt fast das ganze Game durch, am Ende wird es deutlich stärker, da der VRAM Bedarf mit der Zeit steigt. Trotz nur ~10,5 GB belegtem VRAM ist der VRAM in der Realität bereits übergelaufen was man durch die Ruckler und den stark gestiegenen RAM Verbrauch bemerkt.
Man sieht es im Video aber deutlich schlechter als erwartet.
Ich bin mir auch nicht 100% sicher, aber für mich wirkt es also würden die Texturen ebenfalls leicht matschig werden, ist aber schwer zu sagen.
Was man aber wirklich sagen muss, trotz RT sind die FPS immer noch gut spielbar, wäre nur mehr VRAM da :ugly:.
 

IphoneBenz

Software-Overclocker(in)
Schaue mir es an wenn 4K Verfügbar ist. Die 10,5 sind normal. Da ist bereits „Voll“. HisN hat das mal schön erklärt wieso das so ist.
 
Oben Unten