• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3060 mit 12 GiB und RTX 3080 Mobile mit 16 GiB ... - Das sagen die PCGH-Redakteure dazu

Atma

PCGH-Community-Veteran(in)
Für jedes Problem gibt es auch eine Lösung , oder ? Vielleicht nimmt sich ja irgend einer das Problem vor . ist ja nur ein Gedankenspiel:
Ram - egal ob GDDR oder HBM - muss zwangsläufig so nah wie möglich an der GPU liegen. Das gehst sonst zu Lasten der Latenzen und Bandbreite und kostet somit Leistung. DIMM-Slots auf Grafikkarten machen somit keinen Sinn.
 

PCGH_Torsten

Redaktion
Teammitglied
wie wäre es mit Grafikkarten, welche RAM Steckplätze hätten, dann könnte jeder soviel RAM einstecken wie er benötigt ?:huh:

Bei heutigen Transferraten und Speicherbreiten unmöglich. Bereits eine 3060 bräuchte drei SO-DIMMs, um diese physisch um die GPU zu verteilen müsste man die Leiterbahnenlänge aber mehr als verdoppeln und bislang hat niemand DDR_-7000 über Steckkontakte erreicht. Vermutlich würde so ein Design bereits bei der Hälfte der im verlöteten Modell erreichten Speichertransferrate instabil und teurer wäre es obendrein auch noch.
 

Ganjafield

Freizeitschrauber(in)
Der Meinung des Autors Raffael Vötter kann ich nur zustimmen.#
Eine "3070 Ti" ist nicht unwahrscheinlich in ein paar Wochen /Monaten. Nur die TDP wird sicher 250 und nicht 150 Watt betragen. Aber wer das möchte, muss eben den Taktregler oder den Powerlimit Regler ganz nach links schieben im MSI Afterburner. ;)
Bei heutigen Transferraten und Speicherbreiten unmöglich. Bereits eine 3060 bräuchte drei SO-DIMMs, um diese physisch um die GPU zu verteilen müsste man die Leiterbahnenlänge aber mehr als verdoppeln und bislang hat niemand DDR_-7000 über Steckkontakte erreicht. Vermutlich würde so ein Design bereits bei der Hälfte der im verlöteten Modell erreichten Speichertransferrate instabil und teurer wäre es obendrein auch noch.
Schade eigentlich aber die Idee war gut :D
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Der Meinung des Autors Raffael Vötter kann ich nur zustimmen.#
Eine "3070 Ti" ist nicht unwahrscheinlich in ein paar Wochen /Monaten. Nur die TDP wird sicher 250 und nicht 150 Watt betragen. Aber wer das möchte, muss eben den Taktregler oder den Powerlimit Regler ganz nach links schieben im MSI Afterburner. ;)
Sparsamer oder versoffener geht immer. Meine RTX 3090 läuft mittlerweile dauerhaft mit 0,737 Volt und ~1,7 GHz (von den Cyberpunk-Ausflügen abgesehen, da muss die dicke Bertha echt arbeiten). Ich finde einen selektierten GA104-Vollausbau im Pressformat aber technisch einfach Nano-ish lecker. =)

MfG
Raff
 

Blackout27

Volt-Modder(in)
Sparsamer oder versoffener geht immer. Meine RTX 3090 läuft mittlerweile dauerhaft mit 0,737 Volt und ~1,7 GHz (von den Cyberpunk-Ausflügen abgesehen, da muss die dicke Bertha echt arbeiten). Ich finde einen selektierten GA104-Vollausbau im Pressformat aber technisch einfach Nano-ish lecker. =)

MfG
Raff

Man kann Ampere bei unter 0,750V Untervolten?
Bei meiner alten GTX1080TI Founders Edition war bei 0,750V Schluss im MSI Afterburner und auch bei Turing hatte ich dazu das gleiche gelesen.

1,7Ghz bei solch einer Spannung ist natürlich schon Klasse. Da wird das geliebte Stück Technik ja nicht mal Hand warm ^^
 

pseudonymx

Software-Overclocker(in)
daran ist sehr schön zu erkennen das Nvidia durchaus weiß das 10gb vram für ne 4k karte wie die 3080 zuwenig ist.... Aber warum die knete nicht mitnehmen als Großkonzern.... Auch wenn amd hart reingeschissen hat mit dem rx paperlaunch.. Bei AMD kommt wenigstens genug Speicher zum Einsatz... Auch auf kleineren Karten.... Schon traurig wenn man bedenkt das ne rx 580 soviel vram hat wie ne aktuelle 3070..... gg Nvidia... Bin mir sicher ihr habt nur des gamers bestes im Sinn SEINE KOHLE

Für jedes Problem gibt es auch eine Lösung , oder ? Vielleicht nimmt sich ja irgend einer das Problem vor . ist ja nur ein Gedankenspiel:

wird nicht passieren.... Die zusätzlichen Latenzen will auch keiner... ebenso wie die eingeschränkte Bandbreite... Und die Grafikkarten Hersteller, vorallem Nvidia wollen das erst recht nicht.... Was bleibt denn an Gewinnspanne wenn man 14gb gddr6x auf ner 3090 nicht für round about 800euro verkaufen kann denn der Chip ist sicherlich nicht teurer für Nvidia
 

Gurdi

Kokü-Junkie (m/w)
Ich seh schon die ersten Post vorm geistigen Auge hier im Forum die sich über Ruckler wundern nachdem Sie SAM anschalten auf den Speichergurken.
 

4thVariety

Software-Overclocker(in)
Zwischen der 10er Serie und der 20er Serie von Nvidia lagen 28 Monate. Zwischen der 20er und 30er Serie lagen 24 Monate. Der Super-Refresh der 20er Serie kam nach 10 dieser 24 Monate. Die letzten vier Monate der Generation kann man abhaken, da wartet jeder schon gespannt auf die neuen Karten. Die ersten 5 Monate sind ebenfalls schon rum von der 30er Serie. Damit sind 37,5% der Zeit schon weg. Die ersten 20% sind Stand heute rum, die anderen werden Opfer des Hypes um die 40er Serie, sollte diese nach Zeitplan erscheinen. Zeitplan heißt hier Samsung fährt die Produktion hoch und Nvidia hat die Kontingente jetzt schon gebucht, muss also einen Chip haben der hergestellt werden soll.

Das Jahr 2021 ist für die 30er Serie also alles oder nichts. Covid hin oder her, Verzögerungen darf es nicht geben, die Stückzahlen müssen fließen.

Also gehen wir mal strategisch an die Sache als hätten wir Zeitdruck.
Intern hat Nvidia nur den GA102 Chip, das ist das Ding das vom band läuft, egal wie die Gamer das später nennen.

Aus dem Chip werden die 3080, die 3090 und diverse Quadro Karten gemacht.
Die Quadro Karten kommen mit 48GB RAM daher, schwer verfügbar, mit Preisen ab 5000€.
Die 3090 hat 24 GB RAM und ist einigermaßen verfügbar zu überhöhten Preisen.
Die 3080 hat 10GB, besitzt aber 12 RAM Plätze auf der Vorderseite von denen immer nur die 10 Stück belegt sind die funktionieren, der Rest ist also Binning.

Nvidia gibt an die 3090 hat 384Bit Speicherbandbreite und die 3080 hat 320Bit. Wie war das? Bei der 3080 sind nur 10 von 12 Speicherplätzen belegt? Das sind unsere 64 fehlenden Bit zur 3090. Konkret gesagt, wird bei der 3080 der Speicher einfach gebucht, bei der 3090 doppelt und bei den Quadros vierfach. Die Quadro ist selten eine Echtzeitkarte, da ist es auch wichtiger genug Speicher zu haben, auch wenn der im Extremfall etwas die Leistung runterzieht. Bei der 3090 haben wir auf dem Papier einen Vorteil bei den Cuda Cores von 20%. Die PCGH bescheinigt der 3090 aber nur einen 12% Vorteil. Jetzt lässt sich trefflich streiten, ob die restlichen 8% wirklich in der Speicherbandbreite hängen bleiben. Dazu müsste man schon noch einmal sehr genau mit testen, am besten mit fixierten Taktraten auf beiden Karten und Anwendungen mit denen man die 3090 dazu zwingen könnte nur auf 10GB zuzugreifen die auf fünf Kanäle verteilt sind und nicht auf 10. Solange wir das nicht messen macht es keinen Sinn zu unterstellen, dass die Spiecherbandbreite so wichtig wäre. Effektiv wissen wir nicht, wie wichtig sie ist, aber nachdem was die 2090 macht und kann, scheint es ja so dramatisch nicht zu sein. Seit Vega mit HBM wissen wir ja, viel hilft nicht immer viel. Daher hat die PS5 nicht HBM, sondern lieber strategisch Cache auf dem Chip.

Aktuell stellt sich eh nur die Frage warum Nvidia aus den guten GA102 Chips, die sich wahlweise für 2000€ und 5000€ verkaufen billige 700€ Karten fertigen sollte. Entsprechend sieht die Verfügbarkeit aus. Das steht im Kontrast zur 3070 und 3060 die aus dem GA104 gefertigt werden und definitiv besser, wenn auch nicht gut, verfügbar sind.

Eine 3080 mit 20GB würde das Binning 10 von 12 möglichen RAM Plätzen des Speicherinterfaces beibehalten. Die Karte würde dann pro Interface doppelt belegt wie die 3090.

Alternativ könnte man aber tiefer im Ramschregal des GA102 wühlen und Chips benutzen bei denen nur 8 von 12 Kanälen gehen. Das wäre dann die 3080 16GB. Was wir jetzt sehen mit dem Mobile Chip ist dieser Umstieg des Marketings auf die Position, dass eine 3080 am besten 16GB haben sollte. Kein Wunder, dass wir gleichzeitig von der 3080 mit 20GB hören, dass die wieder auf Tauchstation geht.

Ein drittes Weihnachten wird die 30er Serie nicht sehen und schon das erste Weihnachten war alles andere als ideal. Groß wählerisch kann Nvidia nicht sein. Denn in dem Moment an dem AMD weniger von seiner TSMC Produktion für Playstation und Xbox braucht, könnte es ein Gemetzel geben. Denn so ein Ryzen 5600 oder 5800 existiert nicht in einem Vakuum, der braucht GPUs auf dem Markt. AMD wird nicht zulassen, dass sich die Ryzens bei ihnen stapeln und den Markt werden sich auch nicht überfluten, solange GPUs so stark gefragt sind.
 

RavionHD

PCGH-Community-Veteran(in)
...und die 10GB Vram werden den Verbrauch massiv nach oben treiben.
Die Konsolen haben nicht 10GB Vram.
Kann Sie eben nicht. Nachts brauch das Game massiv mehr Vram.
Das ist Unsinn, ich habe in Watch Dogs Legion erst in 5120*2160 (30% mehr Pixel als 4K), RT und UHD Texturen stellenweise Vram Mangel festgestellt.
Die aktuellen Karten reichen locker für UHD, die meisten Panels stemmen da ja sowieso "nur" 60Hz.
Nö, reichen nicht in entsprechend anspruchsvollen Spielen.

Alles 1440P, Ultra Settings mit RT (ohne Nvidia DLSS!).
Beide Karten übertaktet.

Battlefield 5 (RTX 3080 88 FPS avg - RX 6800XT 77 FPS avg):
1610846725232.png


Call of Duty Black Ops Cold War (RTX 3080 67 FPS avg - RX 6800XT 45 FPS avg):
1610846731291.png


Control (RTX 3080 87 FPS avg - RX 6800XT 54 FPS avg):
1610846737998.png


Metro Exodus (RTX 3080 83 FPS avg - RX 6800XT 65 FPS avg):
1610846745058.png


SOTR (RTX 3080 76 FPS avg - RX 6800XT 60 FPS avg):
1610846750853.png



Watch Dogs Legion (RTX 3080 54 FPS avg - RX 6800XT 37 FPS avg):
1610846757951.png


Siehe:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Auf Nvidia Seite reicht es mit DLSS oft für 4K, aber auf AMD Seite ist man hier selbst von 1440P/60 FPS mit RT ziemlich weit weg in den meisten Titeln.
 
Zuletzt bearbeitet:

4thVariety

Software-Overclocker(in)
Die Konsolen haben nicht 10GB Vram.

PS5 = 16GB DDR6 Unified Memory
Xbox SX = 16GB DDR6 Split Memory 10GB + 6GB (10GB @ 560 GB/s, 6GB @ 336 GB/s )
In gewisser Weise könnte man schon sagen, dass die Series X effektiv 'nur' 10GB VRAM hat.
Quelle: https://news.xbox.com/en-us/2020/03/16/xbox-series-x-tech/

Das Betriebssystem der Xbox verbraucht 2,5GB (natürlich vom langsamen RAM), dann hat der Entwickler noch 3,5GB für Engine, Audio, etc. bevor es an den 'guten' Texturspeicher geht.

Nur weil Sony ausschließlich gute Speicheranbindung hat, geht ja trotzdem was für Betriebssystems, Spiel, Audio, etc. drauf. Auch hier sind die 16GB nicht 16GB Texturspeicher wie beim PC. Die PS4Pro hatte 1GB DDR3 RAM verbaut, nur für das Betriebssystem, vielleicht hat Sony weiterhin hier einen Vorteil, weil es schlanker ist. Aber dann haben die Spiele trotzdem diese Schallmauer von 10GB - 12 GB. Mehr RAM für Texturspeicher steht nicht zur Verfügung.

Der PC hat es einfacher, das RAM der GPU ist auch wirklich nur für GPU Aufgaben. Das Betriebssystem frisst dir nicht 2,5 GB davon auf. Das Spiel wird in den Arbeitsspeicher geladen. Wo die Xbox Seriex X 10GB + 6GB hat, kommt eine 6800XT Konfiguration auf 16GB (GPU) + 32GB (RAM) in den Systemen der Spieler.


Ein Entwickler der ein Spiel für Xbox, Playstation und PC entwickelt, der schaut sich das an und legt 10GB VRAM Nutzung als Ziel fest. Das ist die Baseline. Vielleicht macht Sony einen Co-Marketing Vertrag und dann schaut man mal, ob man da 1GB für bessere Texturen rausquetscht, die niemand sieht, weil die Youtube Kompression das wieder auffrisst. Vielleicht denkt man gleich an den HD-Remaster, oder bekommt von Lieferanten wie Quixel die höherwertigen Texturen gleich frei Haus, dann haben PCs sofort etwas davon und man hat den Re-Release für die nächsten Konsolenupdates mehr oder weniger schon fertig.

Die Auflösung dürfte dabei zweitrangig sein. Egal ob 4k, 1440p, oder 1080p, wer für 10GB Texturen verschwenden darf wird das hinbekommen. Bei großen 4k TVs auf denen das Spiel gut aussehen muss, wird die Leistung der Konsolen und die Vernunft gebieten, dass wir irgendwo bei 1440p und je nach Raytracing zwischen 30fps und 60fps beheimatet sein werden. Alles keine PC Ultra Settings versteht sich. Dynamische Auflösung, DLSS artike Skalierungsverfahren verwischen die Grenze dann geschickt, so dass das Marketing 4k draufschreiben kann und die Pixel zählt eh nur Digital Foundry nach.

Mit den Rest der Videos hast du natürlich recht und wenn Nvidia daherkommt und das Produkt sein Flagschiff nennt, dann sind 10GB zu wenig, selbst wenn Konsolen effektiv auch nicht mehr haben. Wie auf den Konsolen gilt, kein 4k ohne Tricks und bei wirklichen Grafikbomben sollten wir uns an 1440p gewöhnen die nächsten drei Jahren.
 

Olstyle

Moderator
Teammitglied
Den Spruch höre ich gefühlt schon seit mindestens Maxwell. Wie lange denn noch? ^^
Wenn das so weiter geht, hört man wahrscheinlich 2030 noch immer, das es nicht für 4K reicht. :D
Ich hab mit der GTX280 bereits mit 50% der UHD Auflösung gespielt. Die doppelte Leistung von der gibt es schon ein bisschen länger...
@Topic: Und die 3080Ti wird kommen, das ist so sicher wie das Amen in der Kirche.
 

BlubberLord

Komplett-PC-Aufrüster(in)
Warum wird denn hier so wenig auf Art und Anbindung des Speichers eingegangen?

16 GB GDDR6 – schön und gut, aber an einem pro Chip ziemlich schmalen Interface.

Warum ist denn die 3080 in den meisten Titeln in 4K schneller als die AMD-Modelle mit 16 GB Speicher?

Dass die 3080 "nur" 10 GB hat und niedrigere Modelle sogar mehr erklärt sich schlicht dadurch, dass GDDR6X nicht in höheren Kapazitäten pro Chip verfügbar ist.
Und mehr Chips an einem breiteren Interface würden Preis und Verbrauch der 3080 noch ordentlich anheben. Mit mehr aber langsamerem Speicher wäre hingegen die Gesamtleistung der 3080 tatsächlich niedriger!
 

Olstyle

Moderator
Teammitglied
Das Interface muss zum Chip passen. Die Kapazität zum Spiel. Das sind einfach zwei getrennte Themen.
Und dass NV als Technologie um die nötige Bandbreite bei der 3080 zu erreichen GDDRX6 gewählt hat ist deren Problem, nicht das der Endkunden die dann halt unter Umständen wo anders zugreifen.
 

DarkWing13

Software-Overclocker(in)
Weshalb es die 3070 mit 8Gb und die 3080 mit 10GB, neben eventuellen Lieferengpässen, so erschienen sind, dürfte wohl nicht zuletzt daher kommen, das man sich über die Leistung von Navi nicht ganz sicher war.
Daher wollte man unbedingt mit einem konkurrenzfähigen Preis auftreten, was bei 16 und 20GB Speicher nicht möglich gewesen wäre und die 3080 wieder in Preisregionen der 2080Ti verortet hätte. (UPE natürlich ;))
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Die RTX 3080 mobile hat mehr VRAM als die Desktop-Variante?
Ja. Nvidia hat das gemacht, um die Käufer teurer 3080 10 GB zu verärgern. Ganz nebenbei is die Laptop Variante mit 16GB natürlich schneller. Logisch. Is ja ne 3080 mit 16GB. Hat ja mehr Speicher. Die Desktop Varianten ruckeln nur so vor sich hin. Das werden die Käufer vor allem dann merken, wenn sie SAM aktivieren, was sie gar nicht brauchen und bisher auch nicht vermisst haben. Dann werden sie schon sehen, was sie davon haben. Und alle 3090 24GB Käufer und Radeon RX Käufer mit 16GB hatten natürlich Recht. Darunter kann man ja mit nichts mehr spielen. 16GB sind schon Minimum Pflicht(besser min. 24GB für die "Zukunftssicherheit" bis zur nächsten Generation), damit nicht alles vor sich hin ruckelt. Man spielt ja in 8K mit Mods. ;) Spätestens in 2-5 Monaten is dann Ende für die 3080 10GB Karten ! Eigentlich kann man die jetzt schon wegwerfen. Geschieht ihnen Recht ! ;)

Und die 3080Ti wird kommen, das ist so sicher wie das Amen in der Kirche.
Ja, schon sehr bald(in 1-2 Monaten). Im Laptop. Die wischen dann mit den Desktopkarten den Boden auf ! ;)
Sind ja 3080 mit mehr Speicher.


Glaub ich brauch ne Pause, von diesem Mecker-PCGH.

Verdirbt mir nur noch die Laune zum Morgenkaffee, so viel Quark auf einem Haufen konzentriert zu lesen. :kaffee:
 

RyzA

PCGH-Community-Veteran(in)
Ja. Nvidia hat das gemacht, um die Käufer teurer 3080 10 GB zu verärgern. Ganz nebenbei is die Laptop Variante mit 16GB natürlich schneller. Logisch. Is ja ne 3080 mit 16GB. Hat ja mehr Speicher. Die Desktop Varianten ruckeln nur so vor sich hin. Das werden die Käufer vor allem dann merken, wenn sie SAM aktivieren, was sie gar nicht brauchen und bisher auch nicht vermisst haben. Dann werden sie schon sehen, was sie davon haben. Und alle 3090 24GB Käufer und Radeon RX Käufer mit 16GB hatten natürlich Recht. Darunter kann man ja mit nichts mehr spielen. 16GB sind schon Minimum Pflicht(besser min. 24GB für die "Zukunftssicherheit" bis zur nächsten Generation), damit nicht alles vor sich hin ruckelt. Man spielt ja in 8K mit Mods. ;) Spätestens in 2-5 Monaten is dann Ende für die 3080 10GB Karten ! Eigentlich kann man die jetzt schon wegwerfen. Geschieht ihnen Recht ! ;)
Meinst du das überspitzt? :D
 

Gurdi

Kokü-Junkie (m/w)
Nö, reichen nicht in entsprechend anspruchsvollen Spielen.
Das ist einfach Unsinn den neuen Karten UHD tauglichkeit abzusprechen, sry. Die Klasse 6800/3070 und aufwärts ist voll UHD tauglich, in der Auflösung muss man eben hier und da kompromisse eingehen je nach Titel. Das war noch nie anders.

Das ist Unsinn, ich habe in Watch Dogs Legion erst in 5120*2160 (30% mehr Pixel als 4K), RT und UHD Texturen stellenweise Vram Mangel festgestellt.
Na dann stell mal das LOD aus mit dem Regler Zusatzdetails 100%. HDR an?
Die Konsolen haben nicht 10GB Vram.
Klar die Hersteller der Konsolen binden den Speicher auch nur aus Spaß aufwendig und teuer schnell an. Kostet ja nichts die Signalqualität auf einer Platine aufrecht zu erhalten und die Konsolen sind ja bei dem Preis großzügig kalkuliert :rollen:
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Auf effektiv 10GB Vram werden die Konsolen auch nicht kommen in entsprechenden Spielen, abzüglich Systemspeicher und CPU bleiben da realistisch gesehen eher maximal 8GB übrig.
Meiner Meinung nach liegt der Irrtum beim Transfer von Konsole zu PC an anderer Stelle. Wie kommt ihr darauf, dass das hocheffiziente Konsolen-Ressourcenmanagement seinen Weg 1:1 auf den PC findet? Das sind andere APIs, Möglichkeiten und außerdem andere Konsumenten drumherum. Am PC wird das alles einen Ticken ineffizienter, generischer und verschwenderischer. Und hübscher. Aus alldem folgt höhere Belegung - Bedarf, nicht nur Allokation zur Laufzeit.

MfG
Raff
 

RtZk

Lötkolbengott/-göttin
Weshalb es die 3070 mit 8Gb und die 3080 mit 10GB, neben eventuellen Lieferengpässen, so erschienen sind, dürfte wohl nicht zuletzt daher kommen, das man sich über die Leistung von Navi nicht ganz sicher war.
Daher wollte man unbedingt mit einem konkurrenzfähigen Preis auftreten, was bei 16 und 20GB Speicher nicht möglich gewesen wäre und die 3080 wieder in Preisregionen der 2080Ti verortet hätte. (UPE natürlich ;))

Unsinn. Die 3060 mit 12 GB für 330 € geht ja auch.
 

Gurdi

Kokü-Junkie (m/w)
Meiner Meinung nach liegt der Irrtum beim Transfer von Konsole zu PC an anderer Stelle. Wie kommt ihr darauf, dass das hocheffiziente Konsolen-Ressourcenmanagement seinen Weg 1:1 auf den PC findet? Das sind andere APIs, Möglichkeiten und außerdem andere Konsumenten drumherum. Am PC wird das alles einen Ticken ineffizienter, generischer und verschwenderischer. Und hübscher. Aus alldem folgt höhere Belegung - Bedarf, nicht nur Allokation zur Laufzeit.

MfG
Raff
Zum Thema Verschwendung. RT lässt in dem Spiel den Vram Verbrauch exlodieren. Kein Wunder das man es bisher noch nicht auf den NV Karten freigeschaltet hat.

Screenshot (472).jpg
 

ChrisMK72

PCGH-Community-Veteran(in)
Hm ... wieso geht das nicht ?

Wollte gerade die ganze Redaktion, alle Mods und Gurdi auf die Ignoreliste packen.
Geht nicht.

Also ... bei Gurdi ging's. Bei dem Rest nicht. ;)
Scheint technisch nicht möglich, oder vorgesehen zu sein.

So ... mein Kaffee is fertig und damit mir der schmeckt, verlasse ich die "hier nur mit mindestens 16GB rein Elite-Seite PCGH"
Have fun ! :daumen:

Ich schaue mir besser mal die Tagesschau an. Vielleicht gibt's da irgendwelche Katastrophen, oder Horrormeldungen. Also leichtere Kost, als Mecker-PCGH.
 

Gurdi

Kokü-Junkie (m/w)
Hm ... wieso geht das nicht ?

Wollte gerade die ganze Redaktion, alle Mods und Gurdi auf die Ignoreliste packen.
Geht nicht.

Also ... bei Gurdi ging's. Bei dem Rest nicht. ;)
Scheint technisch nicht möglich, oder vorgesehen zu sein.

So ... mein Kaffee is fertig und damit mir der schmeckt, verlasse ich die "hier nur mit mindestens 16GB rein Elite-Seite PCGH"
Have fun ! :daumen:

Ich schaue mir besser mal die Tagesschau an. Vielleicht gibt's da irgendwelche Katastrophen, oder Horrormeldungen. Also leichtere Kost, als Mecker-PCGH.
Ganz schön kindisch....
Mein Sohn hält sich auch immer die Augen zu wenn es was zu meckern gibt, wenn ich nichts sehe sehen mich die Anderen auch nicht :rollen:
 

theGucky

Komplett-PC-Aufrüster(in)
Ich habe mir eine 3080 gekauft, obwohl die nur 10GB VRAM hat. Meine alte 1080Ti hatte 11GB.
Ich wollte eine neue Karte, weil meine Alte zu laut wurde (>50db) und kein RT für CP2077 und andere hatte.
Ich weiß aber auch 10GB ist GENUG VRAM für biszu 1440p.
Aber von mehr könnte Karte durchaus die profitieren.
Mir war aber auch seit Release der 3080 klar, das es eine 20GB Version Ti oder normal erst ab Sommer 2021 gibt.
Und 115% höheren Preis für eine 3090 ist mir zuviel... für 1100€ hätte ich mir die vielleicht geholt... (Nvidia FE MSRP)
 

deady1000

Volt-Modder(in)
PS5 = 16GB DDR6 Unified Memory
Xbox SX = 16GB DDR6 Split Memory 10GB + 6GB
Alles Theoriegerede. Am Ende sieht es auf den Konsolen sowieso wieder alles schlechter aus, als auf dem PC, mit weniger Details und schlechterer Performance, trotz theoretisch größerem Speicher. Die teuren und marketingträchtigen Exklusivtitel werden wieder richtig geil aussehen und vielleicht das Potential durch perfekte Optimierung komplett ausschöpfen, aber der Rest... Dann lieber ne RTX3080 mit 10GB.

Glaubt ihr ernsthaft, dass die von den geteilten 16GB wirklich 10-12GB für Texturen verballern? Eh nicht. Die müssen auch Headroom einkalkulieren und können nicht alles vollstopfen, wenn der Speicher auch für das System verwendet wird.
 

seahawk

Volt-Modder(in)
Sparsamer oder versoffener geht immer. Meine RTX 3090 läuft mittlerweile dauerhaft mit 0,737 Volt und ~1,7 GHz (von den Cyberpunk-Ausflügen abgesehen, da muss die dicke Bertha echt arbeiten). Ich finde einen selektierten GA104-Vollausbau im Pressformat aber technisch einfach Nano-ish lecker. =)

MfG
Raff
GA104 Vollausbau mit 16GB und ich würde sofort kaufen.
 

deady1000

Volt-Modder(in)
GA104 Vollausbau mit 16GB und ich würde sofort kaufen.
Dann haste eine 3070 mit 4,3% Mehrleistung (+ Mehrverbrauch) und 16GB (+ Mehrverbrauch) . Da ist jede 3080 schneller. Man müsste gucken was sie preislich kosten würde und dann Preis/Performance rechnen. Allein wegen des Speichers macht das keinen Sinn. Die 6GB machen die kleinere Karte nicht schneller und dem Ottonormalverbraucher bringt es auch gar nichts.

Daher verstehe ich auch nicht so ganz... Wer High-End-4K zocken will, der kauft mit RTX3070 und RTX3060Ti sowieso den falschen Chip, außer man will die alten Games mit Hardcore-Mods ausstatten. Für flüssiges 4K bei neuen Spielen sind die Karten eigentlich zu lahmarschig und wenn DLSS genutzt wird braucht man den großen Speicher auch nicht.
 

Gurdi

Kokü-Junkie (m/w)
Glaubt ihr ernsthaft, dass die von den geteilten 16GB wirklich 10-12GB für Texturen verballern? Eh nicht. Die müssen auch Headroom einkalkulieren und können nicht alles vollstopfen, wenn der Speicher auch für das System verwendet wird.
Klar, das ist doch die Stärke einer Konsole. Du kannst ohne Bedenken die Ressourcen voll ausschöpfen. Im normalen Systemram muss auf einer Konsole fast nichts rein.
 

seahawk

Volt-Modder(in)
Dann haste eine 3070 mit 4,3% Mehrleistung (+ Mehrverbrauch) und 16GB (+ Mehrverbrauch) . Da ist jede 3080 schneller. Man müsste gucken was sie preislich kosten würde und dann Preis/Performance rechnen. Allein wegen des Speichers macht das keinen Sinn. Die 6GB machen die kleinere Karte nicht schneller und dem Ottonormalverbraucher bringt es auch gar nichts.

Daher verstehe ich auch nicht so ganz... Wer High-End-4K zocken will, der kauft mit RTX3070 und RTX3060Ti sowieso den falschen Chip, außer man will die alten Games mit Hardcore-Mods ausstatten. Für flüssiges 4K bei neuen Spielen sind die Karten eigentlich zu lahmarschig und wenn DLSS genutzt wird braucht man den großen Speicher auch nicht.
Es heilt die Probleme der 3070, die Karte würde immer noch weniger verbrauchen als die 3080 und wäre imho für 4-5 Jahre Einsatz in WHQD und FHD gut. Wenn man so will eine neue 1080.

Klar, das ist doch die Stärke einer Konsole. Du kannst ohne Bedenken die Ressourcen voll ausschöpfen. Im normalen Systemram muss auf einer Konsole fast nichts rein.

Wobei der Speicheraufbau der Xbox ja nahelegt, dass 10GB als VRAM vorgesehen sind.
 

Gurdi

Kokü-Junkie (m/w)
Es heilt die Probleme der 3070, die Karte würde immern och weniger verbrauchen als die 3080 und wäre imho für 4-5 Jahre Einsatz in WHQD und FDH gut. Wenn man so will eine neue 1080.



Wobei der Speicheraufbau der Xbox ja nahelegt, dass 10GB als VRAM vorgesehen sind.
Sehe ich ähnlich, die 70er ist eigentlich ne sehr attraktive Karte, lässt sich sehr gut undervolten wie auch übertakten und pullt keine 3000Watt ins System. Die 8GB machen die Karte aber sehr unattraktiv.
 

deady1000

Volt-Modder(in)
Ich bleibe dabei. Das ist alles Theorie- und Marketing-Hype. Am Ende haben Konsolen technisch fast immer enttäuscht bzw sind weit unter den vorhergesagten Erwartungen geblieben. Das wird hier wie immer auch der Fall sein.

Das Shared-Memory-Konzept ist eher eine Maßnahme Kosten zu drücken und die Flexibilität zu erhöhen, aber eine grundsätzlich höhere Performance bzw einen echten praktischen Nutzen würde ich hier nicht erwarten. Ich glaube nach wie vor nicht, dass die bei den Konsolen Texturen reinklatschen, die >8GB VRAM einnehmen.

Gerade WEIL bei den Konsolenspielen optimiert wird, brauchen die auch nicht so viel VRAM. Wo braucht man denn viel VRAM? Nur wenn fett gemoddet wird (8K-Texturen bzw übertrieben große 4K Texturen) oder wenn die Spiele so dermaßen schlecht optimiert sind, dass alles mögliche vorgeladen wird. Guckt euch Spiele in 4K an. Viele kommen mit weit unter 8GB aus, mit Ausnahmen.

Der Normaluser, den es ohnehin nicht interessiert, merkt den Unterschied sowieso nicht bzw man kann ja nicht mal die Auslastung auslesen oder die Details einstellen, daher auch völlig unnötig für <1% der Spielerschaft 12GB Texturen in einer Konsole zu verwenden.

Man muss sich nur mal vor Augen halten, dass selbst bei angeblichen 4K-Konsolen oftmals auch mit 1440p bzw 1800p statt 2160p gerendert wird. Lange waren auch Fall-backs auf 30FPS keine Seltenheit.

Das ist so das Niveau auf dem wir uns befinden. Marketing und nichts dahinter.
 
Oben Unten