Special Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar

Sowieso, siehe Dead space.
1675937115790.png

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich finde es lustig das man nun bei Nvidia selber rumspielen muss um mehr Performance zu bekommen, weil diese Lederjacken Typen anscheind nicht selber testen wollen, obwohl das Gehalt bestimmt lecker ist.
 
Ist halt schwierig jemanden zu erklären, der 500 oder gar 1000+€ ausgegeben hat , warum er nicht alles auf max zocken kann.


Andererseits muss man auch dazu sagen das viele Leute mittlerweile in 4k zocken... Aber gar nicht die dafür nötige Hardware vorweisen können.
Hab das jetzt schon mehrfach mitbekommen das sich Leute n neuen 4k Monitor/Fernseher gekauft haben.. davon schwärmen und dann davon ausgehen das eine 3070 das problemlos packt.
Bei vielen alten spielen tut sie das sogar

Es ist oft genug der Fall das die Leute den Leistungshunger eines neuen Monitors brutals unterschätzen
Eine 3070/ti ist von Anfang an eine 1080p high refresh Karte gewesen.. ausgelegt auf die am meisten genutzte auflösung.

Auch eine 3080TI bzw 4070Ti ist keine 4K Karte sondern WQHD high refresh Karte.

Klar kann man jetzt die Schuld auf Nvidia schieben.. und natürlich ist deren vram Geiz real und trifft jetzt einige Hart.
Aber viele haben ihre Hardware auch mit illusorischen Vorstellungen gekauft...
Wärend sich Nvidia an dem orientiert was man durch Umfragen rausgefunden hat was am meisten an Auflösung vertreten ist.

man sollte auch von Seiten der Spielemagazine anfangen die Aufteilung der GPU Klassen in lowrangr/midrange/highend mal zu hinterfragen..

4050/?GB = 1080p entry Level
4060/8GB= 1080P
4060ti/8GB = 1080P high refresh
---------------------
4070/12GB = WQHD
4070TI/12GB = WQHD high refresh
-------------------
4080/16GB = UHD entry
4090/24GB = UHD

So muss das wesentlich mehr kommuniziert werden.

Auch eine 6800xt/6900xt sind keine 4k karten obwohl sie genügend vram haben.
Es sind nach wie vor wqhd/wqhd high refresh Karten.
Wenn eine 4070 eine WQHD Graka ist, dann war die 3070 zu ihrer Zeit auch eine WQHD Graka oder was hat sich grundlegend (außer der herkömmlichen Weiterentwicklung) geändert? Aber ist ohnehin vollkommen übertrieben zumal du sagst, dass Raytracing Ressourcenverschwendung ist und man diese Option somit besser deaktivieren sollte. Parallel verhält es sich mit den UltraOptionen die kaum Mehrwert zu High und teils zu Mittel bieten. Mit meiner 3070 kann ich locker in WQHD und die meisten Spiele sogar ohne DLSS in 4K spielen... es gibt nur einzelne Spiele, die mal herausstechen, wo man heftig in die Settings muss um auf über 40 fps in 4K zu kommen... zB. Kingdome Come Deliverence (aber ist ja auch die Cryengine).
 
Zuletzt bearbeitet:
Naja die Technik an und für sich ist halt schon irgendwo die Zukunft. Wenn die Technik mal soweit ist, das mann alles in raytracing berechnen kann. Wären wir nahe am Foto realismus.
Ich sage ja nicht das die Technik an und für sich nix taugt oder schlecht ist.

Gerade für "nicht live" Animationen wie zb Präsentationen oder Movies in Kinoqualität ist die Technik mehr als interessant.

Aber So ein Transformers Film hat vielleicht 4-5 Monate Drehzeit und etwa 12-18 Monate Renderzeit für die Animationen

Die Frage ist halt ob es in spielen wirklich die Zukunft ist wenn ich 90-95% der Optik mit klassischen Methoden einfach performanter darstellen kann. Vorallem wenn man die Skalierbarkeit in Richtung Konsolen und älterer hardware bedenkt.
Man will ja als Publisher das so ein Spiel auf möglichst vielen Hardware Kombination läuft um sich ein größt mögliches Verbreitungsgebiet zu sichern.

Deswegen werden "full pathtrayed" Games eher die Ausnahme bilden.
Selbst jetzt ist es meist einfach eine aufgesetzte "Schatten Qualitäts" Option für eine Handvoll PC Spieler und das war es.

Auch sehen wir erste Spieleschmiede auch wieder von dem Raytracing Hype abspringen..
Wärend die letzten 3 CODs raytracing unterstützt haben gibt es bei dem neuen MW22 schon kein raytracing mehr..
dafür allerdings DLSS, FSR und das Intel Ding
 
Naja die Technik an und für sich ist halt schon irgendwo die Zukunft. Wenn die Technik mal soweit ist, das mann alles in raytracing berechnen kann. Wären wir nahe am Foto realismus.

Ich Arbeite zb. Viel mit "Blender"

Und da kann mann sehr gut sehen was mit "Raytracing" möglich wäre. Auch im vergleich zu ner klassischen engine wie zb. eevee in Blender.

Nur leider sind wir gefühlt noch ein jahrzehnt davon entfernt, ein komplettes Spiel in real time komplett zu "pathtraycen".
Am meisten macht meiner Meinung nach Ambient Illumination aus. Das sieht man allerdings kaum in Spielen, da es zu viel Power frisst. Aber bei Minecraft ist das schon sehr geil.
 
Wenn eine 4070 eine WQHD Graka ist, dann war die 3070 zu ihrer Zeit auch eine WQHD Graka oder was hat sich grundlegend (außer der herkömmlichen Weiterentwicklung) geändert?
Ich würde Mal behaupten folgendes hat sich geändert.. WQHD ist immer dominanter auf dem Monitor Markt geworden. Und dementsprechend hat man in der Entwicklung Rechnung getragen.

Natürlich kann man mit reduzierten settings auch WQHD und 4k mit einer 3070 spielen.. das geht halt nicht in Jedermanns Kopf das man bei einer Karte für aktuell immer noch
600+€ die Details runterschrauben muss.

Das raytracing Ressourcen Verschwendung ist, ist halt meine persönliche Präferenz und Meinung
Ich halt auch nix von Motion Blur obwohl es keine Leistung kostet
 
Ich würde Mal behaupten folgendes hat sich geändert.. WQHD ist immer dominanter auf dem Monitor Markt geworden. Und dementsprechend hat man in der Entwicklung Rechnung getragen.

Natürlich kann man mit reduzierten settings auch WQHD und 4k mit einer 3070 spielen.. das geht halt nicht in Jedermanns Kopf das man bei einer Karte für aktuell immer noch
600€ die Details runterschrauben muss
Da gehe ich mit... naja, als Steam Deck Besitzer muss man ohnehin Optimierungsmeister sein...^^ Dafür können sich nicht viele begeistern, aber das Optimieren kann durchaus auch Spaß machen.
 
:what: Nee. ^^
Beide Karten kann man durchaus in 4K nutzen und es braucht auch nicht jeder ultrahohe FPS. Ich kann in Spielen generell mit 40-60 fps leben.
Nun ich kann das nicht mehr nach Jahren mit 120+hz Monitoren.. freesync/gsync hin oder her.. ich hab's lieber flüssiger als in 4k aufgelöst

Und das spiegelt zum Teil ja auch der Monitor Markt wieder.. wo nach wie vor die meisten Displays 1440p@ 120+Hz sind
 
Die Frage ist halt ob es in spielen wirklich die Zukunft ist wenn ich 90-95% der Optik mit klassischen Methoden einfach performanter darstellen kann. Vorallem wenn man die Skalierbarkeit in Richtung Konsolen und älterer hardware bedenkt.
Man will ja als Publisher das so ein Spiel auf möglichst vielen Hardware Kombination läuft um sich ein größt mögliches Verbreitungsgebiet zu sichern.
Das mag heute so sein.
Aber in 10 Jahren?
In 20 Jahren?

Die Technik muss sich dahingehend ändern wenn man Foto realismus haben möchte.

Was denkst du wie mann vor 15 Jahren reagiert hätte, wenn man Bilder von Hogwarts legacy gezeigt hätte?

Da hätte jeder gesagt, dass ist unmöglich, das wird niemals auf handelsüblicher Hardware laufen etc.

Irgendwann muss man beginnen neue Technologien wie Raytracing zu implementieren. Auch wenn frühe itterationen immer teils mehr Nachteile als Vorteile bringen xD

Ich bin sicher wenn wir in 15 jahren auf diesen thread zurück schauen, werden wir lachen, was wir heute für unmöglich gehalten haben xD
 
Nun ich kann das nicht mehr nach Jahren mit 120+hz Monitoren.. freesync/gsync hin oder her.. ich hab's lieber flüssiger als in 4k aufgelöst

Und das spiegelt zum Teil ja auch der Monitor Markt wieder.. wo nach wie vor die meisten Displays 1440p@ 120+Hz sind
Bei niedriegen Auflösungen und hohen Fps spielt ja der Ram dann eine untergeordnete Rolle, sollte deine Einstufung der RTX 3070 aufgrund der nur 8 GB erfolgt sein.
Was denkst du wie mann vor 15 Jahren reagiert hätte, wenn man Bilder von Hogwarts legacy gezeigt hätte?
Vor 15 Jahren kam Crysis 1 raus... eventuell hätte ich mit Blick auf Hogwarts erwartet, dass wir schon weiter wären. Die Unreal Engine 5 kommt schon eher dahin, wo meine Erwartungen 2008 bzgl. 2023 eventuell waren... :ugly:
 
Zuletzt bearbeitet:
Bei niedriegen Auflösungen und hohen Fps spielt ja der Ram dann eine untergeordnete Rolle, sollte deine Einstufung der RTX 3070 aufgrund der nur 8 GB erfolgt sein.
Richtig. Deswegen war das Ampere lineup, unterhalb der 3090, für mich auch immer auf high refresh und nicht auf high Resolution ausgelegt.

Wer sich heute eine 4070ti anschafft muss sich im Vorfeld darüber im Klaren sein das es keine 4k Karte sondern eine WQHD high refresh Karte ist.
 
Richtig. Deswegen war das Ampere lineup, unterhalb der 3090, für mich auch immer auf high refresh und nicht auf high Resolution ausgelegt.

Wer sich heute eine 4070ti anschafft muss sich im Vorfeld darüber im Klaren sein das es keine 4k Karte sondern eine WQHD high refresh Karte ist.
Ich spiele mit meiner 4070ti sogar über 4K und das geht problemlos.
Auch Hogwarts Legacy läuft damit (ohne RT mit DLSS).
 
Richtig. Deswegen war das Ampere lineup, unterhalb der 3090, für mich auch immer auf high refresh und nicht auf high Resolution ausgelegt.

Auch eine 6800xt/6900xt sind keine 4k karten obwohl sie genügend vram haben.
Es sind nach wie vor wqhd/wqhd high refresh Karten.

Wer sich heute eine 4070ti anschafft muss sich im Vorfeld darüber im Klaren sein das es keine 4k Karte sondern eine WQHD high refresh Karte ist.
Höre doch bitte auf mit diesen pauschalen Aussagen. Es kommt doch immer darauf an, welche Spiele (und in welchen Settings) gespielt wird. Du betreibst mir zu viel Schwarz-Weiß-Denken, was sich in Deinen Aussagen widerspiegelt. Muss man die Leute so verrückt machen?

Außerdem ist "High Refresh" auch relativ. Für den einen sind das bereits 100 FPS, für jemand anderen ist wiederum alles unterhalb von 240 FPS langsam.
 
Ich spiele mit meiner 4070ti sogar über 4K und das geht problemlos.
Auch Hogwarts Legacy läuft damit (ohne RT mit DLSS).
Natürlich geht das. wirst halt nur wesentlich eher an den Punkt kommen müssen das die Details reduziert als jemand der WQHD spielt. Solang du dir dessen bewusst bist ist doch alles gut.. und es gibt nix zu meckern.
Und wieviele sind es nicht und sind in 1-2 Jahren entäuscht von einer 900€ Karte?

Wobei DLSS/FSR dann wieder kein natives 4k ist.. und du technisch gesehen ja schon mit "reduzierten" Details spielst.



öre doch bitte auf mit diesen pauschalen Aussagen. Es kommt doch immer darauf an, welche Spiele (und in welchen Settings) gespielt wird.
In Anbetracht der Tatsache das wir uns über ein gross der Spiele bei max setting unterhalten muss man schon pauschalisieren..
Klar jedes Spiel ist anders und in jeden kann man mit Reglern was erreichen..

Aber der Grundsatz meiner Argumentation war bisher max settings..weil ich keinen weis machen kann bei so einer teuren Investition "nicht" Max settings zu fahren
(Auch ich spiele seltens mit allen Reglern rechts trotz potenter Hardware)


Außerdem ist "High Refresh" auch relativ. Für den einen sind das bereits 100 FPS, für jemand anderen ist wiederum alles unterhalb von 240 FPS langsam.
Nun die Spiele Industrie sieht high refresh gern im Bereich 60+FPS .. aber ja ist wirklich eine ziemliche Definitionssache da gebe ich dir recht


Versteht mich nicht falsch.. auch ich bin vom Vram Geiz nicht sonderlich begeistert da ich zb eine 4070ti mit 16gb eher für mein Setup gekauft hätte als in den sauren Apfel zu beißen und die 300€ mehr für die rtx4080 auszugeben

Aber es hat alles seine Gründe warum ein Unternehmen sein Produkt lineup so aufgestellt hat..
Ich würde mir nur wünschen das Spielemagazine das mehr in Betracht ziehen und Klipp und klar sagen
" ja du kannst damit 4k mit reduzierten Details Spielen.. die Karte ist aber eigentlich gebaut für 1440p high refresh"
 
Zuletzt bearbeitet:
@Blackfirehawk Mich triggert das immer, wenn jemand ohne Kontext Aussagen in dem Raum wirft und sie als objektiv "richtig" darstellt.

Aber danke für die Erklärung, alles cool.

Ich spiele zum Beispiel in UHD oder in 3840x1600 mit 100-150 FPS und für MICH persönlich ist das noch nicht "High Refresh". Das bezieht sich dann in der Regel aber auch auf 2 Jahre alte oder noch ältere Spiele, wo das dann (meistens) möglich ist, wenn die CPU auch mitmacht.
 
Ich spiele zum Beispiel in UHD oder in 3840x1600 mit 100-150 FPS und für MICH persönlich ist das noch nicht "High Refresh".
Dann frag Mal die Consoleros (die ein Großteil der Spielerschaft heutzutage darstellt) was die so High refresh nennen...
Für die sind stabile 60fps bereits high FPS und 120fps (bei reduzierten Details im Performance Mode) bereits ein Träumchen in vielen next Gen games
 
Ich habe vor dem Kauf meiner RX 6800 in 2020 lange überlegt, mir eine RTX 3070 oder gar 3080 zu kaufen, aber die Kombination aus schnellen Chips, aber wenig VRAM hat direkt für Bauchschmerzen gesorgt.
Bei mir ist es genau umgekehrt. ;) Hier ist hohe Rasterleistung und Effizienz am wichtigsten und Videospeicher eher eine Art lästiger Ballast.
Die Eskalation bei den Waferpreisen hat mehrere Faktoren.

(1) TSMC muss (nicht will, kann oder darf) sich mit globalen Standorten diversifizieren um der Bedrohung zu entgehen bei einem Konflikt zwischen Taiwan und China vom Markt zu verschwinden. Bei allen Förderungen von Staaten kostet das immer noch viel Geld und das wird gerade gedruckt. Die höheren Preise vererben sich zum Kunden durch.

(2) TSMC ist kein reiner Verkauf, es ist ein Stück weit eine Auktion. Die besten TSMC (etc.) Nodes machen nicht nur GPUs für Zocker. Smartphonechips und deren zahlungswillige Kunden treiben die Preise hoch. 1000€ für eine 300mm² 4070? Apple schafft auch 1300€ für ein Produkt mit 100mm² Chipfläche. So teuer wie Nvidia ist, mit den Gewinnspannen von Apple halten die nicht mit und damit wird der Einkauf bei TSMC teuer.

(3) KI Chips wurden zur "strategischen Ressource" erklärt. Übersetzung: NATO Staaten werden jeden Preis zahlen und daher werden einige Firmen mit KI Chips mehr Geld verdienen als mit Gamern. Wir sind es jetzt gewohnt GPUs auf den modernsten Prozessen wie aktuell 5nm zu bekommen. Das könnte sich in Zukunft ändern, wenn z.B. der neue 3nm komplett in militärische Forschungschips und Megakonzern-KI Chips für Amazon und Google geht und alle anderen eine Ehrenrunde auf 5nm drehen müssen. Bei 2nm, 1nm, etc. wiederholt sich dann das Spiel.
Ich orientiere mich da gerne an deinen Analysen, wie immer.

1. Der amerikanische Einfluss im pazifischen Raum müsste minimiert werden, damit sich TSMC daheim wohl fühlt, wovon auch Korea und Japan profitieren würden. China hat das Recht, sich zu verteidigen. Die Frage ist ob die gesamte NATO zusammengeschlagen werden soll, damit wir Grafikkarten zu einem hinreichend niedrigen Preis kaufen können oder ob das alles gar keine Rolle spielt, weil sowieso das alte Spiel Alliierte gegen die anderen gilt. Deswegen die Aufrüstungen, man will am Ball bleiben und Vergeltung üben bzw. jene Leute plattmachen, die einen plattmachen möchten. Ich bin mir nicht sicher, ob zum Beispiel nur die Hälfte an Grafikkarte kaufen irgendeinen Unterschied machen würde diesbezüglich.

2. Ich finde ja Apple nimmt einer Sonderrolle ein, weil sie in Sachen Preis-Leistung keinen so guten Eindruck hinterlassen, dass man sich als Budget PC Spieler damit beschäftigen muss. Bis sie für einen selbst attraktiv erscheinen bei allen Horrormeldungen um schlechte Verarbeitung etc., bleibt festzuhalten sie haben ja eigene Ansätze bei der Entwicklung von Software und sie lassen sich fürstlich bezahlen. Der Eindruck von außen kommt auf, Apple bietet nur Unfug an und Nvidia gibt zu einem fairen Preis einen tatsächlichen Mehrwert für seine Kunden heraus, weshalb Nvidia nie zum Premiumhersteller für mich werden kann, unabhängig ob Apple existiert oder nicht. Sie tun sehr viel für die Kundenbindung.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
3. Diese ständige Bedrohungslage ob mit Keule, Messer oder Bombe als Rechtfertigung für schlechtere Chips und höhere Preise hinzunehmen, wird sicherlich nicht alle Leute milde stimmen. Falls möglich, setze ich daher meine Hardware in Umgebungen ein, in der eine schlechtere Qualität als es möglich wäre so gut wie keine Rolle spielt. Ich bin mir nicht sicher, ob ein einfacher Spieler ohne Aktien etc. irgendetwas tun kann und ob es überhaupt eine gute Idee ist, Diversifizierungspläne von TSMC zu unterstützen. Deine Beschreibung der Situation an sich bietet einen guten Anhaltspunkt, um sich über so etwas Gedanken zu machen.
Genau deswegen habe ich mir eine Radeon 7900 XT statt ner Geforce 4070 gegönnt! (und weil diese besser in mein altes Gehäuse passt ;-))
Die 4070 hat geringere Abmaße als die 4070 Ti, im Schnitt natürlich. Beim Netzteil ist es nur eine Frage der Anschlüsse, allerdings kann die Wahl eines neuen Gehäuses bei der Anschaffung einer 4070 Ti durchaus einen kleinen Aufpreis bedeuten.
Raytracing ändert sowieso einiges an der Einteilung der Karten..
Da wird eine 4070ti auch ganz schnell eine 1080P high refresh Karte

Zumal es auch viel zuviel Hype drum gemacht wird..
Zb in witcher3 next Gen.. obwohl ich Unterschiede sehe ist das ganze nix wo ich sage Wow das macht n fetten unterschied beim gameplay und ist ein must have.
Mit herkömmlichen Schatten und Reflexionen sieht das Spiel genauso gut aus..

Ich würde die 4070ti gar nicht erst in 4k benches zeigen sondern als Spielemagazin direkt kommunizieren das die Karte in WQHD Zuhause ist.

Die Leute schauen sich die benches an und denke sich "Geil die packt 70-80fps auf meinen UHD Monitor" und in nem Jahr wird rumgeheult das die Karte Zuwenig vram für aktuelle Spiele in UHD hat
Jo, mit Ultra Qualität (was übrigens nicht viel anders aussieht zu "niedrig") und DLSS Quality kommt man bei 1080p gerne mal ins CPU Limit, was ich völlig okay finde und sich ja mit der Zeit verschiebt, hält die Tendenz an. In Need For Speed: Unbound stehen mal schnell die 300 FPS auf dem Tacho. Das scheint mir ein guter Sweet Spot zu sein, in jeder Situation überhaupt irgendetwas mit der GPU anfangen zu können; mehr brauche ich nimmer. 4K Monitore werden so nebst ihrer höheren Leistungsaufnahme schnell zur Kostenfalle: Da wird dann eine 5.000€ Grafikkarte gekauft nach der anderen, schlimmstenfalls. Beste Möglichkeit dieser Situation zu entkommen ist gar nichts von bestimmten Videospielen zu wissen. Weil ich Crysis nicht kannte, wollte ich nie großartig aufrüsten. :devil:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für eine native Auflösung bei 400 Watt Leistungsaufnahme jedenfalls interessieren sich nicht alle.
Wenn eine 4070 eine WQHD Graka ist, dann war die 3070 zu ihrer Zeit auch eine WQHD Graka oder was hat sich grundlegend (außer der herkömmlichen Weiterentwicklung) geändert? Aber ist ohnehin vollkommen übertrieben zumal du sagst, dass Raytracing Ressourcenverschwendung ist und man diese Option somit besser deaktivieren sollte. Parallel verhält es sich mit den UltraOptionen die kaum Mehrwert zu High und teils zu Mittel bieten. Mit meiner 3070 kann ich locker in WQHD und die meisten Spiele sogar ohne DLSS in 4K spielen... es gibt nur einzelne Spiele, die mal herausstechen, wo man heftig in die Settings muss um auf über 40 fps in 4K zu kommen... zB. Kingdome Come Deliverence (aber ist ja auch die Cryengine).
Gute Frage. Ampere wurde ja für seine gute Tauglichkeit in höheren Auflösungen angepriesen, während Turing und Ada Lovelace in der Mittelklasse eher niedrige Auflösungen zu bevorzugen scheinen. Die Tendenz zumindest ist Folgende: Einerseits werden die Spiele immer unbarmherziger und die jeweilige neue getestete Karte wird im Kontext der aktuellen Blockbuster AAA Spieler gesehen, andererseits hatte Ampere auch relativ viele Shader also FP32-ALUs im Vergleich zu Turing und Ada Lovelace. Trotzdem hätte ich eine große Ampere Grafikkarte natürlich nur bis 1080p verwendet, denn Ultra Grafikdetails mit oder ohne RayTracing kosten ein Vermögen, wenn auch noch mehr Pixel dazu kommen, ohne die Bildqualität bedeutend zu verbessern. Da ist mir auch egal, wie groß mein 1080p Monitor ist und wie niedrig die Pixeldichte. Da es schwierig ist, als Spielemacher Super Duper Grafikoptionen auszublenden, lässt sich dieses Problem von wegen RTX 4090 Qualität aber für Pfennigbeträge wohl gar nicht lösen: Aufklärung hilft, nur muss auch die Testmethodik verstanden werden und was die Zahlen auf dem Bildschirm tatsächlich bedeuten.
Und wieviele sind es nicht und sind in 1-2 Jahren entäuscht von einer 900€ Karte?
25 Jahre hier, der Rest ist uninteressant, weil man ja auch zeigen möchte wie preiswert diese ganze Geschichte wirklich sein kann, abhängig vom Nutzer natürlich.
 
Dann frag Mal die Consoleros (die ein Großteil der Spielerschaft heutzutage darstellt) was die so High refresh nennen...
Für die sind stabile 60fps bereits high FPS und 120fps (bei reduzierten Details im Performance Mode) bereits ein Träumchen in vielen next Gen games
Ich weiß. Auf dem (NTSC) NES oder SNES reichen mir auch 60 FPS.

Bei modernen Konsolen, insbesondere bei 3D-Spielen, kann ich das nicht nachvollziehen. Aber jeder, wie er möchte. ^^
 
Ich weiß. Auf dem (NTSC) NES oder SNES reichen mir auch 60 FPS.

Bei modernen Konsolen, insbesondere bei 3D-Spielen, kann ich das nicht nachvollziehen. Aber jeder, wie er möchte. ^^
Der NES/SNES hat nie mehr als 30fps gesehen^^ (NTSC/PAL)
Dir ist es nur nicht aufgefallen weils Röhrenfernseher waren die eine bedeutend bessere Motion clearity als LCDs haben..
Und die Spiele doch bedeutend einfacher (spieltechnisch aber teils besser) waren.

Da hat man noch versucht gameplay mässig ein Spiel gut zu machen.
Heutzutage hat man viele Blender die zwar hübsch anzusehen sind.. inhaltsmässig aber so derbst tot sind das es Kaum Sinn macht sie ein zweites Mal zu spielen.

Man macht lieber DLCs, Microtransaktion und "geh dahin töte/sammle alles und komm zurück" missionen

Aber das ist ein ganz anderes Thema..
 
Zuletzt bearbeitet:
(2) TSMC ist kein reiner Verkauf, es ist ein Stück weit eine Auktion. Die besten TSMC (etc.) Nodes machen nicht nur GPUs für Zocker. Smartphonechips und deren zahlungswillige Kunden treiben die Preise hoch. 1000€ für eine 300mm² 4070? Apple schafft auch 1300€ für ein Produkt mit 100mm² Chipfläche. So teuer wie Nvidia ist, mit den Gewinnspannen von Apple halten die nicht mit und damit wird der Einkauf bei TSMC teuer.
Puhhh...also bei Apple kann man nicht pauschal sagen, dass die überteuert sind für die Qualität und die Leistung. Schwierig da von anderen Herstellen überhaupt was Vergleichbares zu bekommen.
 
Zurück