Nvidia-Event: Fan bringt mit Frage zu AMDs Mantel Spieleentwickler in Verlegenheit

Würd mich jucken wie smooth die API dann läuft.
Man entsinne sich nur an 3DFXs eigenes Glide. Dagegen war DX eine Ruckel Zumutung trotz stabilen fps wie das heutige mikroruckeln. Es ist nur nicht jedem aufgefallen. Nur im direktem Vergleich auf einer Lan konnte man es aufzeigen... Zudem die ganzen Effekte, die unter Glide damals weit aus besser liefen und besser aussahen. Z.B, der Rauch unter dx bei NFS3 war ja wirklich eine Katastrophe "G"
Hofen wir das beste. Wenn es wie mit Glide wird, kommt ein Crossfire Gespann in meinen Rechenknecht.
 
Die Entwicklungsarbeit verdoppelt sich grob bei jeder zusätzlichen API! Du musst alles doppelt und dreifach machen. Kein Entwickler kan sich das auf Dauer leisten.
Die Annahme ist schlichtweg falsch, nur die Engine Entwicklungszeit erhöt sich, bzw. eigentlich erhöht sich lediglich die Entwicklungszeit vom 3D Renderer. Ob verdoppeln oder verdreifachen weiss ich nicht, den Meisten Spielentwicklern ist das aber egal, die benutzen eh vorgefertigte Engines (UE4, cry Engine 3, Frostbite 3).

Zu Zeiten von GLIDE gab es noch deutlich mehr Grafickchiphersteller als heute, Heute gibt es noch 3 Nennenswerte im Spielebereich.
 
Die Entwickler brauchen in der Neuzeit immer mehr Ressourcen um die Implementierung auf mehreren Plattformen durchführen zu können. Die Plattformen mit dem größten Aufwand wird meistens falls gelassen. Häufig ist das der PC(!).

Die Entwicklungsarbeit verdoppelt sich grob bei jeder zusätzlichen API! Du musst alles doppelt und dreifach machen. Kein Entwickler kan sich das auf Dauer leisten.

Die AMD API soll sehr nahe an denen der Konsolen sein, sonst hätte AMD den Schritt doch gar nicht gewagt. Oder glaubst, die wissen nicht, dass sie Anfang 2014 vielleicht nen PC Marktanteil von 10% (GCN bei Spielern) haben? Somit sollte die Umsetzung eines Spiels, das sowieso schon auf Konsolen erschienen ist nicht so aufwendig sein, wie das z.B. bei ner Nvidia-Eigenen Low Level API sein würde. Aber genaueres wird die Zeit zeigen.

Naja, bei dem potentiellen Aufwand wäre das überhaupt nicht viel!

30% von 10 FPS = + 3 Frames (=13 Frames)
30% von 20 FPS = + 6 Frames (=26 Frames)
30% von 30 FPS = + 9 Frames (=39 Frames)
30% von 40 FPS = +12 Frames (=52 Frames)
30% von 50 FPS = +15 Frames (65 Frames)
30% von 60 FPS = +18 Frames (78 Frames)

--> Die Werte dürften dazu noch stark von der Auflösung und verwendeter Engine abhängen. Ich glaube nicht, dass 4k UHD-Spiele so extrem zulegen werden.

Also ich weiß ja nicht, ob sich das lohnt. Wenn man nicht unbedingt auf harte Benchmark-Ergebnisse wert legt, ist das nicht gerade attraktiv für die Entwicklerstudios. Letztendlich ist es eh nur AMD-relevant, da es höchstwahrscheinlich erst einmal die eigenen Karten bevorzugt (low-level =hardwarenahe).

Ich wiederhol's gern nochmal, das ist ungefähr der Unterschied einer GTX770 und einer 780. Weißt du was die beiden für nen preislichen Unterschied haben? Aber auch hier wissen wir natürlich nicht, ob es tatsächlich so viel ist oder sogar (zwar eher unwahrscheinlich) mehr.
 
Zuletzt bearbeitet:
Ich wiederhol's gern nochmal, das ist ungefähr der Unterschied einer GTX770 und einer 780. Weißt du was die beiden für nen preislichen Unterschied haben? Aber auch hier wissen wir natürlich nicht, ob es tatsächlich so viel ist oder sogar (zwar eher unwahrscheinlich) mehr.

Ich hatte Benchmarks gesehen das 30% (im Durchschnitt) der Unterschied zwischen der GTX680 und der Titan sei....
Hat jemand akt. Benchmarks in "normaler" Auflösung (also nicht 1280*1024 :schief: ) und ggf. akt. Treibern?
Ich fang auch mal an zu suchen...

Auf der Schnelle :
Benchmarks: Battlefield 3 - Die GeForce GTX Titan 6 GB im Benchmarktest: Schnell, leise, teuer
Nvidia Geforce GTX Titan im Test bei GameStar.de
Geforce GTX 770 im Test: Kleiner Titan oder GTX 680 Ultra? - Geforce GTX 770 im Test: Spiele-Benchmarks in 1080p und 4K, Overclocking
===> 20% - 40% in BF3 :ugly:
 
Zuletzt bearbeitet:
Würd mich jucken wie smooth die API dann läuft.
Man entsinne sich nur an 3DFXs eigenes Glide. Dagegen war DX eine Ruckel Zumutung trotz stabilen fps wie das heutige mikroruckeln. Es ist nur nicht jedem aufgefallen.

Naja, Ruckeln war weniger das Problem als vielmehr der gravierende Unterschied in der Bildqualität und Kantenglättung. Das war so extrem, dass man es mit bloßem Auge sehen konnte.

Ruckler und Lags wie wir es heute kennen, gab es nicht unbedingt weniger. Wenn man ausreichend bestückte Hardware hatte, fiel das garnicht auf. Manche Games wie Unreal konnte man sogar mit Software-Renderer spielen. Natürlich war das nicht vergleichbar, aber es ging! So einen Vorsprung wird sich Mantle niemals erarbeiten können.


Zudem die ganzen Effekte, die unter Glide damals weit aus besser liefen und besser aussahen. Z.B, der Rauch unter dx bei NFS3 war ja wirklich eine Katastrophe "G"
Hofen wir das beste. Wenn es wie mit Glide wird, kommt ein Crossfire Gespann in meinen Rechenknecht.

Ich bin mir hierüber noch nicht sicher. Die ganzen Effekte wurden alle hart von den Entwicklern erarbeitet. Heutige Titel sind von der grafischen Qualität einfach viel zu hoch. Ein paar weitere Effekte fallen da nicht mehr auf!

Bei Spielen wie Crysis oder Battlefield hat man schon relativ gute Grafik. Da kann man nicht mehr viel verbessern. Einzig in Phsyik (z.B. zerstörbare Umgebung), KI der Gegner und Einheiten sowie komplexer Lichtberechnung können noch Fortschritte erzielt werden.

Bei Physik wird AMD nicht punkten, denn sie besitzen noch nicht einmal eine Physikengine wie PhysX. AMD hat bisher immer fremde Technologien wie HAVOK lizentsiert. Bei der neuen Ruby-Demo war es soweit ich weiß von der Cryenginge benutzt.


Die Annahme ist schlichtweg falsch, nur die Engine Entwicklungszeit erhöt sich, bzw. eigentlich erhöht sich lediglich die Entwicklungszeit vom 3D Renderer. Ob verdoppeln oder verdreifachen weiss ich nicht, den Meisten Spielentwicklern ist das aber egal, die benutzen eh vorgefertigte Engines (UE4, cry Engine 3, Frostbite 3).

Dein "nur" kostet aber mindestens 50% der gesamten Entwicklungszeit. Solange man nicht wie Activision in Call of Duty zwei Studios abwechselnd dasselbe Spiel entwickeln lässt, so dass es jedes Jahr erneut erscheinen kann, verlängert sich definitiv die Entwicklungszeit.

Mit vorgefertigten Engines erreicht man nicht das Maximum einer Low-Level-API. Ich bezweifle stark, dass es so einfach ist!


Zu Zeiten von GLIDE gab es noch deutlich mehr Grafickchiphersteller als heute, Heute gibt es noch 3 Nennenswerte im Spielebereich.

Intel ist noch nicht nennenswert, aber bald. Die Zeiten von Glide waren eine Pionierzeit. Als der Umschwung auf richtige 3D-Grafikkarten kam, ist 3dfx daran zugrunde gegangn wie viele andere Hersteller auch. Auch wenn ich ein großer Fan und bewunderer dieser tollen Grafikschmiede bin, hatte ich damals das Gefühl nach der Voodoo 2 kam nichts mehr vernünftiges nach.

Jede neue Karte hatte irgendwelche Nachteile und das Fehlen von T&L hat letztendlich den Untergang von 3dfx bekundet. Das und eine Menge Managementfehler.


Die AMD API soll sehr nahe an denen der Konsolen sein, sonst hätte AMD den Schritt doch gar nicht gewagt. Oder glaubst, die wissen nicht, dass sie Anfang 2014 vielleicht nen PC Marktanteil von 10% (GCN bei Spielern) haben? Somit sollte die Umsetzung eines Spiels, das sowieso schon auf Konsolen erschienen ist nicht so aufwendig sein, wie das z.B. bei ner Nvidia-Eigenen Low Level API sein würde. Aber genaueres wird die Zeit zeigen.

Du verkennst die Lage von AMD vielleicht ein wenig. Ihnen blieb nur die Flucht nach vorne. Bei den CPUs hat sie Intel vor Ewigkeiten bereits meilenweit abgehängt. Einzig die Grafiksparte hält das Unternehmen noch irgendwie über Wasser. Also musste AMD handeln. Die Konsolendeals kamen nur zufällig. Das kann sich in ein paar Jahren theoretisch wieder ändern.

Vergleiche doch nur einmal die Qualität zwischen PC und Konsolenversion in Battlefield. Sobald du die Versionen nebeneinander hältst, trifft dich der Schlag. Das ist so übel, man bekommt fast schon zustände.

Der Vorteil von Mantle als Low-Level-API ist einzig die Verringerung von Overhead. Das heißt weniger Verwaltungsaufwand, den andere APIs wie DX und OpenGL haben. In der Theorie kann der Entwickler auch neue Effekte für die Grafikkarte programmieren. Die sind dann aber nur für AMD-Karten ab einem gewissen Stand.
--> Bei gleichem Aufwand könnte man auch für die anderen Schnittstellen entwickeln. Vor allem bei Crossplattformtiteln wäre das vorteilhaft. OpenGL wäre dafür ein Kandidat! Mantle muss sich in dieser Hinsicht erst noch beweisen.


Ich wiederhol's gern nochmal, das ist ungefähr der Unterschied einer GTX770 und einer 780. Weißt du was die beiden für nen preislichen Unterschied haben? Aber auch hier wissen wir natürlich nicht, ob es tatsächlich so viel ist oder sogar (zwar eher unwahrscheinlich) mehr.

Im Prinzip ist der Unterschied nur marginal! Selbst mit einer GTX660+ kann man fast alles flüssig in Full-HD spielen. Der Unterschied kommt halt von den Bildverbesserungen. Sofern man nicht alles auf Max + SGSSAA + HBAO(+) + Downsampling spielt, braucht man keine Überkarte.

Auf der besagten Veranstaltung ging es um neue Bildschirmtechnik namens G-Sync von Nvidia, die quasi die 60Hz-FPS-Grenze abschafft. Demnach ist es unwichtig ob du 40, 60 oder 120 Frames hast. Als Techniker bin ich an solchen Verbesserungen mehr interessiert als einer zusätzlichen API.

Normalerweise schlägt eine Hardwarelösung immer die Softwarelösung. Beide Technologien lösen spezifische Probleme. Mantle ist gerade
erst in den Startlöchern und wird Gerüchten zufolge sogar verschoben. AMD muss hier erst liefern und noch dazu Details liefern. Bisher diskutieren wir nur aufgrund den Versprechungen von AMD und Dice.

Viele Entwickler sind skeptisch und wollen eigentlich keine neue API haben. Die jetzige Situation ist kompliziert genug für sie!
 
Naja, Ruckeln war weniger das Problem als vielmehr der gravierende Unterschied in der Bildqualität und Kantenglättung. Das war so extrem, dass man es mit bloßem Auge sehen konnte.

Ruckler und Lags wie wir es heute kennen, gab es nicht unbedingt weniger. Wenn man ausreichend bestückte Hardware hatte, fiel das garnicht auf. Manche Games wie Unreal konnte man sogar mit Software-Renderer spielen. Natürlich war das nicht vergleichbar, aber es ging! So einen Vorsprung wird sich Mantle niemals erarbeiten können.

Ja die Kantenglättung war definitiv nicht zu übersehen, sowie "wie gerendert" wurde. Da sagten einige, daß das Bild von 3DFX einfach stimmiger wirkt und irgendwie 3D auch nach 3D aussieht, was bei nvidia dann einfach steril ausah. Und mir ist dann irgenwann aufgefallen, daß die 2TI einfach ihre 25Hz abrattert und anschliessend Pause macht, während die Voodoo 3 viel homogener lief.... Ergo voll die zacken und manchen fallen heute die Mirkoruckler nicht mal auf.

Ich bin mir hierüber noch nicht sicher. Die ganzen Effekte wurden alle hart von den Entwicklern erarbeitet. Heutige Titel sind von der grafischen Qualität einfach viel zu hoch. Ein paar weitere Effekte fallen da nicht mehr auf!

Ja das war auch Anno 2k und schon da wollte 3DFX mit Motion Blus kommen, was wir jetzt nicht gerade allzu lange haben und es so manch einer ja doch nicht mag.

Intel ist noch nicht nennenswert, aber bald. Die Zeiten von Glide waren eine Pionierzeit. Als der Umschwung auf richtige 3D-Grafikkarten kam, ist 3dfx daran zugrunde gegangn wie viele andere Hersteller auch. Auch wenn ich ein großer Fan und bewunderer dieser tollen Grafikschmiede bin, hatte ich damals das Gefühl nach der Voodoo 2 kam nichts mehr vernünftiges nach.

Jede neue Karte hatte irgendwelche Nachteile und das Fehlen von T&L hat letztendlich den Untergang von 3dfx bekundet. Das und eine Menge Managementfehler..

Wenn Intel und AMD schlau währen, würden se die brach liegende iGPU Leistung quasi wie PhysX Spielereien für irgendwelche Programme auf dem Desktop nutzen. Für 2D Darstellung braucht man wohl kaum die ganzen shader und hat ordentlich GPU Power zur Verfügung. Spätere iGPUs werden so oder so mehr leisten.

3DFX scheiterte an den zu billigen Verkaufpreisen und T&L war nur nvidia Marketing, was erst may be 2 Jahre später zum Einsatz kam... Bis dahin hätte 3DFX T&L in eine mögliche Voodoo 6 implementieren können....
Die hätten auch in Mainstream einsteigen können. Also Media/Aldi PCs mit Voodoo Karten. Gab es mal sowas? Hab nichts gesehen.
Dann noch Patzer mit der Voodoo 5 6000 und andauernde gerichtliche Auseinandersetzungen mit nvidia....
Ja da lief einiges schief... Leider... Haben einen sehr guten Job gemacht...
R.I.P. 3DFX....
 
Dein "nur" kostet aber mindestens 50% der gesamten Entwicklungszeit. Solange man nicht wie Activision in Call of Duty zwei Studios abwechselnd dasselbe Spiel entwickeln lässt, so dass es jedes Jahr erneut erscheinen kann, verlängert sich definitiv die Entwicklungszeit.

Mit vorgefertigten Engines erreicht man nicht das Maximum einer Low-Level-API. Ich bezweifle stark, dass es so einfach ist!
50% der Entwicklungszeit? Ich sehe das du keine Ahnung von Modernen AAA Titeln und deren Mache hast. Die Meiste Entwicklungszeit geht drauf für Animationen/Motion Capturing und die Spielwelt, die Engine ist meist kein so grosser Budgetposten wie diese beiden Genanten dinge. Ich halte 10 Milionen für den reinen Grafikrenderer der Frostbite Engine für zu hoch angesetzt, sollte mich jemand korrigieren können: gerne:)

Zu bezweifelst....
Auch mit einer Vorgefertigten Engine kann man nahezu das Maximum raus holen, auch bei einer Low Level API.
Der sinn einer Vorgefertigten Engine ist es den Entwicklern eine möglichst einfache und schnelle Art zu geben Ihre vision umzusetzen.

Die Frostbite Engine zb. kommt für viele verschiedene Genres zum Einsatz, das ist der relativ egal. Was zählt ist das sie die Grafik und die KI/Physik schnell und Mehrkernoptimiert umsetzten kann. die BF4 Beta war nicht nur eine BF Beta, sondern auch der erste Grosse Test der neuen Frostbite Engine.

Intel ist noch nicht nennenswert, aber bald. Die Zeiten von Glide waren eine Pionierzeit. Als der Umschwung auf richtige 3D-Grafikkarten kam, ist 3dfx daran zugrunde gegangn wie viele andere Hersteller auch. Auch wenn ich ein großer Fan und bewunderer dieser tollen Grafikschmiede bin, hatte ich damals das Gefühl nach der Voodoo 2 kam nichts mehr vernünftiges nach.
Laut Steam Hardware Umfrage spielt jeder 7te mit einer Intel GPU, das ist in meinen Augen durchaus schon nennenswert.
 
50% der Entwicklungszeit? Ich sehe das du keine Ahnung von Modernen AAA Titeln und deren Mache hast. Die Meiste Entwicklungszeit geht drauf für Animationen/Motion Capturing und die Spielwelt, die Engine ist meist kein so grosser Budgetposten wie diese beiden Genanten dinge.

Wie kommst du von Entwicklungszeit auf Budget?
-Mein Argument war, dass man für eine neue Engine mindestens 1-2 Jahre braucht (AAA-Titel) bevor man mit dem eigentlich Spiel in der Tiefe beginnen kann. Wird sie dagegen komplett selbst entwickelt kann es auch wesentlich länger dauern.

Wenn bereits eine vollständige Engine vorhanden ist, spart man sich viel Zeit und Budget. Teuer sind vorallem die Personal- und Hardware-Kosten.


Ich halte 10 Milionen für den reinen Grafikrenderer der Frostbite Engine für zu hoch angesetzt, sollte mich jemand korrigieren können: gerne:)

Die Frostbite-Engine halte ich ein wenig für überbewertet. Die Cryengine 3+ oder die Unreal Engeine 4+ sind aktuell die Speerspitze der Technik. Auch wenn Frostbite nicht weit dahinter ist, klafft da doch eine Lücke.

Dazu will EA die Engine nur für eigene Titel benutzen:
http://www.gamestar.de/news/vermischtes/3024943/frostbite_3.html


Auch mit einer Vorgefertigten Engine kann man nahezu das Maximum raus holen, auch bei einer Low Level API.
Der sinn einer Vorgefertigten Engine ist es den Entwicklern eine möglichst einfache und schnelle Art zu geben Ihre vision umzusetzen.

Nein, du kannst nur herausholen wofür die Engine bereits bedacht wurde. Falls du anfängst dazwischen noch in der Schnittstelle herum zu doktorn, kann das auch negative Auswirkungen haben.

Eine Engine ist ein Grundgerüst - genau wie eine API eine Schnittstelle ist. Eigentlich arbeitet eine Engine innerhalb ihrer Parameter außer du erweiterst sie sehr stark mit Eigencode. Das ist aber sehr aufwändig und zeitintensiv. Selektive Verbesserungen an Mantle in Form bestimmter Module oder Tricks werden sich erst im Laufe der Zeit entwickeln. Entwickler müssen sich in ein solches Thema erst einarbeiten. Oder warum denkst du brauchen die Konsolen-Entwickler so lange bis sie die Grafik in den Griff bekommen?

--> Mantle wird bei Marktstart noch fast nackt sein! Außer ein paar Studios wie DICE hat noch kaum jemand den Code oder die Implementierung gesehen.


Die Frostbite Engine zb. kommt für viele verschiedene Genres zum Einsatz, das ist der relativ egal. Was zählt ist das sie die Grafik und die KI/Physik schnell und Mehrkernoptimiert umsetzten kann. die BF4 Beta war nicht nur eine BF Beta, sondern auch der erste Grosse Test der neuen Frostbite Engine.

Du erzählst nichts neues, aber dennoch macht es keinen Sinn! So groß ist der Unterschied zwischen den Version nicht. Die Änderungen zu Version 3 halten sich in Grenzen. Bis EA nicht die Hosen herunter lässt und Fakten sprechen lässt, wird das auch so bleiben!


Laut Steam Hardware Umfrage spielt jeder 7te mit einer Intel GPU, das ist in meinen Augen durchaus schon nennenswert.

Naja, ich nehme intel iGPU und Gaming nicht in denselben Mund! Sobald die Games auf 4k-Auflösung gehen, wird man die Intel nicht mal mehr sehen. Dafür sind sie einfach unterdimensioniert. Mir wäre sogar lieber wenn es mehr CPUs ohne iGPU geben würde. Außer in HTPCs, Mini-PCs mit ITX oder halt Mobilgeräten wie Notebooks, Netbooks und Tablets macht eine iGPU in meinen Augen keinen Sinn.
 
Naja, ich nehme intel iGPU und Gaming nicht in denselben Mund! Sobald die Games auf 4k-Auflösung gehen, wird man die Intel nicht mal mehr sehen. Dafür sind sie einfach unterdimensioniert. Mir wäre sogar lieber wenn es mehr CPUs ohne iGPU geben würde. Außer in HTPCs, Mini-PCs mit ITX oder halt Mobilgeräten wie Notebooks, Netbooks und Tablets macht eine iGPU in meinen Augen keinen Sinn.

Warum?
Wieviel "Gamer" haben heute und ggf. in einem Jahr überhaupt ein 4K TFT?
Was glaubst Du wieviel "Gamer" noch nicht mal bei 1680*1050 angelangt sind.
Was ist übrigens ein "Gamer"? Jemand der nur BF3 & Metro zockt? oder generell alles auf HQ / Ultra?

Ich kenne viele die Spielen gerne nur mal zwischendurch oder weiterhin ihre alten Spiele.
Auch sehr oft höre ich das der Einbau zu schwierig ist oder ne neue Grafikkarte zu teuer.
 
Warum?
Wieviel "Gamer" haben heute und ggf. in einem Jahr überhaupt ein 4K TFT?

Wahrscheinlich nur ein geringer Bruchteil. Jede Person, die potential jedoch auf 4K umsteigen will, wird das so bald wie möglich tun. Spätestens Mitte 2014 mit den neuen 20nm-Karten werden viele zumindest Downsampling mit Bildverbesserungen als Übergangslösung versuchen. Ich schätze die nächste Aufrüstwelle kommt dann irgendwann 2015. Dann gibt es irgenewann DDR4 und SATA-Express usw... zusätzlich zur übernächsten Grafikgeneration(!).

Der Übergang auf 4k-TFTs ist nur noch eine Frage der Zeit!


Was glaubst Du wieviel "Gamer" noch nicht mal bei 1680*1050 angelangt sind.

Da steckt viel Unwissen dahinter! Ich erschrecke jedesmal, sobald ich die Einstellungen mancher Leute auf einer LAN oder bei Freunden zu Hause sehe. Bei Spielen ohne automatischen Grafik-Einstellungen zocken die auf Minimalauflösung trotz halbwegs aktueller Hardware.


Was ist übrigens ein "Gamer"? Jemand der nur BF3 & Metro zockt? oder generell alles auf HQ / Ultra?

Unter Gamer fasse ich alle Gruppen zusammen, die sich speziell für Videospiele interessieren. Unterscheiden sollte man hier aber deren benötigten Zeitbedarf und die Qualitätsanforderungen.

--> Jemand mit nur einer Stunde Spielzeit pro Woche wird normalerweise weniger Budget für sein Hobby ausgeben als ein Zocker mit 3-8 Stunden täglich. Entsprechend dem Nutzungsverhalten wird mehr oder weniger für bestimmte Features investiert.


Ich kenne viele die Spielen gerne nur mal zwischendurch oder weiterhin ihre alten Spiele.
Auch sehr oft höre ich das der Einbau zu schwierig ist oder ne neue Grafikkarte zu teuer.

Dagegen spricht ja auch nichts!
Meistens haben die Leute aber so viel Ehrfurcht vor der Sache, dass es sie bereits lähmt. Da ist die Angst vor der Materie einfach eine zu große Hürde. Zeigst du diesen Angsthasen dann wie es geht und lässt es sie vielleicht auch das eine oder andere Mal selbst machen, sinken die Barrieren. Sie fangen dann plötzlich an sich dafür zu interessieren.

Grafikkarten sind aktuell nur in der neuesten Generation zu teuer. Man bekommt gute alte Karten wie eine HD5870 oder GTX570 für deutlich unter 80€ auf Gebrauchtmärkten wie Ebay. Damit kann man so gut wie alles spielen, solange man es bei den Qualitätseinstellungen nicht übertreibt.

--> Ich habe sogar eine GTS 450 im Zweitrechner und war überrascht, was selbst darauf noch alles läuft. Je nach Spiel sogar Full-HD mit hohen Details! Das hat mich echt überrascht!

Bei den neueste Blockbustern wird das zwar nicht funktioneren, aber hey: Man kann immer noch in den Qualitätseinstellungen herunter gehen.
 
Zurück