GPU-Roadmap: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

In Mordor, AC:U und FarCry 4 ist das VRAM schon am Ende (bei WQHD, 1440p). Und das sind erst die ersten anspruchsvollen NextGen Spiele, die für den PC erhältlich sind.

Aber vor allem natürlich Skyrim. Für dieses Spiel kann man einfach gar nicht ausreichend VRAM haben :)

Zwei Titan II wär natürlich der Traum, aber soooo locker sitzt das Geld bei mir dann wohl doch nicht... Hoffe ich :P



Na ja, Maxwell scheint ja ganz gut mit überlaufendem VRAM klar zu kommen. Vermutlich wegen der neuartigen Komprimierung die für weniger Bandbreitenbedarf sorgt.

Bei Mordors schatten kann ich z.B. locker die 6 GB Ultra texturen fahren und das Game läuft mit 70-90 FPS in 2560x1080. Bei meiner alten HD7950 war das undenkbar. Selbst die Hohen Texturen, die nur 3 GB in 1920x1080 brauchen sorgten schon für minimales Microruckeln, da ich mit der höheren Auflösung und dem größeren Sichtfeld vermutlich schon den VRAM gesprengt habe....

Deswegen bin ich gespannt, ob sich Maxwell in anderen Games genauso verhält, wenn der VRAM voll ist. Wär natürlich eine klasse sache. Testen konnte ich das ganze leider noch nicht. Für Skyrim das aktuell Vanilla auf der Platte liegt hatte ich noch keine zeit und ansonsten besitze ich kein Spiel, bei dem die 4 GB voll laufen, ohne dass nicht vorher die GPU limitiert....


Und der Sprung der Konsolen ist doch im PC Markt schon längst kompensiert. 4GB sind vermutlich schon weit über dem, was eine Konsole rein als Grafikspeicher nutzen kann (OS + Spieldaten müssen ja von den 8 GB abgezogen werden).
Mordors Schatten und AC Unity nutzen auf den neuen Konsolen z.B. niedriger Aufgelöste Texturen als die PC Version....


Also erstmal abwarten. Ich denke, dass der VRAM bedarf erst 2016 wieder etwas ansteigt, wo dann 6 GB erstmals sinnvoll werden für maximale Details.


Aber abgesehen davon. Gabs denn schon ein echtes Next gen Spiel? Das meiste waren doch nur Titel mit alter Engine bis zum geht nicht mehr aufgeborht und titel wie AC Unity waren Technisch einfach nur miserabel. Ich denke da an Zukünftige Titel mit Unreal Engine 4, Frostbite und Cry Engine usw.
Und wenn ich mir ansehe, wie die UE4 eine Fantastische Grafik auf den Monitor zaubert und dabei selbst mit GTX 670 und co über 60 FPS schafft, dann wäre ich vorsichtig, anhand der hochgezüchteten Last-gen Titel die next-gen Titel zu beurteilen, die unsere Hardware vermutlich sehr viel effizienter ausnutzen.

Aktuell taugen für mich nur Ryse und Dragone Age Inquisition als erste Anhaltspunkte. Ersteres hat gemessen an der Grafik enorm geringe Anforderungen und Inquisition ist jetzt auch nicht der Hardwarekiller, wenn man auf mittlerweile höchst ineffizientes MSAA verzichtet. Deswegen denke ich, dass die Anforderungen zukünftiger Titel bei deutlich besserer Grafik eher sinken anstatt steigen. Klar für maximale Details wird immer HighEnd Hardware nötig sein. Aber das was heute z.B. ein FarCry 4 bietet wird mit einer gescheiten next-gen engine vermutlich deutlich besser aussehen und das bei niedrigeren Anforderungen.
Man darf nicht vergessen, dass vieles noch für Xbox360 und PS3 optimiert wurde.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Mal gucken wie die Anforderungen demnächst so werden bezüglich von VRam. Eine GTX 980Ti wäre schon nice bei entsprechender Performance und Preis. :D
Die 970 ist zwar spitze aber man kann nie genug haben.
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

gibt ja weiterhin noch kein einziges spiel das mehr als 2 GB VRAM nutzt und das auch dementsprechend nach was aussieht.

die ultra texturen in mordors schatten sind pc exklusiv. auf der x1/ps4 entsprechen die bestenfalls medium oder high.
next-gen? fehlanzeige.

far cry 4 läuft in den standard-settings genauso wie far cry 3 relativ gut. ultra einstellungen sehen eigentlich überhaupt nicht besser aus.
next-gen? fehlanzeige.

unity läuft auf der ps4 weiterhin mit um die 20 fps. das spiel sieht ebenfalls in medium oder high fast genauso aus wie in ultra und läuft sogar auf einer 750 mit um die 40 fps in medium.
next-gen? fehlanzeige.

wann kommen diese next-gen spiele eigentlich von denen immer die rede ist?
ich sehe weit und breit kein einziges next-gen spiel.
bislang läuft noch ein jedes spiel auf low-end hardware relativ zufriedenstellend.

die lachnummer MGS V schafft sogar mein office rechner von 2012. liegt aber vermutlich an der gut optimierten FOX engine.

mit den grafikkarten warte ich bis star citizen - aktuell lohnt es sich für kein einziges spiel so wirklich.

4GB sind vermutlich schon weit über dem, was eine Konsole rein als Grafikspeicher nutzen kann

es sind ziemlich genau 2,5 GB - bei 3+ GB gäbe es nämlich auch auf der PS4/X1 ultra texturen in mordors schatten; dies nicht der fall ist.

Gabs denn schon ein echtes Next gen Spiel?

Planetside 2 von 2012.

open world mit bis zu 2000 spielern pro kontinent.
für die größe recht gute grafik.
stellt hohe anforderungen an CPU, GPU und auch an die HD (also eine SSD lohnt sich in dem spiel wirklich). jo und internet-bandbreite benötigt es auch. die verbindung zum server liegt so bei 300-400 kb/s. das ist nicht "wenig".

mein ping zum sony server liegt bei um die 30 ms. der netcode ist mittlerweile hervorragend und das spiel auch sehr gut optimiert seit anfang 2014.

kommt anfang 2015 übrigens auch für die PS4.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

gibt ja weiterhin noch kein einziges spiel das mehr als 2 GB VRAM nutzt und das auch dementsprechend nach was aussieht.

Wie soll denn Deiner Meinung nach ein Spiel aussehen, das mehr als 2GB nutzen darf?

Sorry, aber da spricht m.E. wieder mal wieder ausgesprochene Ahnungslosigkeit.
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Na, es macht halt schon einen Unterschied, ob man die 2 GB verbrauch von grund auf vorsieht und diese die minimalanforderung darstellen, oder ob man den VRAM nur mit extrem hochauflösenden Texturen auf biegen und brechen voll macht, ohne dass die Grafik insgesamt davon merklich profitiert.

Ultra Details gerade in Spielen wie Far Cry 4 sind ja wirklich nichts anderes, als ein fast schon verzweifelter Versuch, aktuelle Hardware auszulasten.

Ich denke darauf wollte er hinaus.
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Zuzugeben von AMD, dass dieses Jahr wohl keine neuen Grafikkarten mehr veröffentlicht werden, bzw. darüber am 30.12. darüber zu berichten, klingt für mich wie blanker Hohn...

Das ist nur zu toppen, durch EAs Eingeständnis letztes Jahr um die gleiche Zeit, dass der ersehnte Patch wohl 2013 nicht mehr erscheinen würde.
Meine Fresse wie auch, wenn alle Angestellten zuhause hocken und Urlaub haben!?! Unglaublich.

Hört mal endlich auf solchen Bullshit zu schreiben und werdet wieder seriös.
Das ist doch hier nicht die Bild. (Und nein die Bild ist keine Zeitung, sie ist ein tägl. erscheinendes Boulevardmagazin!)
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Wie soll denn Deiner Meinung nach ein Spiel aussehen, das mehr als 2GB nutzen darf?

keineswegs so last-gen wie mordors schatten.
sogar die texturen in batman origins sind besser und das spiel liegt weit unterhalb von 2GB.
unity? lol - das drecksgame läuft mit um die 20 fps auf der PS4. jegliche diskussion erübrigt sich da. die engine ist nun mal mies.
ausserdem sieht unity in medium fast genauso aus wie in ultra nur mit dem unterschied das man die FPS mehr als nur verdoppelt.

Ultra Details gerade in Spielen wie Far Cry 4 sind ja wirklich nichts anderes, als ein fast schon verzweifelter Versuch, aktuelle Hardware auszulasten.

jep - far cry 4 sieht auch nicht wirklich toll aus. schau dir mal die ultra texturen in crysis 2 an. da wird vermutlich noch nicht mal far cry 5 rankommen.

ich warte mal schön auf star citizen mit dem GPU kauf, wie schon erwähnt lohnt es sich für aktuelle last-gen spiele nicht.

Wie soll denn Deiner Meinung nach ein Spiel aussehen, das mehr als 2GB nutzen darf?

mindestens so gut wie batman origins in 4K.
schmucke spiele - also gut designte spiele benötigen eigentlich gar nicht so viel hardwareleistung.
man kann auch mit wenig sehr viel erreichen.
das level design in far cry 4 ist recht öde. wenig abwechslung.

da gefällt mir ein dragon age inquisition oder crysis 2 in punkto grafik 1000 mal besser.
batman ist auch immer gut. verschiedene total unterschiedliche schauplätze... ziemlich gut gemacht.
dirt 2 war auch super. unterschiedlichste racing-tracks. schmucke grafik bei relativ geringem hardwareanspruch.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Meiner Meinung nach spricht schadeschade hier was wirklich geistreiches aus. Die Spiele sehen bis heute immer noch nicht um Welten besser aus als das alte Crysis 1 aus dem Jahre 2007 und das obwohl die Hardware deutlich leistungsfähiger geworden ist. Crysis 1 kann ich auch mit meiner GTX 260 spielen welche immer noch meinen Rechner für Spiele bewohnt.

Viele Nutzer des Forums sehe ich immer was von "wir müssen aufrüsten" schreiben, damit die Spiele in 4K auf Ultra mit absurdem AA und am besten noch DS laufen. Der Witz an der Sache ist, dass man, mit genügend solcher zusätzlichen Einstellungen, immer aufrüsten kann weil nie genug Leistung vorhanden ist.

Betrachtet man dann die Unterschiede welche diese absurden "Bonbons" mit sich bringen, sind viele davon nur in Screenshots oder nur marginal während des Spielens überhaupt wahrnehmbar.

Die einfachere Lösung ist einfach von Ultra mal abzusehen und mal den realistischen Test zu machen, ob es sich überhaupt lohnt auf den höchsten Einstellungen zu spielen. Mit kleinen Abstrichen kann man eben mit Mittelklasse PCs die um die 700 - 800 Euro kosten, alles aktuelle in 1080p wunderbar spielen.

Wenn man dann auch noch einen Schritt weiter geht und die eigentliche Qualität dieser Grafikmonster betrachtet, stellt man häufig fest, dass diese minderwertig ist. Ein gutes Beispiel ist hier Ryze mit seinen 5 Stunden Spielzeit und mein Gegenbeispiel ist The Binding of Isaac oder Risk of Rain welche ich jeweils schon 20 mal solange gespielt habe und viel mehr Spaß hatte als mit irgend einer Grafik Demo die dann auch noch Bugs hat ohne Ende und sehr schlecht für den PC optimiert ist siehe Unity.

Aber wahrscheinlich ist das zu viel selbst denken und agieren und zu wenig einfaches Konsumieren für das Forum hier.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Meiner Meinung nach spricht schadeschade hier was wirklich geistreiches aus. Die Spiele sehen bis heute immer noch nicht um Welten besser aus als das alte Crysis 1 aus dem Jahre 2007 und das obwohl die Hardware deutlich leistungsfähiger geworden ist. Crysis 1 kann ich auch mit meiner GTX 260 spielen welche immer noch meinen Rechner für Spiele bewohnt.

Viele Nutzer des Forums sehe ich immer was von "wir müssen aufrüsten" schreiben, damit die Spiele in 4K auf Ultra mit absurdem AA und am besten noch DS laufen. Der Witz an der Sache ist, dass man, mit genügend solcher zusätzlichen Einstellungen, immer aufrüsten kann weil nie genug Leistung vorhanden ist.

Betrachtet man dann die Unterschiede welche diese absurden "Bonbons" mit sich bringen, sind viele davon nur in Screenshots oder nur marginal während des Spielens überhaupt wahrnehmbar.

Die einfachere Lösung ist einfach von Ultra mal abzusehen und mal den realistischen Test zu machen, ob es sich überhaupt lohnt auf den höchsten Einstellungen zu spielen. Mit kleinen Abstrichen kann man eben mit Mittelklasse PCs die um die 700 - 800 Euro kosten, alles aktuelle in 1080p wunderbar spielen.

Wenn man dann auch noch einen Schritt weiter geht und die eigentliche Qualität dieser Grafikmonster betrachtet, stellt man häufig fest, dass diese minderwertig ist. Ein gutes Beispiel ist hier Ryze mit seinen 5 Stunden Spielzeit und mein Gegenbeispiel ist The Binding of Isaac oder Risk of Rain welche ich jeweils schon 20 mal solange gespielt habe und viel mehr Spaß hatte als mit irgend einer Grafik Demo die dann auch noch Bugs hat ohne Ende und sehr schlecht für den PC optimiert ist siehe Unity.

Aber wahrscheinlich ist das zu viel selbst denken und agieren und zu wenig einfaches Konsumieren für das Forum hier.


Minderwertig?? Spiele mal Crysis 3 mit maximalen Details auf den PC. Oder auch ein Metro Last Light mit Supersampling (maxed out) Oder auch ein Ryse in maximalen Details. Ich weiß nicht , worüber du dich so ärgerst. Technische Mängel gibt es nicht nur auf den PC. Unity lief , soweit wie ich weiß auch nur in mittleren Details in 30fps auf den neuen Konsolen und dass auch nicht mal flüssig. Also höre auf den Leuten vorzuwerfen , es würde sich nicht lohnen , sich neue Hardware zu kaufen. Wenn du der Meinung bist , dann bist du hier im falschen Forum. Grafik ist nicht alles aber ohne Grafik ist auch alles nichts.
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

ob es sich überhaupt lohnt auf den höchsten Einstellungen zu spielen.

tut es definitiv nicht.
es gibt schlichtweg kein einziges spiel das in ultra richtig fett im gegensatz zur medium oder high einstellung aussieht.

in unity verdreifachen sich die minimum FPS und verdoppeln sich die max FPS übrigens wenn man von ultra auf high stellt.
deswegen läuft das spiel auch relativ zufriedenstellend auf meinem notebook mit AVG 40 FPS dies gerade mal die leistung einer 750 in etwa hat.

das ist mal eben schlapp die doppelte leistung (FPS) als eine PS4 in unity ausspuckt.
eine ps4 hat nie und nimmer die "angebliche" leistung einer 7850. sogar the crew läuft mit nur 30 fps auf der konsole und das spiel frisst mein betagtes notebook i3/~750 zum frühstück mit konstanten 60 fps.

wer probleme hat aktuelle spiele auf halbwegs aktueller hardware zu spielen hat schlichtweg wenig bis kaum ahnung von der materie.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Carsten Spille: Problem des abnehmenden Grenzertrags:

"Der fehlende Schliff

Spielegrafik im Wandel: Die Shader-Revolution mit High Dynamic Rendering, Ambient Occlousion und Global Illumination (Teil 2)Viele Leserkommentare zu unseren Screenshotvergleichen und generell zum Verhältnis von Optik und Performance bei manchen Spielen gehen in die Richtung, dass die neuen, aber Rechenzeit verschlingenden Methoden nur noch mit Mühe wahrgenommen werden. Das Problem ist wissenschaftlich unter dem Begriff des abnehmenden Grenz*ertrags bekannt: Je näher man sich der Perfektion (bei Spielegrafik zum Beispiel der Kinoqualität oder dem Fotorealismus) annähert, desto aufwendiger werden weitere Verbesserungen. Darum sind auch die heute um ein Vielfaches leistungsfähigeren GPUs kaum in der Lage, ein um denselben Faktor "hübscheres" Bild in Spielen zu berechnen. Ein Beispiel ist Ambient Occlusion (siehe oben) - dieses aufwendige Verfahren kostet oft ein Viertel der Framerate oder mehr, wird von vielen Spielern aber kaum bemerkt und das aus einem ganz banalen Grund: Es ist realistisch. In einem wirklichkeitsgetreuen Bild fallen stimmige, "richtig" anmutende Elemente nämlich weniger auf als solche, die ebendiese Illusion sprengen. Je realistischer die Grundanmutung eines Bildes, desto eher nehmen wir es als real hin und in diesem Zusammenhang fallen uns dann auch geringe Unkorrektheiten als falsch, ja störend auf, die wir in einer klar als Computergrafik erkennbaren Darstellung akzeptieren würden - das "Uncanny Valley" lässt grüßen."

Spielegrafik im Wandel: Die Shader-Revolution mit High Dynamic Rendering, Ambient Occlusion und Global Illumination (Teil 2) - Spielegrafik im Wandel - Teil 2.2: Beleuchtung und Realismus

Schade, dass das viele noch immer nicht verinnerlicht haben...
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Im grunde ist das Thema doch ganz simpel. Bis vor einem Jahr wurden alle Spiele für Xbox 360 und Ps3 entwickelt. Diese Konsolen sind 8 Jahre alt, und an diesem Technischen Niveau hat sich bis vor einem Jahr nichts geändert. Also wie soll da die Grafik schon großartig besser werden?

Viele vergessen, dass die meisten Games nur Konsolenports sind. Für den PC wird da nicht wirklich viel verändert. Ein paar config einträge, die die Weitsicht und die Schattenauflösung oder Vegetationsdichte beeinflussen werden hochgesetzt und grundsätzlich profitiert man von deutlich höheren Auflösungen und Kantenglättung. Mit glück gibts noch ein paar gesponsorte Effekte von nVidia und das wars. Im großen und ganzen Spielen wir am PC aber mit einer ähnlichen Grafik wie auf Konsolen. Einzig die Bildqualität ist um Welten besser, das bringt uns aber auch nicht großartig weiter.

Die großen Grafiksprünge kommen immer erst mit einer neuen Konsolengeneration, weil dann nicht die Bildqualität verzweifelt gesteigert wird, bis man aktuelle Hardware ausgelastet bekommt, sondern es wird beim Grundsätzlichen Spieldesign erhöhter Aufwand betrieben. Es werden viel mehr Objekte in die Spielwelt eingefügt, die Areale sind größer, es gibt mehr NPCs,mehr Lichtquellen, mehr Partikeleffekte, Licht und Schatteneffekte werden dank der neuen Hardwarepower grundsätzlich ganz anders Designt usw.
Das alles sind dinge, die man bei einem PC Port einfach nicht machen kann, es sind dinge, die schon beim Entwicklungsprozess mit berücksichtigt werden müssen. Diese dinge sorgen für einen Grafiksprung und sind wie gesagt immer erst möglich, wenn neue Konsolen erscheinen. Ansonsten bleiben wir all die Jahre wieder auf dem selben Grafischen level. Das war von 2006 bis 2013 so und wird von 2013 bis vermutlich 2020 auch so weitergehen.
Die neuen Konsolen setzen die Messlate jetzt wieder ein gewaltiges Stück nach oben und das was wir in zukunft am PC an überschüssiger Leistung haben wird in bessere Bildqualität und ein paar Simplen ini tweaks seitens der Entwickler gesteckt. Realistischere Spielegrafik erhalten wir dadurch wie immer natürlich nicht. Es sind nunmal portierungen!


Was den Unterschied zwischen einer simplen Portierung mit aufgewerteter Bildqualität und einer an neue Hardware angepassten Version ausmacht sehen wir ja wunderbar bei der GTA Serie.

GTA IV wurde nur auf den PC portiert. Das Game sieht auf dem PC 1:1 aus wie die Konsolenversion. Einzig die Bildqualität und Weitsicht ist besser. Also nichts, was ein entwickler nicht in wenigen Stunden umsetzen könnte.
GTA 5 kommt nun auch für den PC, wurde aber dank der next-gen Konsolen im kompletten Gamedesign von vorne bis hinten aufgewertet. Nicht nur höhere Weitsicht und Bildqualität wird geliefert, sonder die Spielwelt ist nun voller neuer, sehr viel detaillierterer Objekte und Vegeation, die vorher einfach nicht da war.
So ein Aufwand würde für einen reinen PC Port niemals betrieben werden. Aber scheinbar bilden sich die meisten hier im Forum, wenn sie einen PC Port spielen ein, dass jeder Entwickler genau das macht, was Rockstar nun macht. Tatsache ist, dass soetwas die absolute ausnahme ist. An den Assets wird so gut wie nie was verändert.

So groß ist der Vorsprung des PCs also in der Praxis nicht. Wir bekommen, und ich wiederhole mich, in den meisten Fällen einen ineffizient aufgewerteten Konsolenport, aber keine Version, die dem entspricht, was der PC zu leisten vermag.
Soll heißen nur weil ein Mordors Schatten oder ein Far Cry 4 die 4 GB VRAM voll machen heißt das noch lange nicht, dass diese Games das darstellen, was man mit seiner Hardware grafisch erreichen kann.



Carsten Spille: Problem des abnehmenden Grenzertrags:

"Der fehlende Schliff

Spielegrafik im Wandel: Die Shader-Revolution mit High Dynamic Rendering, Ambient Occlousion und Global Illumination (Teil 2)Viele Leserkommentare zu unseren Screenshotvergleichen und generell zum Verhältnis von Optik und Performance bei manchen Spielen gehen in die Richtung, dass die neuen, aber Rechenzeit verschlingenden Methoden nur noch mit Mühe wahrgenommen werden. Das Problem ist wissenschaftlich unter dem Begriff des abnehmenden Grenz*ertrags bekannt: Je näher man sich der Perfektion (bei Spielegrafik zum Beispiel der Kinoqualität oder dem Fotorealismus) annähert, desto aufwendiger werden weitere Verbesserungen. Darum sind auch die heute um ein Vielfaches leistungsfähigeren GPUs kaum in der Lage, ein um denselben Faktor "hübscheres" Bild in Spielen zu berechnen. Ein Beispiel ist Ambient Occlusion (siehe oben) - dieses aufwendige Verfahren kostet oft ein Viertel der Framerate oder mehr, wird von vielen Spielern aber kaum bemerkt und das aus einem ganz banalen Grund: Es ist realistisch. In einem wirklichkeitsgetreuen Bild fallen stimmige, "richtig" anmutende Elemente nämlich weniger auf als solche, die ebendiese Illusion sprengen. Je realistischer die Grundanmutung eines Bildes, desto eher nehmen wir es als real hin und in diesem Zusammenhang fallen uns dann auch geringe Unkorrektheiten als falsch, ja störend auf, die wir in einer klar als Computergrafik erkennbaren Darstellung akzeptieren würden - das "Uncanny Valley" lässt grüßen."

Spielegrafik im Wandel: Die Shader-Revolution mit High Dynamic Rendering, Ambient Occlusion und Global Illumination (Teil 2) - Spielegrafik im Wandel - Teil 2.2: Beleuchtung und Realismus

Schade, dass das viele noch immer nicht verinnerlicht haben...


Das ganze trifft zu, wenn man sich nur die Last-gen Ports ansieht. Wenn man sich aber die next-gen Titel ansieht, die nächstes Jahr erscheinen oder einfach mal diverse UE4 Demos auf dem eigenen PC laufen lässt sieht man, dass diese Games und Demos weniger Leistung brauchen, als diverse aktuelle Spiele und trotzdem um Welten besser aussehen. Der Grafiksprung ist mit heutiger Hardware problemlos möglich. (Denn von einem Uncanny Valley sind wir sowieso noch lichtjahre entfernt) Das in deinem betrag erwähnte Problem des gesteigerten Aufwands bei niedrigerem Ertrag scheint es wohl doch nicht zu geben. Bzw. das Problem war bisher nur existent, weil sämtliche Engines für 8 Jahre alte Konsolen entwickelt wurden und aktuelle Hardware gar nicht richtig ausnutzen.

Ich bin mir sicher, die nächsten 1-2 Jahre werden wir von Grafikkrachern nur so überhäuft werden. Die Gaming Industrie wird Grafisch einen richtigen Sprung hinlegen. Das was wir die letzen 2-3 Jahre erlebt haben war nichts anderes als purer Stillstand.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Ich würde eher darauf tippen dass man noch versucht die Restbestände der 780/770 und ganz besonders der 760 los zu werden. Gerade von der letzten sollten ja noch reichlich auf Halde liegen, so preislich unattraktiv wie diese Zeit Ihres Releases war.... zuerst gabs noch die 670 welche einen Tick schneller und gleich teuer war, dann kam dazu dass die 7950/R9 280 nach dem ersten Preisrutsch mehr Leistung für dasselbe Geld bat und zum Ende kam die 770 ihr preislich sehr nah bis sie jetzt langsam EOL ging. In der Zeit zwischen dem EOL der GTX 670 und dem Preisfall der 770 konnten nur wirkliche Nvidia-Fans oder leute die zwingend SLI/PhysX/DS per Treiber ohne Probleme wollten sich für die 760 erwärmen. Sie war/ist kein schlechtes Produkt, nur ist sie von Anfang an preislich die wohl katastrophalst platzierte Grafikkarte der letzten Jahre. Sie hätte bei einer UVP von 200€ beginnen sollen und somit schnell in Richtung des Preises gehen sollen, wo sie jetzt ist (~175€). Dann hätte sie mehr Abnehmer gefunden.

Aus meiner Sicht versucht man so noch schnell durch das Weihnachtsgeschäft und die Pick Your Path Aktion die Lagerbestände der 760 zu räumen. Die GTX 960 wird absichtlich zurückgehalten.

Es kann natürlich auch wirklich Fertigungsprobleme geben. Aber in diesem Fall denke ich hätte Nvidia eher einen um weitere Einheiten kastrierten GM204 ( wie bei der 660Ti und der 660) als 960 Ti gebracht. :schief:
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Im grunde ist das Thema doch ganz simpel. Bis vor einem Jahr wurden alle Spiele für Xbox 360 und Ps3 entwickelt.
GTA IV wurde nur auf den PC portiert. Das Game sieht auf dem PC 1:1 aus wie die Konsolenversion.

hast du überhaupt auch nur einmal GTA IV auf der xbox360 gesehen? mittlerweile gibt es sogar schon smart-phone spiele die besser aussehen und besser laufen als die konsolenfassung von GTA IV.

in den letzten 4+ jahren wurde kaum ein spiel primär für die konsolen entwickelt.
großteil der spiele sieht sogar in den niedrigsten pc einstellungen besser aus als die ps3/x360 konsolenfassung.
zum beispiel sehr deutlich in far cry 3 oder auch batman.

hier dein GTA IV
http://www11.pic-upload.de/31.12.14/o4krv4scwoc.jpg

bei den screenshot handelt es sich übrigens bereits um die native GTA IV x360 auflösung.
wenn du dir das heute auf einem ~50" fernseher reinziehst ist es nicht mal aus 4 meter entfernung zu ertragen.

unity sieht auf der x1 und ps4 ziemlich lausig aus. also mit biegen und brechen etwa pc "medium".
die ps4 fassung von unity verwendet jedoch noch nicht mal AF... ist ja echt toll "für die konsole" entwickelt.
der anisotropische filter kommt am pc seit geschätzten 15 jahren in jedem spiel @ anschlag zum einsatz.
auf der ps4 in unity nicht? wie lächerlich ist das bitte?

die gut optimierten konsolenspiele 2014 kann man an 2..3..4. fingern abzählen; der rest ist technischer müll.
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Wird die 980ti genug Power für 4K haben? Und wesentlich schneller wie die 980/780ti sein wird. Aber nicht für 700 Euro, könnte die Karte für mich interessant werden.
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Also mit nahezu 100% Sicherheit wird die 980Ti auch nicht für alle Games in 4k ausreichen.
Dann müsste sie über doppelt so schnell sein wie eine 980.

Dass ist ausgeschlossen.

Selbst ein 980 SLI System ist für 4k noch zu wenig.

Von jetzt an, in 3-4 Jahre, dann wird 4k für alle Games ruckelfrei möglich sein.

Ja ich weiß ! Ich habe eine sehr gut Glaskugel !
 
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

hast du überhaupt auch nur einmal GTA IV auf der xbox360 gesehen? mittlerweile gibt es sogar schon smart-phone spiele die besser aussehen und besser laufen als die konsolenfassung von GTA IV.

in den letzten 4+ jahren wurde kaum ein spiel primär für die konsolen entwickelt.
großteil der spiele sieht sogar in den niedrigsten pc einstellungen besser aus als die ps3/x360 konsolenfassung.
zum beispiel sehr deutlich in far cry 3 oder auch batman.

hier dein GTA IV
http://www11.pic-upload.de/31.12.14/o4krv4scwoc.jpg
naja was heißt hier primär entwickelt.
Die Konsolen machen 80-90% des Absatzmarktes aus. Natürlich sind die Spiele primär so entwickelt, dass sie dort gut laufen.
Aufm PC schaltet man halt mehr Details hinzu. Das heißt nicht, dass primär für PC entwickelt wird, sondern eben 90% der Entwicklung in die Konsolenversion geht und 10% wird halt dann für die PC Version verwendet.
Abgesehen natürlich von Spielen die nie für Konsole erschienen sind, etwa Starcraft 2 oder CIV, aber das war eh klar, dass exklusivspiele keine Konsolenoptimierung kriegen

bei den screenshot handelt es sich übrigens bereits um die native GTA IV x360 auflösung.
wenn du dir das heute auf einem ~50" fernseher reinziehst ist es nicht mal aus 4 meter entfernung zu ertragen.
Naja Auflösung stört mich weniger, Details sind mir wichtig.
Der Vergleich hinkt außerdem: du hast hier eine extrem modifizierte Version genommen, die PC Umsetzung sieht ja 1:1 so aus wie die der Konsolen, bis auf Auflösung und Filter

unity sieht auf der x1 und ps4 ziemlich lausig aus. also mit biegen und brechen etwa pc "medium".
die ps4 fassung von unity verwendet jedoch noch nicht mal AF... ist ja echt toll "für die konsole" entwickelt.
der anisotropische filter kommt am pc seit geschätzten 15 jahren in jedem spiel @ anschlag zum einsatz.
auf der ps4 in unity nicht? wie lächerlich ist das bitte?
Na gut da sprechen wir eben von Auflösungen und Filter, aber so richtig ein Unterschied macht das in der Grafik eben nicht (Objektdetails usw), da ist nach wie vor alles für Konsole entwickelt.
Von jetzt an, in 3-4 Jahre, dann wird 4k für alle Games ruckelfrei möglich sein.
nein. Weil auch Spiele immer mehr Details und Objekte, Shader, Beleuchtung, Reflexionen bekommen, die auch in einer Standardauflösung von 1080p weiterhin Grafikkarten beanspruchen werden, geschweige denn 4k
Sonst würde man ja irgendwann keine GPU mehr brauchen, weil man sagt "naja 4k ist mir ja wirklich genug"
 
Zuletzt bearbeitet:
AW: GPU-Roadmap 2014/2015: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Oder einen 4k TV von Panasonic, da stimmt das Pl. Verhältnis.
 
Zurück