AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus
Locuza schrieb:
Windows 8 im Test (Seite 14) - ComputerBase
890 Mb laut CB.
Bei mir war Windows XP das letzte OS was weniger als 500mb verbraucht hat.
Bei der Wiiu kann mir auch niemand direkt sagen, wie viel das OS veranschlagt, nur weil dafür ein GB reserviert sind, heißt es ja noch lange nicht das diese auch in Benutzung sind. Ein weiteres Mysterium.
Keine Ahnung wieso Nintendo dem OS ein GANZES GB reserviert hat.
Die RAM Auslastung laut Taskmanager sagt wenig darüber aus wie viel RAM wirklich
von Windows gebraucht wird, da Windows je nach RAM Größe überschüssigen RAM als Cache für die HDD nutzt; dieser Cache wird aber bei Bedarf verkleinert und ist damit nicht wirklich belegt, er scheint aber im Taskmanager auf; der reale RAM Verbrauch ist erheblich geringer.
Locuza schrieb:
Darum ging es ihm ja auch nicht. Sein Standpunkt ist: DDR3 zu langsam für einen gemeinsamen Speicher.
Fertig aus. Jeder hier rafft den Unterschied zwischen DDR und GDDR.
Da gebe ich ihm zwar -abhängig von der der Systemleistung- recht aber darum geht es mir nicht.
Das jeder hier
den Unterschied zwischen DDR und GDDR rafft bezweifle ich.
DDR und GDDR waren sich jedenfalls seinerzeit noch sehr, sehr ähnlich;
ich weiß jedenfalls nicht, wie sie sich technisch unterschieden und ob es überhaupt einen Unterschied gibt.
Ich kenne auch nicht den genauen Unterschied zwischen DDR3 und GDDR5 (welcher jedenfalls auf DDR3 basiert), der wesentliche Unterschied beschränkt sich auf den bei GDDR5 tendentiell (erheblich) höheren Takt, warum der Takt aber so viel höher sein kann weiß ich nicht; Fakt ist jedenfalls das GDDR serienmäßig bis zu 1,5GHz erreicht während es nur die schnellsten OC-DDR3 Riegel in diesen Bereich schaffen. Möglicherweise wird bei GDDR einfach eine höhere Fehlerrate bei grenzwertig hohem Takt akzeptiert, da diese bei VRAM weniger ins Gewicht fällt während Fehler im Hauptspeicher fatal sein können; Profi GraKas haben auch deutlich geringere Taktraten was auch damit zusammenhängen könnte.
Locuza schrieb:
Superwip schrieb:
1) Ein PC ist nicht prinzipiell ineffizienter als eine Konsole; er ist eher (viel) effizienter (abhängig davon wie man "Effizienz" definiert)...
Ich vermute du willst damit darauf anspielen, das viele Spiele auf der Konsole sehr viel besser optimiert werden als auf dem PC... das ist leider eine traurige Tatsache, die aber nur wenig mit dem PC ansich zutun hat. Viele glauben das der Hauptgrund für die schlechtere Optimierung am PC daran liegt das die Hardware von PCs sich von System zu System gravierend unterscheidet; dieser Faktor wir allerdings vielfach stark überschätzt; der wichtigste Grund ist das Spiele heute meist erstmal für die Konsolen entwickelt und mit großem Aufwand optimiert werden -denn die haben es angesichts schwächlicher Hardware auch nötig-. Anschließend wird das Spiel dann lieblos, großteils vermutlich vielfach maschinell per Compiler auf den PC "umgemünzt", großartig optimiert wird hier nichtmehr, da ein moderner PC so große Leistungsreserven bietet das die Entwickler das nicht für nötig halten.
Ich definiere mal: Rechenleistung nahezu des theoretischen Peakswert, bei guten Stromverbrauchswerten.
Ich kann mir kein Szenario vorstellen wo der PC effizienter ist, außer bei den neuen GPUs die mit Powertune, ZeroCore und powergating laufen. Da hat die alte Hardware bei den Konsolen natürlich wenig zu melden.
Das auf Konsolen optimiert wird, hat ja viele Ursachen und das hat auch mit dem PC an sich zu tun und den vielen Konfigurationen.
Wie willst du darauf optimieren? Du kannst deswegen nicht low-level-programming betreiben oder die Parameter so wählen, dass Caches, Register oder sonst was optimal genutzt werden.
Die Konsole hat den Vorteil, dass sie auf einem modernem System aufsetzen kann, alle Komponenten teilen sich lokale Nähe, die Signalwege sind kurz, die Latenzen gering, data-movement ist weniger stromhungrig usw.
Man kann zwischen den Einheiten mit den Verbindungen spielen, 64-Bit hier, 256-Bit dort und bei dem interconnect zwischen einheit x und y haue ich 512-Bit rein.
Es stehen einem so viele Möglichkeiten offen, die auf dem PC nicht bestehen, aufgrund seiner Flexibilität oder den alten Standards und Kommunikationsweisen.
Zu den Compilern:
Die arbeiten ja an sich ganz gut, indem sie überhaupt eine halbwegs lauffähige Übersetzung von der Power auf x86 schaffen, aber ohne Handoptimierung kommt da total viel Mist mit dabei heraus, aber ab da hört ja der Portierungsaufwand meistens auf.
Damit muss man aber meistens leben.
x86 bei den Konsolen for the win.
Na ja, die klassische Effizienz-Definition wäre ja "Rechenleistung/Elektrische Leistung"...
Und hier schneiden PCs in der Regel erheblich besser ab, vor allem aufgrund der Moderneren Fertigung.
Locuza schrieb:
Die Konsole hat den Vorteil, dass sie auf einem modernem System aufsetzen kann, alle Komponenten teilen sich lokale Nähe, die Signalwege sind kurz, die Latenzen gering, data-movement ist weniger stromhungrig usw.
Man kann zwischen den Einheiten mit den Verbindungen spielen, 64-Bit hier, 256-Bit dort und bei dem interconnect zwischen einheit x und y haue ich 512-Bit rein.
Es stehen einem so viele Möglichkeiten offen, die auf dem PC nicht bestehen, aufgrund seiner Flexibilität oder den alten Standards und Kommunikationsweisen.
Wo sind auf der Konsole die Latenzen geringer? Latenzen werden heutzutage auch nicht/nur selten durch die Signalwege limitiert, weder in einem PC noch in einer Konsole.
Breite und flexible Verbindungen gibt es auf dem PC auch, man denke nur an die Unterschiedliche Breite des Speicherinterface bei verschiedenen CPUs und GPUs oder unterschiedliche Zahl der PCIe Lanes.
Ich habe schon so viel geschrieben, deswegen will ich jetzt keine Benchmarks nachsuchen, aber Mindestanforderungen die empfohlen sind, wozu der Mist?
Repräsentativ war das Zeug noch nie.
Crysis ist mit der Mindestanforderungshardware eher spielbar als CoD:BO, welches in Kombination mit einem Dualcore ohne SMT meist nicht rund läuft.
Hevioso schrieb:
Superwip schrieb:
Angesichts großer (und vergleichsweise extrem schneller) Caches, in die im Fall aktueller (PC!) High-End CPUs wesentliche Teile des Programmcodes aktueller Spiele passt ist die RAM Geschwindigkeit in Spielen nichtmehr sooo wichtig, aus dem RAM und in den RAM kommen vor allem zu verarbeitende Daten, der Code bleibt im schnellen Cache, die Verarbeitung der Daten ist idr. CPU Limitiert.
Das ist falsch. GPUs besitzen ebenfalls Caches und die brauchen trotzdem deutlich mehr Speicherbandbreite als CPUs, einfach weil sie viel mehr Rechenleistung besitzen. Die benötigte Speicherbandbreite richtet sich nach der Rechenleistung des verwendeten Prozessors, deswegen funktioniert eine Ivy Bridge (~300 SP-GFLOPS) mit DDR3, eine Trinity APU (~750 SP-GFLOPS) aber bereits nicht mehr mit DDR3. Intels Haswell (angeblich 500 SP-GFLOPS) wird deswegen auch auf DDR4 umsteigen und das liegt sicher nicht daran, dass Intel die Caches entfernt. Moderne GPUs wie zB die HD7970 Ghz(~ 4000 SP-GFLOPS) kommen sogar mit GDDR5 langsam ans Limit.
Die Halbleiterhersteller können im Vorfeld sehr genau prüfen, wieviel Speicherbandbreite die Chips brauchen, damit diese auch ihre volle Leistungsfähigkeit entfalten können. Sowas muss genau ausbalanciert sein, denn wenn dich die Speicherbandbreite um 20% ausbremst, dann hättest du genau so gut einen 20% langsameren Chip bauen können. AMD ist mit seinen APUs allerdings in einem Dilemma: Die Alternative zu DDR3 kommt mit DDR4 erst 2013 und GDDR5 steht für Arbeitsspeicher nicht zur Verfügung. Deswegen werden die Trinity-Topmodelle bei Vollauslastung ausgebremst und sollten daher mit so schnellem DDR3-Speicher wie möglich betrieben werden.
Ausserdem ist es genau andersherum: Die Speicherbandbreite des Arbeitsspeichers ist nicht so gering weil die CPU limitiert, die CPU limitiert, weil GPU und CPU die Daten aus zwei verschiedenen Pools hin und her schieben müssen und einer davon (Arbeitsspeicher) auch noch super langsam arbeitet.
Die Caches von GPUs sind aber erheblich kleiner als die von CPUs (sofern überhaupt vorhanden), ein GK104 hat etwa nur 768kiB L2 Cache ein RV1000 hat 6x128kiB (=768kiB), ein Sandy Bridge-E im Vollausbau hat dagegen 20MiB L3 + 8x 12kiB L2...
Aufgrund der Arbeitsweise der GPUs mit einem prinzipiell sehr hohen Durchsatz an Rohdaten und relativ wenig Code ist ein großer Cache aber auch nur begrenzt sinnvoll und ein Schnelles Speicherinterface dadurch nicht oder nur begrenzt zu ersetzen.
Es ist jedenfalls falsch zu sagen, das die Speicherbandbreite in einem festen Verhältnis zur "Leistung" (geschweige denn zur FLOPS- Leistung) eines Prozessors stehen muss, auch die
Arbeitsweise des Prozessors (also die Software), der Cache und die Größe des Speichers sind hier wichtige Parameter.
Hevioso schrieb:
Superwip schrieb:
Zumal wirklich hohe Geschwindigkeiten möglich sind; mit Sandy Bridge-E gehen mit Quadchannel DDR3-1600 bis zu 50GB/s (oder in anderen Worten: der gesamte Inhalt einer Blu-Ray- pro Sekunde!). Mehr RAM bedeutet mehr Platz für Spieldatein, etwa Geometriedaten, Texturen oder physikalische Eigenschaften von Objekten. Außerdem kann man in einem größeren RAM mehr Daten vorrätig halten und so Zugriffe auf den vergleichsweise schnarchlahmen Festspeicher sparen, weiters kann man auf Tricks wie etwa die Kompression von Texturen verzichten, die RAM sparen aber CPU Leistung verbrauchen; die CPU Leistung bleibt dann für sinnvolleres frei.
Schon klar, aber dieses ganze Hin- und Hergeschiebe der Daten übernimmt wie du ja selber sagst die CPU und diese muss angemessen angebunden sein. Und selbst dann hast du immer noch den größten Flaschenhals auf dem PC: Die CPU legt die Sachen im Arbeitsspeicher ab, holt sie wieder raus, schickt sie an die GPU, die legt sie im Grafikspeicher ab, bearbeitet sie und schickt sie dann entweder zur Bildausgabe (zB Texturen) oder zurück zur CPU (zB GPGPU). Das Problem an der Sache ist, dass die GPU viel schneller arbeitet als die CPU und daher eigentlich immer im Wartezustand ist. Was machen PC-Gamer also? Die Bildqualität derart aufdrehen (zB durch Supersampling), dass die GPU künstlich ausgebremst ist. Die Trinity APUs verdeutlichen dieses Problem perfekt: Rechnet nur die CPU, dann reicht der DDR3 Speicher locker aus. Schaltet sich aber auch die (mickrige) HD7660D iGP mit ein, ist die APU sofort im Bandbreitenlimit.
Wie lösen es die Konsolen? XBox360 macht keinen Unterschied zwischen Arbeits- und Grafikspeicher, da kann jeder Prozessor auf alles zugreifen. Auch auf der PS3 wurde dieser Flaschenhals beseitigt, in dem der XDR-Systemspeicher sogar schneller Angebunden ist als der GDDR3 Grafikspeicher und der RSX sogar von sich aus auf diesen XDR-Pool zugreifen kann. Der Vorteil der Konsolen ist, dass sie von der Pike auf nur fürs Gaming konzipiert sind und der PC nicht. Was die Konsole durch kluges Hardwaredesign erreicht, muss der PC mit der Brechstange und dem Geldbeutel ausgleichen.
Das ist Falsch, die CPU-GPU Verbindung und das CPU-Speicherinterface sind in Spielen nur selten limitierend, die meisten Daten, die der GPU braucht hat er im VRAM, für den Austausch dieser Daten reicht die PCIe Verbindung in der Praxis recht bequem aus, das limitiert selten, zumindest bei üblichen Grafikengines. Vorteile hat ein gemeinsamer Adressraum/Gemeinsamer Speicher für GPU und CPU und ein sehr schnelles Interface vor allem bei relativ speziellen GPGPU Lasten.
Es gibt auch eine Reihe von modernen Technologien, die die Belastung des CPU-GPU Interface reduziert haben, ein Beispiel wäre etwa Tesselation (weniger Umwälzen von Geometriedaten von CPU/RAM->GPU/VRAM)
Von Systemen mit gemeinsamem Speicher habe ich hier aber auch nicht gesprochen, das dieser zumindest zu einem Teil schnell genug für beides sein muss ist klar.
Hevioso schrieb:
Superwip schrieb:
Mehr System-RAM schafft mehr Raum für größere Levels mit mehr (Detail-) Weitsicht, eine komplexere Physik und mehr (Geometrie-) Details. Hier geht es nur sekkundär um die Grafik sondern vor allem um viel wesentlichere Dinge. Und: hier kann man vergleichsweise schlecht skalieren: die Grafikeinstellungen kann man leicht herunterregeln aber die für den RAM Verbrauch relevanten Parameter nur schwer ohne die Spielmechanik zu beeinflussen.
Hier gilt genau das gleiche: Alles was auf dem Bildschirm dargestellt werden soll, muss früher oder später zur GPU. Mal ganz abgesehen davon, dass komplexe Physik ohne GPGPU überhaupt nicht möglich ist, die CPUs kriegen gerade mal ein wenig Popelphysik hin. Das ewige Hin und Her zwischen CPU und GPU, zwischen Arbeitsspeicher und Grafikspeicher, ist ein reiner Performancekiller, bedingt durch die modulare Bauweise des PCs. Konsolen haben dieses Problem nicht, bzw nicht in dem Ausmaß und deswegen können die mit vergleichsweise schwacher Hardware auch immer noch solche tollen Ergebnisse erzielen. Hätten die Grafikkartenhersteller die Möglichkeit mehr Speicher auf die Karte zu bauen, sie würden sie sofort wahrnehmen, nur sprengt das irgendwann jeden finanziellen Rahmen und der Stromverbrauch eine High-End Grafikkarte ist jetzt schon pervers hoch.
Eine komplexere, CPU berechnete, Physik belastet den VRAM, den GPU, die CPU-GPU Verbindung oder den GPU aber nicht wesentlich mehr...
Zwar eignen sich (moderne) GPUs zum Teil tatsächlich besser für Physikberechnungen aber auch moderne CPUs können (sehr viel) mehr als wir das in den allermeisten Spielen sehen, da diese "Konsolenlimitiert" entwickelt werden; der Vorteil von GPGPU darf auch nicht überschätzt werden, sooo groß ist der Vorsprung von GPUs in solchen Rechenszenarien auch nicht, unter Einsatz von AVX kann es etwa ein Sandy Bridge-E im Vollausbau hier durchaus mit Mittelklasse GPUs aufnehmen.
Größere Level/mehr Geometrie belasten alle Einheiten stärker, bei Konsolen limitiert aber zuerst der (zu) knapp bemessene RAM und auch der Zugriff auf den Festspeicher (schlechtestenfalls eine DVD...).
Wie schon geschrieben ist die VRAM Ausstattung aktueller GPUs auch durchaus ausreichend, zumindest für aktuell übliche Engines. 2/3 GiB sind aber auch 8/12 mal so viel wie auf der PS3...
Ich sehe auch nicht, wo hier der modulare Aufbau von PC stören sollte.
Hevioso schrieb:
Superwip schrieb:
VRAM ist vor allem mit Texturen belegt, deutlich kleinere Anteile machen Geometriedaten, (fertige) Bilddaten und sonstige Daten aus. Der VRAM lässt sich vergleichsweise in einem sehr großen Rahmen skalieren: reduziert man die Texturauflösung, die Tesselation, die allgemeinen Geometriedetails, die AA Stufe und zuletzt die Auflösung kann man den VRAM Verbrauch auf einen Bruchteil des Verbrauchs bei maximaler Grafik reduzieren.
Das liegt aber daran, dass die Spiele für die Konsolen designed werden und dann auf den PC geportet werden. Die PC Version bekommt zusätzlich die Option für eine höhere Auflösung, bessere Texturen, bessere Kantenglättung, bessere Texturfilterung, hin und wieder auch ein paar zusätzliche Effekte, und wenn du diese Sachen alle wieder reduzierst, dann hast du die Konsolenversion vorliegen (Stand 2012, mit der Next Gen wird sich der Spieß in den ersten Jahre umdrehen). Der Unterschied: Selbst dann braucht die PC Version immer noch mehr Rechenleistung als sie die Konsolen liefern können.
Was genau willst du mir damit sagen?
Klar ist: der VRAM Verbrauch kann sehr einfach und in einem weiten Rahmen (durch Grafikeinstellungen) skaliert werden.
Es gibt durchaus Spiele, die auf den Konsolen am Limit laufen und gleichzeitig auch auf PC Hardware laufen, die schwächer ist als die Konsolenhardware, das wohl beste Beispiel ist Crysis (1).
Hevioso schrieb:
Superwip schrieb:
Auch die Belastung der RAM Bandbreite kann (fast) analog dazu durch die selben Maßnahmen reduziert werden. Allerdings ist unbestreitbar, das -zumindest in üblichen Spielen- bei VRAM im Vergleich zum Haupspeicher die Geschwindigkeit wichtiger, dafür aber auch nur eine geringere Größe sinnvoll ist. Allerdings ist die RAM Ausstattung moderner High-End Grafikkarten auch mit wenigen Ausnahmen "vernünftig" dimensioniert: die Größe ist angesichts billiger Speicherpreise im Zweifel etwas überdimensioniert und auch die Geschwindigkeit ist zumindest recht großzügig ausgelegt; die Krone hat hier derzeit die HD 7970 GHz Ed. auf, mit nicht weniger als 288GiB/s; sie kann ihren mit 3GiB großzügig bemessenen Speicher also 96 mal pro Sekunde vollständig umwälzen...
Das ist der gleiche Denkfehler den du bereits weiter oben gemacht hast. Die Speicherbandbreite richtet sich nach der Geschwindigkeit des Prozessors und nicht nach dem dargestellten Inhalt. Die HD7970Ghz ist mit über 4000 SP-GFLOPS zehnmal so schnell wie die schnellste Ivy Bridge, dementsprechen hat sie auch zehnmal soviel Bandbreite wie ein durchschnittlicher DDR3-Arbeitsspeicher. Es wäre absolut bescheuert, die GPU mit weniger Bandbreite anzubinden, denn dann könnte man auch genauso gut eine langsamere und günstigere GPU verwenden, die würde mit der kleineren Bandbreite vermutlich die gleichen Ergebnisse erziehlen.
Von was redest du?
Ich sage: die Auslastung der VRAM-Bandbreite kann sehr gut durch eine Änderung der Grafikeinstellungen skaliert werden, jedenfalls erheblich besser als die Auslastung des Hauptspeichers. Ich habe auch nie bezweifelt das GPUs mehr Speicherbandbreite brauchen als CPUs (wobei die höhere FLOPS Leistung -siehe oben- hier nicht wirklich der einzige Grund ist)
Hevioso schrieb:
Superwip schrieb:
Abgesehen davon: wer redet von DDR3 für irgendeine GPU?
Konsolen sind keine PCs! Ihr scheint es einfach nicht kapieren zu wollen...
Was willst du mir damit sagen?
Ich habe nie von Konsolen geredet.
=Hevioso schrieb:
Superwip schrieb:
Ein PC ist nicht prinzipiell ineffizienter als eine Konsole; er ist eher (viel) effizienter (abhängig davon wie man "Effizienz" definiert)...
In diesem Fall meine ich mit Effizienz die Differenz zwischen der zur Verfügung stehenden Rechenleistung und der dargestellten Grafik und in diesem Punkt sind Spielekonsolen unschlagbar. Punkt.
Das die Konsole alleine durch ihre rein auf Gaming optimierte Architektur einen großen Vorteil gegenüber dem PC hat, habe ich ja weiter oben bereits gesagt. Aber viel wichtiger ist noch, dass du mit einem PC gegen Embedded Coding nichts ausrichten kannst. Bei absolut identischer Rechenleistung/Architektur wird die Konsole IMMER eine bessere Performance abliefern als ein PC, da gibt es überhaupt nichts zu diskutieren.
DICE behauptet, sie hätten BF3 mit dem PC als Leadplatform designed, trotzdem sind die PC-Mindestanforderungen deutlich höher, als das was PS3 und XBox360 leisten können. Du kannst ja mal versuchen, uns ein Spiel mit einem Deferred Renderer zu suchen, das mit Hardware aus dem Jahr 2005 funktioniert. Ich kann dir jetzt schon sagen: Du wirst keines finden und das obwohl so ziemlich jedes AAA-Konsolengame auf XBox und PlayStation mit deferred rendering arbeitet.
Das stimmt nicht.
Die Konsole ist in dieser Hinsicht nur effizienter als der PC, !wenn! die Programme besser optimiert werden; dabei kann man sich -je nach Art des Programms und Niveau der Optimierung mehr oder weniger gut- die gleichartige Hardware der Konsolen zunutze machen wodurch es einfacher ist zu Optimieren, dieser Vorteil sollte aber keineswegs überschätzt werden.
Beispiel für ein Spiel, das auf den Konsolen nur grenzwertig läuft, auf PCs, die schwächer sind als die Konsolen aber immernoch funktioniert und auch sehr viel schnellere PCs noch gut auslasten kann: Crysis 1 (siehe oben); seit dem ist soweit ich weiß kein einziges Spiel herausgekommen, das auf dem PC vergleichbar gut optimiert war, das gilt auch für BF3.
_____
Deferred Renderer auf Hardware von Anno 2005 oder älter...
Was gab es 2005?
CPU: Intel Pentium (4) Extreme Edition Dualcore mit 2 Kernen, SMT und 3,73GHz; AMD Athlon 64 X2 6400+ Black Edition
RAM: DDR2 Dualchannel, maximal insgesamt 8GiB
GPU: nVidia GeForce 7800 GTX 256MiB GDDR3 VRAM; ATI Radeon X1800 XT PE 512MiB GDDR3
Beispiel für ein Spiel mit Deferred Renderer das damit läuft:
Dota 2
Offizielle Mindestanforderungen:
CPU: Intel Pentium IV 3GHz
RAM: 1GiB
GPU: nVidia GeForce 6600 128MiB; ATI Radeon X800 128MiB
=Hevioso schrieb:
Superwip schrieb:
Ein aktueller High-End PC bietet in fast jeder Hinsicht mindestens 10 mal so viel Rohleistung wie die "aktuellen" Konsolen, das gilt nicht nur für den RAM sondern auch für die CPU-und GPU Leistung; es ist eine Schande das diese Leistung von kaum einem Spiel effizient genutzt wird, das liegt jedoch nur an den Entwicklern (wie Yerli), die Krampfhaft Rücksicht auf die völlig veralteten Konsolen nehmen wollen.
e Rechenleistung wird doch genutzt, sofern es auf dem PC ohne Flaschenhals möglich ist. Die zusätzliche Leistung wird in eine höhere Auflösung, schärfere Texturen, bessere Kantenglättung, bessere Texturfilterung und so weiter investiert. Ich verstehe nicht wo dein Problem ist. Selbstverständlich gibt es Ausnahmen, zB Dark Souls, aber hier hat sich der Entwickler From Software vor dem Release der PC Version entschuldigt und die Spieler vor einem miesen Port gewarnt und er hat es ehrlicherweise damit begründet, dass sie keine Erfahrung mit dem PC haben (so wie viele japanische Entwickler) und deswegen total überfordert waren.
Du entscheidest dich als Zocker bewusst für einen Gaming-PC und damit für die ineffizienteste Spieleplattform der Welt. Du kriegst das wofür du bezahlt hast, und nichts weiter. Du solltest dir wenn überhaupt an deine eigene Nase packen und nicht sofort den Entwickler als Verantwortlichen ausmachen. Ich nutze sowohl PC als auch Konsole und das schon seit Jahren. Die Konsole nutze ich, weil Gaming mein Hobby ist. Den PC Nutze ich, weil Hardware und Schrauben ein weiteres Hobby von mir ist. Ich bin aber nicht so verblendet und beschimpfe Sony, weil sie keine Konsole bauen, die 4xSGSSAA in FullHD und mit 60 FPS schafft. Genauso wenig beschimpfe ich die Spieleentwickler, nur die Spiele auf der Konsole besser optimiert sind.
Spiele werden auf dem PC mit wenigen Ausnahmen bei weitem schlechter optimiert als auf der Konsole und zwar aus den genannten Gründen: Spiele werden auch für die Konsolen entwickelt, deren Hardware ist der kleinste gemeinsame Nenner, ein Spiel, dessen Ansprüche für die Konsolen gering genug sind läuft auf einem modernen PC so locker, das keine großartige Optimierung nötig ist; dennoch bleibt auf dem PC immernoch Rohleistungspotential übrig, das dann für eine etwas bessere Grafik mit den genannten Maßnahmen (bestenfalls) genutzt wird.
Ich will aber nicht "etwas bessere Grafik", ich will (auch) größere Levels, bessere Physik,... und ich will ordentlich optimierte Spiele.
=Hevioso schrieb:
Superwip schrieb:
Da -angesichts des kleinen RAMs von Konsolen- Levels nicht/kaum komplett in den RAM geladen werden können müssen laufend Daten aus dem Festspeicher -eben dem Blu-Ray LW- geladen werden, das kann zu Nachladerucklern führen, insbesondere in Open-World Spielen.
Das ist ne reine Frage der Optimierung. Die erste XBox360 SKU wurde komplett ohne HDD ausgeliefert, bis heute sind Installationen also nur freiwillig. Trotzdem klappt das. Probleme bereiten diesbezüglich angeblich nur mies optimierte Unreal Engine Spiele. Die PS3 wurde zwar von Anfang an mit HDD ausgeliefert, aber auch hier gibt es zahlreiche Spiele, die ohne Installation gespielt werden können. Sofern der Entwickler gescheit optimiert, ist das überhaupt kein Problem.
Das stimmt nur bedingt; wenn du dich schnell in einer großen, offenen Welt bewegst muss laufend aus dem Festspeicher nachgeladen werden, daran kann man Softwaretechnisch am Ende wenig machen (außer ausreichend Daten im Hauptspeicher vorrätig halten aber der RAM ist ja in den Konsolen leider nur sehr begrenzt... oder auf Details jeder Art und Sichweite verzichten). Die Folge sind Laderuckler, Popups usw. ein gutes Beispiel ist etwa GTA IV, das mit seiner eigens entwickelten Engine sicher nicht schlecht auf die Konsolen optimiert ist.
Cook2211 schrieb:
Selbst wenn nicht (was ich nicht glaube), wird es sehr schnell wieder so sein. Denn eines sollte man bedenken: Es ist gut und schön, CPU und GPU auf einem Die zu vereinen und daraus eine Konsole zu zimmern, aber was die Chipgröße angeht und somit die GPU-Rohleistung, ist man von vorne herein sehr limitiert.
Na ja... Man kann Chips schon recht groß machen; wenn die Konsolen einen richtigen Monsterchip
bekämen dann wäre einiges möglich, auf den ~600mm² eines GK110 wäre etwa genauso gut ein GK104
und ein CPU Teil in der Größenordnung eines Sandy Bridge Quadcore möglich.
Wie auch immer: die kommenden Konsolen werden keine Monsterhardware haben, nicht weil es nicht möglich ist sondern weil es sich die Hersteller nicht leisten wollen.
Hevioso schrieb:
Die Bandbreite der Konsolen ist nicht mickrig, sie ist auf die Rechenleistung der Prozessoren abgestimmt. Auch das wurde mittlerweile mehrfach erklärt. Die Bandbreite die dem Cell seit 2006 zur Verfügung steht, ist nur leicht geringer als die Bandbreite, die ein Core i7 aus dem Jahr 2012 zur Verfügung hat. Inwiefern der Cell seine hohe theoretische Rechenleistung in Videospielen abrufen kann, interessiert dabei überhaupt nicht.
Eine simple Trinity-APU hat fast eine doppelt so hohe Rechenleistung wie IBM Cell und Nvidia RSX zusammen, deswegen hinken diese Vergleiche überhaupt nicht.
Der XDR der PS3 hat eine Speicherbandbreite von 25,6GB/s, mit Quadchannel @ Sandy Bridge-E ist
offiziell das ~doppelte möglich, mit OC auch erheblich mehr.
Außerdem hat ein Core i7 erheblich mehr Cache, die aktuellen Quadcores haben (mit Ausnahme einiger mobiler) alle
mindestens 8MiB L3+ 256kiB L2/Kern, der Cell hat nur 512kiB L2 Cache für die PPE.
Hevioso schrieb:
Trotzdem ist die PS2 die erfolgreichste Spielekonsole aller Zeiten. Ein perfektes Gaming-System wirst du vermutlich nie bauen können, jede Konsole hatte ihre Schwachstellen und das wird auch weiter so bleiben, genau so wie der PC eigentlich überhaupt nicht für Gaming geeignet ist und der User das mit tausenden von Euros ausgleichen muss.
Das man kein perfektes Gaming System bauen kann stimmt zwar (vor allem weil sich verschiedene Spiele zu stark unterscheiden) aber auch allgemein ist die Hardware der (aller) Konsolen ziemlich unschön, allen voran die der PS3.
Die Hardware eines (Gaming-)PC ist durchaus sehr gut zum spielen geeignet, besser als die somancher Konsole, die Spiele sind nur nicht so gut optimiert...