Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Man sollte auch nicht vergessen, dass wir über Konsolen reden. Trotz mickriger Bandbreite bei XBox 360 und PS3 werden Openworld-Games wie Far Cry 3 darauf realisiert, obwohl gerade solche Games eine großen Datendurchsatz brauchen. Sprich: Konsolen kommen da mit viel, viel weniger aus und deswegen hinken RAM-Vergleichtests von AMD APUs auf dem PC dann doch ein wenig, denn der PC ist keine Konsole.
Sub HD, angepasste Details, Weitsichten, hässliche Schatten etc.
Bei Skyrim ist die Musik auch extrem komprimiert.
Da wird getrickst und KBs gezählt was das Zeug hält.
Es gibt ja schon einige Tricks und Kniffe, die ein gutes Stück Bandbreite sparen, L2 Zugriff, eDRAM, sicher noch irgendetwas bei der Kommunikation.
Aber wer kann schon genau Sagen, wie viel eingespart wird und wie viel mehr verbraucht wird, wenn man etwas AA/AF dazuschaltet und die Einheiten voll auslastet.
(Wieso treibt sich eig. kein Dev hier rum? :ugly:)

Aber wenn jetzt z.B. HSA eingesetzt wird, man gar keine Kopiererei mehr nötig hat und jeder hat Zugriff zu allen Daten, dann kann die Bandbreitenanforderungen deutlich niedriger sein.
Jetzt kann sich der Konsolenhersteller wohl viele Gedanken machen:
1. Reicht mir jetzt langsamer und billiger Speicher aus?
2. Verbaue ich doch schnellen Speicher, um die Hardware optimal Auslasten zu können.
3. Baue ich schnellen Speicher ein und verzichte auf so Sachen wie eDRAM?
4. Etc. :P


5
Die Bandbreite der Konsolen ist nicht mickrig, sie ist auf die Rechenleistung der Prozessoren abgestimmt. Auch das wurde mittlerweile mehrfach erklärt. Die Bandbreite die dem Cell seit 2006 zur Verfügung steht, ist nur leicht geringer als die Bandbreite, die ein Core i7 aus dem Jahr 2012 zur Verfügung hat. Inwiefern der Cell seine hohe theoretische Rechenleistung in Videospielen abrufen kann, interessiert dabei überhaupt nicht.

Eine simple Trinity-APU hat fast eine doppelt so hohe Rechenleistung wie IBM Cell und Nvidia RSX zusammen, deswegen hinken diese Vergleiche überhaupt nicht.
Es ist natürlich zugegebenerweise ein sehr grober Vergleich.
Ohne eDRAM bei der Xbox 360 würde die GPU sicherlich leiden an 22.4 Gb/s.
Der RSX hat aber nicht soviel Shader-Power wie ein Xenos, dem reichen die 20.8 Gb/s vielleicht so halbwegs, ein Limit kann man hier aber nicht ausschließen.
Sony hat mit seiner "Kompetenz" natürlich das einzig richtige gemacht und der GPU mit mehr Rechenleistung weniger Bandbreite zur Verfügung gestellt, als dem Cell.

Im Vergleich zu XBox 360 und PS3 wird die Grafik super toll sein, davon bin ich überzeugt. ;P
Die Überzeugung kann ich auch noch teilen. :D
 
Zuletzt bearbeitet:
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Der RSX hat aber nicht soviel Shader-Power wie ein Xenon, dem reichen die 20.8 Gb/s vielleicht so halbwegs, ein Limit kann man hier aber nicht ausschließen.
Sony hat mit seiner "Kompetenz" natürlich das einzig richtige gemacht und der GPU mit mehr Rechenleistung weniger Bandbreite zur Verfügung gestellt, als dem Cell.

Der Cell ist ja von Anfang an als Co-GPU designed worden. Das was der AMD Xenon mit den Shadern macht, übernehmen beim Cell die SPEs. Und generell ist die Idee hinter der PS3 sehr gut, nur hat Sony einen Fehler gemacht: Das mit dem BluRay-Player hätten sie lassen sollen. Etwas von dem somit gesparten Geld hätten sie in mehr Speicher bei gleicher Bandbreite investieren können (512MB XDR + 512 GDDR3). Mit DVD Laufwerk, dafür aber mit insgesamt 1GB schnellem Speicher hätten sie die XBox nach allen Regeln der Kunst verblasen und die Diskussion, dass der Cell schwieriger zu programmieren ist als der IBM Xenos, wäre überhaupt nicht erst entstanden (siehe komplizierte PS2 Hardware vs unkomplizierte XBox Hardware).

Sony ist mit der PS3 über seinen eigenen BluRay-Standard gestolpert.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Der Cell ist ja von Anfang an als Co-GPU designed worden. Das was der AMD Xenon mit den Shadern macht, übernehmen beim Cell die SPEs. Und generell ist die Idee hinter der PS3 sehr gut, nur hat Sony einen Fehler gemacht: Das mit dem BluRay-Player hätten sie lassen sollen. Etwas von dem somit gesparten Geld hätten sie in mehr Speicher bei gleicher Bandbreite investieren können (512MB XDR + 512 GDDR3). Mit DVD Laufwerk, dafür aber mit insgesamt 1GB schnellem Speicher hätten sie die XBox nach allen Regeln der Kunst verblasen und die Diskussion, dass der Cell schwieriger zu programmieren ist als der IBM Xenos, wäre überhaupt nicht erst entstanden (siehe komplizierte PS2 Hardware vs unkomplizierte XBox Hardware).

Sony ist mit der PS3 über seinen eigenen BluRay-Standard gestolpert.
Ich habe eine Story gelesen, dass Sony anfangs plante nur auf Cell zu setzen und 2 Stück davon zu verbauen, also praktisch einen massiven Cluster aus SPUs, die dann alles machen, bloß musste Sony schnell einsehen das Cell für jegliche Art nicht geeignet ist und eine GPU bei Grafikberechnung davon zieht, weswegen sie sich später von nvidia eine GPU andrehen gelassen haben.
Ich hätte das Budget auch lieber in die GPU gepumpt, anstatt in die SPEs.
Mit mehr Speicher wären sicherlich bessere Texturen möglich gewesen und nicht der häufige Matsch den man oft auf der PS3-Version sieht, allerdings hätte es an der Grundproblematik nichts verändert.
Der Cell ist einfach so deplatziert in einer Konsole, grob wie eine GPU als CPU.
Der local cache ist so klein, da passen nur paar Daten rein, direkten Zugang zum Memory gibt es auch nicht, muss ständig durch DMA geregelt werden, was scheinbar sehr langsam ist und dann muss die PPE noch den SPE-Array steuern und das schlaucht sie zusätzlich.
Das Ding ist aus Effizienzsicht bei optimalen Code für FP-Berechnungen ein gutes Stück, aber für eine Konsole nahe dem Müll.
Allgemein ist das PS3 System total verkrüppelt geraten.
Die PS2 war auch keine Glanzleistung eines tollen Systems, sondern hatte auch dumme Designschnitzer, die nicht nötig gewesen wären.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Trotzdem ist die PS2 die erfolgreichste Spielekonsole aller Zeiten. Ein perfektes Gaming-System wirst du vermutlich nie bauen können, jede Konsole hatte ihre Schwachstellen und das wird auch weiter so bleiben, genau so wie der PC eigentlich überhaupt nicht für Gaming geeignet ist und der User das mit tausenden von Euros ausgleichen muss.

Ich denke die PS4 wird eine gute Konsole werden. HSA APU + 2TFLOP + extrem viel Speicherbandbreite hören sich verdammt clever an und generell ist die Vita ein vielversprechender Ausblick auf das, was man von SCE erwarten kann: Die Vita ist ein sehr klug konzipiertes Stück Hardware mit genügend Rechenleistung aber ohne unnötig komplizierte und exotische Hardware. Design, Funktionen, Materialen, alles ist super aufeinander abgestimmt. Die Balance stimmt einfach. Wenn die PS4 diese Qualität, oder besser gesagt diese Balance erreicht, dann kann man beruhigt in die Next Gen gehen.

Um die Hardware mache ich mir bei Sony sowieso weniger Sorgen, sondern viel mehr um die Peripherie: Sollte die PS4 nur mit einem simplen Dual-Shock ausgeliefert werden, dann wäre ich sehr enttäuscht. Ich erwarte irgendwelche Gimicks, irgendwas cooles. So ein all-in-one Move+Dual Shock+Tablet Controller wäre cool, also ein kleines Tablet wie bei der Vita (am besten mit dem Touchpad auf der Rückseite, das ist genial), an das man links und rechts zwei Controllerhälften dran machen kann, um es wie einen Dual-Shock zu verwenden. Die zwei Controllerhälften könnte man dann auch einzeln wie PS-Move benutzen, also zB für den Move-Sharpshooter. Würde die PS4 zum Release mit so einem Controller und irgendwas PS-Eye mäßigem ausgeliefert werden, fände ich das sehr lobenswert.

Bei Microsoft wirds sehr schwierig: Es wird sich vermutlich alles um Kinect drehen und das kann sowohl Fluch als auch Segen sein. Segen deswegen, weil man bei Microsoft davon ausgehen kann, dass sie dieses angesprochene extra Gimick mit Kinect sowieso sicher dabei haben werden. Fluch deswegen, weil ich dafür immer noch keinen Einsatzzweck in Core-Games sehe. Sony bekennt sich wie kein anderer immer wieder deutlich zu Core-Gaming, Microsoft hingegen nicht. Microsoft hat bisher kein vernünftiges Core-Game für Kinect veröffentlicht oder angekündigt und ich kann mir keine Situation ausmalen, wie Kinect für solche Spiele von Vorteil sein soll.

Ich bin davon überzeugt, dass Microsoft genug Rechenleistung haben wird und das sie mit Kinect viel Geld verdienen werden, aber ich sehe die Gefahr, dass sie mit dieser Ausrichtung ein paar Core-Gamer vor den Kopf stoßen werden. Microsoft ist regelrecht vernarrt in sein Kinect und für Home Entertainment und Casual Games mag das ja auch genial funktionieren, aber ich bin der festen Überzeugung, dass man für Core-Games irgendwas in der Hand haben muss. Mich als Core-Gamer spricht Kinect bis jetzt auf jeden Fall noch nicht an.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Move Sharp Shooter

Als ich das erste Mal die Wii Nunchuks gesehen habe, dachte ich mir, die Dinger kannst du genial für Shooter verwenden. Dieser Gedanke blieb leider nur theoretischer Natur, Nintendo hat das später auch versucht, aber für richtige Präzision sind die Sensoren nicht gut genug. Die Sensoren von PS Move hingegen sind deutlich hochwertiger, damit kann man das jetzt schon machen.

Sowas würde ich mir wünschen, nur halt weiterentwickelt, also mit noch besseren Sensoren. Ansonsten kannst du dich bei Nintendo umschauen, was man alles mit so einem Kram machen kann. Und vom Tablet bin ich sowieso überzeugt, aber generell finde ich die PS Vita besser als die Wii U, denn die hat noch das Touchpad auf der Rückseite und das ist echt ne tolle Sache. Nur finde ich die Vita als Controller für PS4 blöde, denn sie ist viel zu teuer und auch viel zu klein. Sony sollte da was ab Release mitliefern.

Ich erwarte von den Herstellern, dass die mich da mit tollen Ideen überraschen.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Locuza schrieb:
Windows 8 im Test (Seite 14) - ComputerBase
890 Mb laut CB.
Bei mir war Windows XP das letzte OS was weniger als 500mb verbraucht hat.

Bei der Wiiu kann mir auch niemand direkt sagen, wie viel das OS veranschlagt, nur weil dafür ein GB reserviert sind, heißt es ja noch lange nicht das diese auch in Benutzung sind. Ein weiteres Mysterium.
Keine Ahnung wieso Nintendo dem OS ein GANZES GB reserviert hat.

Die RAM Auslastung laut Taskmanager sagt wenig darüber aus wie viel RAM wirklich von Windows gebraucht wird, da Windows je nach RAM Größe überschüssigen RAM als Cache für die HDD nutzt; dieser Cache wird aber bei Bedarf verkleinert und ist damit nicht wirklich belegt, er scheint aber im Taskmanager auf; der reale RAM Verbrauch ist erheblich geringer.

Locuza schrieb:
Darum ging es ihm ja auch nicht. Sein Standpunkt ist: DDR3 zu langsam für einen gemeinsamen Speicher.
Fertig aus. Jeder hier rafft den Unterschied zwischen DDR und GDDR.

Da gebe ich ihm zwar -abhängig von der der Systemleistung- recht aber darum geht es mir nicht.

Das jeder hier den Unterschied zwischen DDR und GDDR rafft bezweifle ich.

DDR und GDDR waren sich jedenfalls seinerzeit noch sehr, sehr ähnlich; ich weiß jedenfalls nicht, wie sie sich technisch unterschieden und ob es überhaupt einen Unterschied gibt.

Ich kenne auch nicht den genauen Unterschied zwischen DDR3 und GDDR5 (welcher jedenfalls auf DDR3 basiert), der wesentliche Unterschied beschränkt sich auf den bei GDDR5 tendentiell (erheblich) höheren Takt, warum der Takt aber so viel höher sein kann weiß ich nicht; Fakt ist jedenfalls das GDDR serienmäßig bis zu 1,5GHz erreicht während es nur die schnellsten OC-DDR3 Riegel in diesen Bereich schaffen. Möglicherweise wird bei GDDR einfach eine höhere Fehlerrate bei grenzwertig hohem Takt akzeptiert, da diese bei VRAM weniger ins Gewicht fällt während Fehler im Hauptspeicher fatal sein können; Profi GraKas haben auch deutlich geringere Taktraten was auch damit zusammenhängen könnte.

Locuza schrieb:
Superwip schrieb:
1) Ein PC ist nicht prinzipiell ineffizienter als eine Konsole; er ist eher (viel) effizienter (abhängig davon wie man "Effizienz" definiert)...

Ich vermute du willst damit darauf anspielen, das viele Spiele auf der Konsole sehr viel besser optimiert werden als auf dem PC... das ist leider eine traurige Tatsache, die aber nur wenig mit dem PC ansich zutun hat. Viele glauben das der Hauptgrund für die schlechtere Optimierung am PC daran liegt das die Hardware von PCs sich von System zu System gravierend unterscheidet; dieser Faktor wir allerdings vielfach stark überschätzt; der wichtigste Grund ist das Spiele heute meist erstmal für die Konsolen entwickelt und mit großem Aufwand optimiert werden -denn die haben es angesichts schwächlicher Hardware auch nötig-. Anschließend wird das Spiel dann lieblos, großteils vermutlich vielfach maschinell per Compiler auf den PC "umgemünzt", großartig optimiert wird hier nichtmehr, da ein moderner PC so große Leistungsreserven bietet das die Entwickler das nicht für nötig halten.
Ich definiere mal: Rechenleistung nahezu des theoretischen Peakswert, bei guten Stromverbrauchswerten.

Ich kann mir kein Szenario vorstellen wo der PC effizienter ist, außer bei den neuen GPUs die mit Powertune, ZeroCore und powergating laufen. Da hat die alte Hardware bei den Konsolen natürlich wenig zu melden.
Das auf Konsolen optimiert wird, hat ja viele Ursachen und das hat auch mit dem PC an sich zu tun und den vielen Konfigurationen.
Wie willst du darauf optimieren? Du kannst deswegen nicht low-level-programming betreiben oder die Parameter so wählen, dass Caches, Register oder sonst was optimal genutzt werden.

Die Konsole hat den Vorteil, dass sie auf einem modernem System aufsetzen kann, alle Komponenten teilen sich lokale Nähe, die Signalwege sind kurz, die Latenzen gering, data-movement ist weniger stromhungrig usw.
Man kann zwischen den Einheiten mit den Verbindungen spielen, 64-Bit hier, 256-Bit dort und bei dem interconnect zwischen einheit x und y haue ich 512-Bit rein.
Es stehen einem so viele Möglichkeiten offen, die auf dem PC nicht bestehen, aufgrund seiner Flexibilität oder den alten Standards und Kommunikationsweisen.

Zu den Compilern:
Die arbeiten ja an sich ganz gut, indem sie überhaupt eine halbwegs lauffähige Übersetzung von der Power auf x86 schaffen, aber ohne Handoptimierung kommt da total viel Mist mit dabei heraus, aber ab da hört ja der Portierungsaufwand meistens auf.
Damit muss man aber meistens leben.
x86 bei den Konsolen for the win.

Na ja, die klassische Effizienz-Definition wäre ja "Rechenleistung/Elektrische Leistung"...

Und hier schneiden PCs in der Regel erheblich besser ab, vor allem aufgrund der Moderneren Fertigung.

Locuza schrieb:
Die Konsole hat den Vorteil, dass sie auf einem modernem System aufsetzen kann, alle Komponenten teilen sich lokale Nähe, die Signalwege sind kurz, die Latenzen gering, data-movement ist weniger stromhungrig usw.
Man kann zwischen den Einheiten mit den Verbindungen spielen, 64-Bit hier, 256-Bit dort und bei dem interconnect zwischen einheit x und y haue ich 512-Bit rein.
Es stehen einem so viele Möglichkeiten offen, die auf dem PC nicht bestehen, aufgrund seiner Flexibilität oder den alten Standards und Kommunikationsweisen.

Wo sind auf der Konsole die Latenzen geringer? Latenzen werden heutzutage auch nicht/nur selten durch die Signalwege limitiert, weder in einem PC noch in einer Konsole.

Breite und flexible Verbindungen gibt es auf dem PC auch, man denke nur an die Unterschiedliche Breite des Speicherinterface bei verschiedenen CPUs und GPUs oder unterschiedliche Zahl der PCIe Lanes.

Ich habe schon so viel geschrieben, deswegen will ich jetzt keine Benchmarks nachsuchen, aber Mindestanforderungen die empfohlen sind, wozu der Mist?
Repräsentativ war das Zeug noch nie.

Crysis ist mit der Mindestanforderungshardware eher spielbar als CoD:BO, welches in Kombination mit einem Dualcore ohne SMT meist nicht rund läuft.

Hevioso schrieb:
Superwip schrieb:
Angesichts großer (und vergleichsweise extrem schneller) Caches, in die im Fall aktueller (PC!) High-End CPUs wesentliche Teile des Programmcodes aktueller Spiele passt ist die RAM Geschwindigkeit in Spielen nichtmehr sooo wichtig, aus dem RAM und in den RAM kommen vor allem zu verarbeitende Daten, der Code bleibt im schnellen Cache, die Verarbeitung der Daten ist idr. CPU Limitiert.
Das ist falsch. GPUs besitzen ebenfalls Caches und die brauchen trotzdem deutlich mehr Speicherbandbreite als CPUs, einfach weil sie viel mehr Rechenleistung besitzen. Die benötigte Speicherbandbreite richtet sich nach der Rechenleistung des verwendeten Prozessors, deswegen funktioniert eine Ivy Bridge (~300 SP-GFLOPS) mit DDR3, eine Trinity APU (~750 SP-GFLOPS) aber bereits nicht mehr mit DDR3. Intels Haswell (angeblich 500 SP-GFLOPS) wird deswegen auch auf DDR4 umsteigen und das liegt sicher nicht daran, dass Intel die Caches entfernt. Moderne GPUs wie zB die HD7970 Ghz(~ 4000 SP-GFLOPS) kommen sogar mit GDDR5 langsam ans Limit.

Die Halbleiterhersteller können im Vorfeld sehr genau prüfen, wieviel Speicherbandbreite die Chips brauchen, damit diese auch ihre volle Leistungsfähigkeit entfalten können. Sowas muss genau ausbalanciert sein, denn wenn dich die Speicherbandbreite um 20% ausbremst, dann hättest du genau so gut einen 20% langsameren Chip bauen können. AMD ist mit seinen APUs allerdings in einem Dilemma: Die Alternative zu DDR3 kommt mit DDR4 erst 2013 und GDDR5 steht für Arbeitsspeicher nicht zur Verfügung. Deswegen werden die Trinity-Topmodelle bei Vollauslastung ausgebremst und sollten daher mit so schnellem DDR3-Speicher wie möglich betrieben werden.

Ausserdem ist es genau andersherum: Die Speicherbandbreite des Arbeitsspeichers ist nicht so gering weil die CPU limitiert, die CPU limitiert, weil GPU und CPU die Daten aus zwei verschiedenen Pools hin und her schieben müssen und einer davon (Arbeitsspeicher) auch noch super langsam arbeitet.

Die Caches von GPUs sind aber erheblich kleiner als die von CPUs (sofern überhaupt vorhanden), ein GK104 hat etwa nur 768kiB L2 Cache ein RV1000 hat 6x128kiB (=768kiB), ein Sandy Bridge-E im Vollausbau hat dagegen 20MiB L3 + 8x 12kiB L2...

Aufgrund der Arbeitsweise der GPUs mit einem prinzipiell sehr hohen Durchsatz an Rohdaten und relativ wenig Code ist ein großer Cache aber auch nur begrenzt sinnvoll und ein Schnelles Speicherinterface dadurch nicht oder nur begrenzt zu ersetzen.

Es ist jedenfalls falsch zu sagen, das die Speicherbandbreite in einem festen Verhältnis zur "Leistung" (geschweige denn zur FLOPS- Leistung) eines Prozessors stehen muss, auch die Arbeitsweise des Prozessors (also die Software), der Cache und die Größe des Speichers sind hier wichtige Parameter.

Hevioso schrieb:
Superwip schrieb:
Zumal wirklich hohe Geschwindigkeiten möglich sind; mit Sandy Bridge-E gehen mit Quadchannel DDR3-1600 bis zu 50GB/s (oder in anderen Worten: der gesamte Inhalt einer Blu-Ray- pro Sekunde!). Mehr RAM bedeutet mehr Platz für Spieldatein, etwa Geometriedaten, Texturen oder physikalische Eigenschaften von Objekten. Außerdem kann man in einem größeren RAM mehr Daten vorrätig halten und so Zugriffe auf den vergleichsweise schnarchlahmen Festspeicher sparen, weiters kann man auf Tricks wie etwa die Kompression von Texturen verzichten, die RAM sparen aber CPU Leistung verbrauchen; die CPU Leistung bleibt dann für sinnvolleres frei.
Schon klar, aber dieses ganze Hin- und Hergeschiebe der Daten übernimmt wie du ja selber sagst die CPU und diese muss angemessen angebunden sein. Und selbst dann hast du immer noch den größten Flaschenhals auf dem PC: Die CPU legt die Sachen im Arbeitsspeicher ab, holt sie wieder raus, schickt sie an die GPU, die legt sie im Grafikspeicher ab, bearbeitet sie und schickt sie dann entweder zur Bildausgabe (zB Texturen) oder zurück zur CPU (zB GPGPU). Das Problem an der Sache ist, dass die GPU viel schneller arbeitet als die CPU und daher eigentlich immer im Wartezustand ist. Was machen PC-Gamer also? Die Bildqualität derart aufdrehen (zB durch Supersampling), dass die GPU künstlich ausgebremst ist. Die Trinity APUs verdeutlichen dieses Problem perfekt: Rechnet nur die CPU, dann reicht der DDR3 Speicher locker aus. Schaltet sich aber auch die (mickrige) HD7660D iGP mit ein, ist die APU sofort im Bandbreitenlimit.

Wie lösen es die Konsolen? XBox360 macht keinen Unterschied zwischen Arbeits- und Grafikspeicher, da kann jeder Prozessor auf alles zugreifen. Auch auf der PS3 wurde dieser Flaschenhals beseitigt, in dem der XDR-Systemspeicher sogar schneller Angebunden ist als der GDDR3 Grafikspeicher und der RSX sogar von sich aus auf diesen XDR-Pool zugreifen kann. Der Vorteil der Konsolen ist, dass sie von der Pike auf nur fürs Gaming konzipiert sind und der PC nicht. Was die Konsole durch kluges Hardwaredesign erreicht, muss der PC mit der Brechstange und dem Geldbeutel ausgleichen.

Das ist Falsch, die CPU-GPU Verbindung und das CPU-Speicherinterface sind in Spielen nur selten limitierend, die meisten Daten, die der GPU braucht hat er im VRAM, für den Austausch dieser Daten reicht die PCIe Verbindung in der Praxis recht bequem aus, das limitiert selten, zumindest bei üblichen Grafikengines. Vorteile hat ein gemeinsamer Adressraum/Gemeinsamer Speicher für GPU und CPU und ein sehr schnelles Interface vor allem bei relativ speziellen GPGPU Lasten.

Es gibt auch eine Reihe von modernen Technologien, die die Belastung des CPU-GPU Interface reduziert haben, ein Beispiel wäre etwa Tesselation (weniger Umwälzen von Geometriedaten von CPU/RAM->GPU/VRAM)

Von Systemen mit gemeinsamem Speicher habe ich hier aber auch nicht gesprochen, das dieser zumindest zu einem Teil schnell genug für beides sein muss ist klar.

Hevioso schrieb:
Superwip schrieb:
Mehr System-RAM schafft mehr Raum für größere Levels mit mehr (Detail-) Weitsicht, eine komplexere Physik und mehr (Geometrie-) Details. Hier geht es nur sekkundär um die Grafik sondern vor allem um viel wesentlichere Dinge. Und: hier kann man vergleichsweise schlecht skalieren: die Grafikeinstellungen kann man leicht herunterregeln aber die für den RAM Verbrauch relevanten Parameter nur schwer ohne die Spielmechanik zu beeinflussen.
Hier gilt genau das gleiche: Alles was auf dem Bildschirm dargestellt werden soll, muss früher oder später zur GPU. Mal ganz abgesehen davon, dass komplexe Physik ohne GPGPU überhaupt nicht möglich ist, die CPUs kriegen gerade mal ein wenig Popelphysik hin. Das ewige Hin und Her zwischen CPU und GPU, zwischen Arbeitsspeicher und Grafikspeicher, ist ein reiner Performancekiller, bedingt durch die modulare Bauweise des PCs. Konsolen haben dieses Problem nicht, bzw nicht in dem Ausmaß und deswegen können die mit vergleichsweise schwacher Hardware auch immer noch solche tollen Ergebnisse erzielen. Hätten die Grafikkartenhersteller die Möglichkeit mehr Speicher auf die Karte zu bauen, sie würden sie sofort wahrnehmen, nur sprengt das irgendwann jeden finanziellen Rahmen und der Stromverbrauch eine High-End Grafikkarte ist jetzt schon pervers hoch.

Eine komplexere, CPU berechnete, Physik belastet den VRAM, den GPU, die CPU-GPU Verbindung oder den GPU aber nicht wesentlich mehr...

Zwar eignen sich (moderne) GPUs zum Teil tatsächlich besser für Physikberechnungen aber auch moderne CPUs können (sehr viel) mehr als wir das in den allermeisten Spielen sehen, da diese "Konsolenlimitiert" entwickelt werden; der Vorteil von GPGPU darf auch nicht überschätzt werden, sooo groß ist der Vorsprung von GPUs in solchen Rechenszenarien auch nicht, unter Einsatz von AVX kann es etwa ein Sandy Bridge-E im Vollausbau hier durchaus mit Mittelklasse GPUs aufnehmen.

Größere Level/mehr Geometrie belasten alle Einheiten stärker, bei Konsolen limitiert aber zuerst der (zu) knapp bemessene RAM und auch der Zugriff auf den Festspeicher (schlechtestenfalls eine DVD...).

Wie schon geschrieben ist die VRAM Ausstattung aktueller GPUs auch durchaus ausreichend, zumindest für aktuell übliche Engines. 2/3 GiB sind aber auch 8/12 mal so viel wie auf der PS3...

Ich sehe auch nicht, wo hier der modulare Aufbau von PC stören sollte.

Hevioso schrieb:
Superwip schrieb:
VRAM ist vor allem mit Texturen belegt, deutlich kleinere Anteile machen Geometriedaten, (fertige) Bilddaten und sonstige Daten aus. Der VRAM lässt sich vergleichsweise in einem sehr großen Rahmen skalieren: reduziert man die Texturauflösung, die Tesselation, die allgemeinen Geometriedetails, die AA Stufe und zuletzt die Auflösung kann man den VRAM Verbrauch auf einen Bruchteil des Verbrauchs bei maximaler Grafik reduzieren.
Das liegt aber daran, dass die Spiele für die Konsolen designed werden und dann auf den PC geportet werden. Die PC Version bekommt zusätzlich die Option für eine höhere Auflösung, bessere Texturen, bessere Kantenglättung, bessere Texturfilterung, hin und wieder auch ein paar zusätzliche Effekte, und wenn du diese Sachen alle wieder reduzierst, dann hast du die Konsolenversion vorliegen (Stand 2012, mit der Next Gen wird sich der Spieß in den ersten Jahre umdrehen). Der Unterschied: Selbst dann braucht die PC Version immer noch mehr Rechenleistung als sie die Konsolen liefern können.

Was genau willst du mir damit sagen?

Klar ist: der VRAM Verbrauch kann sehr einfach und in einem weiten Rahmen (durch Grafikeinstellungen) skaliert werden.

Es gibt durchaus Spiele, die auf den Konsolen am Limit laufen und gleichzeitig auch auf PC Hardware laufen, die schwächer ist als die Konsolenhardware, das wohl beste Beispiel ist Crysis (1).

Hevioso schrieb:
Superwip schrieb:
Auch die Belastung der RAM Bandbreite kann (fast) analog dazu durch die selben Maßnahmen reduziert werden. Allerdings ist unbestreitbar, das -zumindest in üblichen Spielen- bei VRAM im Vergleich zum Haupspeicher die Geschwindigkeit wichtiger, dafür aber auch nur eine geringere Größe sinnvoll ist. Allerdings ist die RAM Ausstattung moderner High-End Grafikkarten auch mit wenigen Ausnahmen "vernünftig" dimensioniert: die Größe ist angesichts billiger Speicherpreise im Zweifel etwas überdimensioniert und auch die Geschwindigkeit ist zumindest recht großzügig ausgelegt; die Krone hat hier derzeit die HD 7970 GHz Ed. auf, mit nicht weniger als 288GiB/s; sie kann ihren mit 3GiB großzügig bemessenen Speicher also 96 mal pro Sekunde vollständig umwälzen...
Das ist der gleiche Denkfehler den du bereits weiter oben gemacht hast. Die Speicherbandbreite richtet sich nach der Geschwindigkeit des Prozessors und nicht nach dem dargestellten Inhalt. Die HD7970Ghz ist mit über 4000 SP-GFLOPS zehnmal so schnell wie die schnellste Ivy Bridge, dementsprechen hat sie auch zehnmal soviel Bandbreite wie ein durchschnittlicher DDR3-Arbeitsspeicher. Es wäre absolut bescheuert, die GPU mit weniger Bandbreite anzubinden, denn dann könnte man auch genauso gut eine langsamere und günstigere GPU verwenden, die würde mit der kleineren Bandbreite vermutlich die gleichen Ergebnisse erziehlen.

Von was redest du?

Ich sage: die Auslastung der VRAM-Bandbreite kann sehr gut durch eine Änderung der Grafikeinstellungen skaliert werden, jedenfalls erheblich besser als die Auslastung des Hauptspeichers. Ich habe auch nie bezweifelt das GPUs mehr Speicherbandbreite brauchen als CPUs (wobei die höhere FLOPS Leistung -siehe oben- hier nicht wirklich der einzige Grund ist)

Hevioso schrieb:
Superwip schrieb:
Abgesehen davon: wer redet von DDR3 für irgendeine GPU?
Konsolen sind keine PCs! Ihr scheint es einfach nicht kapieren zu wollen...

Was willst du mir damit sagen?

Ich habe nie von Konsolen geredet.

=Hevioso schrieb:
Superwip schrieb:
Ein PC ist nicht prinzipiell ineffizienter als eine Konsole; er ist eher (viel) effizienter (abhängig davon wie man "Effizienz" definiert)...
In diesem Fall meine ich mit Effizienz die Differenz zwischen der zur Verfügung stehenden Rechenleistung und der dargestellten Grafik und in diesem Punkt sind Spielekonsolen unschlagbar. Punkt.

Das die Konsole alleine durch ihre rein auf Gaming optimierte Architektur einen großen Vorteil gegenüber dem PC hat, habe ich ja weiter oben bereits gesagt. Aber viel wichtiger ist noch, dass du mit einem PC gegen Embedded Coding nichts ausrichten kannst. Bei absolut identischer Rechenleistung/Architektur wird die Konsole IMMER eine bessere Performance abliefern als ein PC, da gibt es überhaupt nichts zu diskutieren.

DICE behauptet, sie hätten BF3 mit dem PC als Leadplatform designed, trotzdem sind die PC-Mindestanforderungen deutlich höher, als das was PS3 und XBox360 leisten können. Du kannst ja mal versuchen, uns ein Spiel mit einem Deferred Renderer zu suchen, das mit Hardware aus dem Jahr 2005 funktioniert. Ich kann dir jetzt schon sagen: Du wirst keines finden und das obwohl so ziemlich jedes AAA-Konsolengame auf XBox und PlayStation mit deferred rendering arbeitet.

Das stimmt nicht.

Die Konsole ist in dieser Hinsicht nur effizienter als der PC, !wenn! die Programme besser optimiert werden; dabei kann man sich -je nach Art des Programms und Niveau der Optimierung mehr oder weniger gut- die gleichartige Hardware der Konsolen zunutze machen wodurch es einfacher ist zu Optimieren, dieser Vorteil sollte aber keineswegs überschätzt werden.

Beispiel für ein Spiel, das auf den Konsolen nur grenzwertig läuft, auf PCs, die schwächer sind als die Konsolen aber immernoch funktioniert und auch sehr viel schnellere PCs noch gut auslasten kann: Crysis 1 (siehe oben); seit dem ist soweit ich weiß kein einziges Spiel herausgekommen, das auf dem PC vergleichbar gut optimiert war, das gilt auch für BF3.
_____
Deferred Renderer auf Hardware von Anno 2005 oder älter...

Was gab es 2005?
CPU: Intel Pentium (4) Extreme Edition Dualcore mit 2 Kernen, SMT und 3,73GHz; AMD Athlon 64 X2 6400+ Black Edition
RAM: DDR2 Dualchannel, maximal insgesamt 8GiB
GPU: nVidia GeForce 7800 GTX 256MiB GDDR3 VRAM; ATI Radeon X1800 XT PE 512MiB GDDR3

Beispiel für ein Spiel mit Deferred Renderer das damit läuft:

Dota 2
Offizielle Mindestanforderungen:
CPU: Intel Pentium IV 3GHz
RAM: 1GiB
GPU: nVidia GeForce 6600 128MiB; ATI Radeon X800 128MiB

=Hevioso schrieb:
Superwip schrieb:
Ein aktueller High-End PC bietet in fast jeder Hinsicht mindestens 10 mal so viel Rohleistung wie die "aktuellen" Konsolen, das gilt nicht nur für den RAM sondern auch für die CPU-und GPU Leistung; es ist eine Schande das diese Leistung von kaum einem Spiel effizient genutzt wird, das liegt jedoch nur an den Entwicklern (wie Yerli), die Krampfhaft Rücksicht auf die völlig veralteten Konsolen nehmen wollen.
e Rechenleistung wird doch genutzt, sofern es auf dem PC ohne Flaschenhals möglich ist. Die zusätzliche Leistung wird in eine höhere Auflösung, schärfere Texturen, bessere Kantenglättung, bessere Texturfilterung und so weiter investiert. Ich verstehe nicht wo dein Problem ist. Selbstverständlich gibt es Ausnahmen, zB Dark Souls, aber hier hat sich der Entwickler From Software vor dem Release der PC Version entschuldigt und die Spieler vor einem miesen Port gewarnt und er hat es ehrlicherweise damit begründet, dass sie keine Erfahrung mit dem PC haben (so wie viele japanische Entwickler) und deswegen total überfordert waren.

Du entscheidest dich als Zocker bewusst für einen Gaming-PC und damit für die ineffizienteste Spieleplattform der Welt. Du kriegst das wofür du bezahlt hast, und nichts weiter. Du solltest dir wenn überhaupt an deine eigene Nase packen und nicht sofort den Entwickler als Verantwortlichen ausmachen. Ich nutze sowohl PC als auch Konsole und das schon seit Jahren. Die Konsole nutze ich, weil Gaming mein Hobby ist. Den PC Nutze ich, weil Hardware und Schrauben ein weiteres Hobby von mir ist. Ich bin aber nicht so verblendet und beschimpfe Sony, weil sie keine Konsole bauen, die 4xSGSSAA in FullHD und mit 60 FPS schafft. Genauso wenig beschimpfe ich die Spieleentwickler, nur die Spiele auf der Konsole besser optimiert sind.

Spiele werden auf dem PC mit wenigen Ausnahmen bei weitem schlechter optimiert als auf der Konsole und zwar aus den genannten Gründen: Spiele werden auch für die Konsolen entwickelt, deren Hardware ist der kleinste gemeinsame Nenner, ein Spiel, dessen Ansprüche für die Konsolen gering genug sind läuft auf einem modernen PC so locker, das keine großartige Optimierung nötig ist; dennoch bleibt auf dem PC immernoch Rohleistungspotential übrig, das dann für eine etwas bessere Grafik mit den genannten Maßnahmen (bestenfalls) genutzt wird.

Ich will aber nicht "etwas bessere Grafik", ich will (auch) größere Levels, bessere Physik,... und ich will ordentlich optimierte Spiele.

=Hevioso schrieb:
Superwip schrieb:
Da -angesichts des kleinen RAMs von Konsolen- Levels nicht/kaum komplett in den RAM geladen werden können müssen laufend Daten aus dem Festspeicher -eben dem Blu-Ray LW- geladen werden, das kann zu Nachladerucklern führen, insbesondere in Open-World Spielen.
Das ist ne reine Frage der Optimierung. Die erste XBox360 SKU wurde komplett ohne HDD ausgeliefert, bis heute sind Installationen also nur freiwillig. Trotzdem klappt das. Probleme bereiten diesbezüglich angeblich nur mies optimierte Unreal Engine Spiele. Die PS3 wurde zwar von Anfang an mit HDD ausgeliefert, aber auch hier gibt es zahlreiche Spiele, die ohne Installation gespielt werden können. Sofern der Entwickler gescheit optimiert, ist das überhaupt kein Problem.

Das stimmt nur bedingt; wenn du dich schnell in einer großen, offenen Welt bewegst muss laufend aus dem Festspeicher nachgeladen werden, daran kann man Softwaretechnisch am Ende wenig machen (außer ausreichend Daten im Hauptspeicher vorrätig halten aber der RAM ist ja in den Konsolen leider nur sehr begrenzt... oder auf Details jeder Art und Sichweite verzichten). Die Folge sind Laderuckler, Popups usw. ein gutes Beispiel ist etwa GTA IV, das mit seiner eigens entwickelten Engine sicher nicht schlecht auf die Konsolen optimiert ist.

Cook2211 schrieb:
Selbst wenn nicht (was ich nicht glaube), wird es sehr schnell wieder so sein. Denn eines sollte man bedenken: Es ist gut und schön, CPU und GPU auf einem Die zu vereinen und daraus eine Konsole zu zimmern, aber was die Chipgröße angeht und somit die GPU-Rohleistung, ist man von vorne herein sehr limitiert.

Na ja... Man kann Chips schon recht groß machen; wenn die Konsolen einen richtigen Monsterchip bekämen dann wäre einiges möglich, auf den ~600mm² eines GK110 wäre etwa genauso gut ein GK104 und ein CPU Teil in der Größenordnung eines Sandy Bridge Quadcore möglich.

Wie auch immer: die kommenden Konsolen werden keine Monsterhardware haben, nicht weil es nicht möglich ist sondern weil es sich die Hersteller nicht leisten wollen.

Hevioso schrieb:
Die Bandbreite der Konsolen ist nicht mickrig, sie ist auf die Rechenleistung der Prozessoren abgestimmt. Auch das wurde mittlerweile mehrfach erklärt. Die Bandbreite die dem Cell seit 2006 zur Verfügung steht, ist nur leicht geringer als die Bandbreite, die ein Core i7 aus dem Jahr 2012 zur Verfügung hat. Inwiefern der Cell seine hohe theoretische Rechenleistung in Videospielen abrufen kann, interessiert dabei überhaupt nicht.

Eine simple Trinity-APU hat fast eine doppelt so hohe Rechenleistung wie IBM Cell und Nvidia RSX zusammen, deswegen hinken diese Vergleiche überhaupt nicht.

Der XDR der PS3 hat eine Speicherbandbreite von 25,6GB/s, mit Quadchannel @ Sandy Bridge-E ist offiziell das ~doppelte möglich, mit OC auch erheblich mehr.

Außerdem hat ein Core i7 erheblich mehr Cache, die aktuellen Quadcores haben (mit Ausnahme einiger mobiler) alle mindestens 8MiB L3+ 256kiB L2/Kern, der Cell hat nur 512kiB L2 Cache für die PPE.

Hevioso schrieb:
Trotzdem ist die PS2 die erfolgreichste Spielekonsole aller Zeiten. Ein perfektes Gaming-System wirst du vermutlich nie bauen können, jede Konsole hatte ihre Schwachstellen und das wird auch weiter so bleiben, genau so wie der PC eigentlich überhaupt nicht für Gaming geeignet ist und der User das mit tausenden von Euros ausgleichen muss.

Das man kein perfektes Gaming System bauen kann stimmt zwar (vor allem weil sich verschiedene Spiele zu stark unterscheiden) aber auch allgemein ist die Hardware der (aller) Konsolen ziemlich unschön, allen voran die der PS3.

Die Hardware eines (Gaming-)PC ist durchaus sehr gut zum spielen geeignet, besser als die somancher Konsole, die Spiele sind nur nicht so gut optimiert...
 
Zuletzt bearbeitet:
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Trotzdem ist die PS2 die erfolgreichste Spielekonsole aller Zeiten. Ein perfektes Gaming-System wirst du vermutlich nie bauen können, jede Konsole hatte ihre Schwachstellen und das wird auch weiter so bleiben, genau so wie der PC eigentlich überhaupt nicht für Gaming geeignet ist und der User das mit tausenden von Euros ausgleichen muss.

[...]
Nur weil die PS2 erfolgreich war, war die Technik nicht gut. ;)
Ein mega perfektes Gaming-System wirst du definitiv nicht bauen können, aber davon waren einige mehr entfernt als die anderen.
Die Xbox 360 ist deutlich schlauer geraten, als die PS3.

Die RAM Auslastung laut Taskmanager sagt wenig darüber aus wie viel RAM wirklich von Windows gebraucht wird, da Windows je nach RAM Größe überschüssigen RAM als Cache für die HDD nutzt; dieser Cache wird aber bei Bedarf verkleinert und ist damit nicht wirklich belegt, er scheint aber im Taskmanager auf; der reale RAM Verbrauch ist erheblich geringer.
Windows 7 cached doch sofort alles?
Gibt es einen Unterschied, ob Windows 7 für sich selber cached und was es allgemein cached?
Woher soll ich überhaupt den realen Verbrauch ableiten können?

Das jeder hier den Unterschied zwischen DDR und GDDR rafft bezweifle ich.

DDR und GDDR waren sich jedenfalls seinerzeit noch sehr, sehr ähnlich; ich weiß jedenfalls nicht, wie sie sich technisch unterschieden und ob es überhaupt einen Unterschied gibt.

Ich kenne auch nicht den genauen Unterschied zwischen DDR3 und GDDR5 (welcher jedenfalls auf DDR3 basiert), der wesentliche Unterschied beschränkt sich auf den bei GDDR5 tendentiell (erheblich) höheren Takt, warum der Takt aber so viel höher sein kann weiß ich nicht; Fakt ist jedenfalls das GDDR serienmäßig bis zu 1,5GHz erreicht während es nur die schnellsten OC-DDR3 Riegel in diesen Bereich schaffen. Möglicherweise wird bei GDDR einfach eine höhere Fehlerrate bei grenzwertig hohem Takt akzeptiert, da diese bei VRAM weniger ins Gewicht fällt während Fehler im Hauptspeicher fatal sein können; Profi GraKas haben auch deutlich geringere Taktraten was auch damit zusammenhängen könnte.
DDR=> Hauptspeicher für PC
GDDR=> viel schnellerer Speicher auf GPUs

Soweit versteht es Cook, Hevioso, du und ich auf jeden Fall. Ich habe nicht für das ganze Forum reden wollen.

Die Unterschiede bestehen gewiss. Die Zugriffszeiten, Latenzen, die Signalverarbeitung unterscheiden sich sicher, um so hohe Taktraten zu erreichen. Nur mehr Fehler werden sie sicherlich nicht akzeptieren.
Bei Profi-GPUs werden die Teile ja nicht auf DDR-Level betrieben, falls es der einzige Unterschied sein sollte.

Na ja, die klassische Effizienz-Definition wäre ja "Rechenleistung/Elektrische Leistung"...

Und hier schneiden PCs in der Regel erheblich besser ab, vor allem aufgrund der Moderneren Fertigung.
Deswegen und der natürlich immer besseren GPUs, die feinere Stromsparmechanismen haben.
Aber was will man hier als Maßstab nennen? Es gibt auch Leute die haben noch 2-3 alte Generationen GPUs.
Außerdem hat ein PC auch Zeug, was für reines Gaming gar nicht gebraucht wird und Strom schluckt.

Wo sind auf der Konsole die Latenzen geringer? Latenzen werden heutzutage auch nicht/nur selten durch die Signalwege limitiert, weder in einem PC noch in einer Konsole.

Breite und flexible Verbindungen gibt es auf dem PC auch, man denke nur an die Unterschiedliche Breite des Speicherinterface bei verschiedenen CPUs und GPUs oder unterschiedliche Zahl der PCIe Lanes.
Stimmt, heutzutage mit den integrierten Speichercontrollern und PCIE3 mit seinen rund 30 GB/s wirkt das alles schnell genug.
Früher ging ja noch vieles über die lahme Northbridge, wo die Konsolen mit 10-15 Gb hin und her richtig gut dastanden.
Bei der Next-Gen taucht insofern auch "nur" die Frage auf, ob die Verbindung zum Speicher schnell genug ist.
Wenn sie klassisch aufbauen, brauchen sie auch einen fetten Interconnect zwischen beiden Einheiten.
Jedenfalls wäre man hier deutlich flexibler, als bei einem PC, aber Transferraten über einem High-End PC erwarte ich hier nicht.

Crysis ist mit der Mindestanforderungshardware eher spielbar als CoD:BO, welches in Kombination mit einem Dualcore ohne SMT meist nicht rund läuft.
Ohne Benchmarks glaube ich nichts :P

Es ist jedenfalls falsch zu sagen, das die Speicherbandbreite in einem festen Verhältnis zur "Leistung" (geschweige denn zur FLOPS- Leistung) eines Prozessors stehen muss, auch die Arbeitsweise des Prozessors (also die Software), der Cache und die Größe des Speichers sind hier wichtige Parameter.
Ich kann hier natürlich nicht global exakt sagen, dass ein Kepler mit 1TF und einen Durchsatz bei X und ein GCN mit 1TF und dem gleichem Durchsatz bei X, genau so viel Speicherbandbreite benötigen um ihre 100% Leistung zu erreichen, aber ich kann genau sagen, dass die GPUs mit doppeltem theoretischen Durchsatz eine viel höhere Speicherbandbreite benötigen.

Eine komplexere, CPU berechnete, Physik belastet den VRAM, den GPU, die CPU-GPU Verbindung oder den GPU aber nicht wesentlich mehr...

Zwar eignen sich (moderne) GPUs zum Teil tatsächlich besser für Physikberechnungen aber auch moderne CPUs können (sehr viel) mehr als wir das in den allermeisten Spielen sehen, da diese "Konsolenlimitiert" entwickelt werden; der Vorteil von GPGPU darf auch nicht überschätzt werden, sooo groß ist der Vorsprung von GPUs in solchen Rechenszenarien auch nicht, unter Einsatz von AVX kann es etwa ein Sandy Bridge-E im Vollausbau hier durchaus mit Mittelklasse GPUs aufnehmen.
Nun ist SB-E nicht gerade das, was ein durchschnittlicher Heimanwender bei sich zu Hause stehen hat und AVX ebenfalls nicht, was bei den heutigen Ports benützt wird.
Und so ist die Realität, ich brauche mir nicht sagen das THEORETISCH es ja alles gar nicht so schlimm ist.

Es gibt durchaus Spiele, die auf den Konsolen am Limit laufen und gleichzeitig auch auf PC Hardware laufen, die schwächer ist als die Konsolenhardware, das wohl beste Beispiel ist Crysis (1).
Ich weiß nicht was du genau damit sagen willst, läuft auf PC-Hardware die schwächer ist, als Konsolenhardware, aber das gleiche Performance-Level erreicht mit vergleichbarer Hardware ein PC niemals, was es schon etwas daneben ist, denn auf dem PC gibt es keine vergleichbare Hardware zur Konsolen-Hardware.

Das stimmt nicht.

Die Konsole ist in dieser Hinsicht nur effizienter als der PC, !wenn! die Programme besser optimiert werden; dabei kann man sich -je nach Art des Programms und Niveau der Optimierung mehr oder weniger gut- die gleichartige Hardware der Konsolen zunutze machen wodurch es einfacher ist zu Optimieren, dieser Vorteil sollte aber keineswegs überschätzt werden.
Oh den DX-Overhead und low-level-programming sollte ich ganz sicher nicht unterschätzen, dass kaschiert natürlich dennoch nicht den Vorteil von modernerer Hardware und deutlich mehr Rechenleistung.
Bei der Next-Gen mit HSA (vielleicht) braucht man dann noch einmal deutlich mehr Rechenleistung um die Vorteile einer Konsole zu kaschieren.

Um die Antwort zu liefern würde ich sagen aktuelle High End PC s sind 24 x schneller wie xbox 360 habe ich mal gelesen. Aber an meine 5 TFlops kommt keine next gen dran :P

Nvidia: Aktuelle Grafikleistung eines PCs übertrifft die einer Xbox 360 um das 24-fache
Sehr schön GrEmLiNg, ich hoffe das hat dein Selbstbewusstsein sein gutes Stück gestärkt. ;)
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Um die Antwort zu liefern würde ich sagen aktuelle High End PC s sind 24 x schneller wie xbox 360 habe ich mal gelesen. Aber an meine 5 TFlops kommt keine next gen dran :P

Nvidia: Aktuelle Grafikleistung eines PCs übertrifft die einer Xbox 360 um das 24-fache

Faktor x bei der FLOPS-Leistung einer Grafikkarte (und dann auch noch bei einem dual-GPU System) hat nicht besonders viel mit der Praxisleistung zu tun...

Windows 7 cached doch sofort alles?
Gibt es einen Unterschied, ob Windows 7 für sich selber cached und was es allgemein cached?
Woher soll ich überhaupt den realen Verbrauch ableiten können?

Da der Cache variabel ist und bei Bedarf verkleinert wird darf er nicht zum "Grundverbrauch" des Systems gezählt werden. Den "realen" Eigenverbrauch zu messen ist garnich so einfach, er ist jedenfalls deutlich geringer als das was der Taskmanager im Leerlauf anzeigt, insbesondere deutlich geringer als das was der Taskmanager im Leerlauf auf Systemen mit viel RAM anzeigt.

DDR=> Hauptspeicher für PC
GDDR=> viel schnellerer Speicher auf GPUs

Soweit versteht es Cook, Hevioso, du und ich auf jeden Fall. Ich habe nicht für das ganze Forum reden wollen.

Die Unterschiede bestehen gewiss. Die Zugriffszeiten, Latenzen, die Signalverarbeitung unterscheiden sich sicher, um so hohe Taktraten zu erreichen. Nur mehr Fehler werden sie sicherlich nicht akzeptieren.
Bei Profi-GPUs werden die Teile ja nicht auf DDR-Level betrieben, falls es der einzige Unterschied sein sollte.

Nun... soooo viel schneller ist GDDR5 im Vergleich zu DDR3 garnicht; bei gleichem Takt sind beide gleich schnell, GDDR3 erreicht (@Standard) derzeit maximal etwa 1500MHz (real) und 3000MHz effektiv, DDR3 ist bei 933MHz (real) und 1866MHz (effektiv). Kaufbarer OC-DDR3 erreicht laut Hersteller 1400/2800MHz, die höchsten Hersteller-OC Taktraten bei GDDR5 liegen soweit ich weiß bei 1575/3150MHz. Soooo viel Unterschied ist da nicht. Die Latenzen/Timings von GDDR sind genauso vom Speichercontroller vorgegeben wie beim DDR sind aber wohl meist zugunsten einer hohen möglichen Taktrate sehr konservativ gewählt, die Timings sind bei VRAM nicht so wichtig.

Eine Quadro K5000 arbeitet übrigens etwa mit 1350/2700MHz, das ist durchaus ein Bereich den man mit DDR3 erreichen kann und jedenfalls deutlich konservativer als bei den Consumer Karten.

Irgendwie dämmert mir langsam, das du den Unterschied zwischen DDR und GDDR "nicht ganz raffst"... (oder) verwechselst du das einfach mit RAM vs. VRAM?

Sowohl DDR3 als auch GDDR5 kann man natürlich bei gleicher Taktrate fast beliebig beschleunigen indem man parallelisiert und das Speicherinterface breiter macht, das macht auch den großen Unterschied bei der Speicherbandbreite von GPUs im Vergleich zu CPUs aus; CPUs haben üblicherweise ein128Bit Speicherinterface (Dualchannel), selten auch 64Bit (Single Channel), 192Bit (Tripple Channel) oder 256Bit (Quadchannel) Speicherinterface, High-End Grafikkarten haben mindestens 256MiB; das ist aber kein prinzipieller Vorteil von GDDR(3).

Ich kann hier natürlich nicht global exakt sagen, dass ein Kepler mit 1TF und einen Durchsatz bei X und ein GCN mit 1TF und dem gleichem Durchsatz bei X, genau so viel Speicherbandbreite benötigen um ihre 100% Leistung zu erreichen, aber ich kann genau sagen, dass die GPUs mit doppeltem theoretischen Durchsatz eine viel höhere Speicherbandbreite benötigen.

Es geht hier weniger um den Vergleich GPUs vs. GPUs sonder vor allem um den Vergleich CPU vs. GPU

Ich weiß nicht was du genau damit sagen willst, läuft auf PC-Hardware die schwächer ist, als Konsolenhardware, aber das gleiche Performance-Level erreicht mit vergleichbarer Hardware ein PC niemals, was es schon etwas daneben ist, denn auf dem PC gibt es keine vergleichbare Hardware zur Konsolen-Hardware.

PC Hardware, die deutlich älter ist als die Hardware der Konsolen würde ich als bestenfalls ebenbürtig bezeichnen.

Fakt ist: Crysis läuft auf einem Mittelklasse PC, der älter ist als die Xbox 360 in mindestens vergleichbarer Grafik.

Oh den DX-Overhead und low-level-programming sollte ich ganz sicher nicht unterschätzen, dass kaschiert natürlich dennoch nicht den Vorteil von modernerer Hardware und deutlich mehr Rechenleistung.
Bei der Next-Gen mit HSA (vielleicht) braucht man dann noch einmal deutlich mehr Rechenleistung um die Vorteile einer Konsole zu kaschieren.

Die angebliche ineffizienz von DirectX wird oft und stark überschätzt, überschätzt wird auch das Optimierungslevel auf den Konsolen, auch dort wird mit bestenfalls sehr wenigen Ausnahmen mit einer API gearbeitet, entweder Open GL oder eine vom Herstellet (im Fall der Xbox 360 ein DirectX 9 Ableger...)

Manuelle Low-Level Programmierung wird auf den Konsolen, da bin ich mir sicher, auch nur sehr sparsam eingesetzt, da das bei einem Softwareprojekt in der Größenordnung eines modernen Spiels nicht viel anders möglich ist.

Optimieren auf dem PC ist zwar ein etwas größerer Aufwand als optimieren auf einer Konsole aber es gibt nicht nur eine Konsole und die Konsolen unterscheiden sich stärker voneinander als (fast) jede denkbare aktuelle Gaming-PC Konfiguration. Wir haben zur Zeit drei verschiedene mehr oder weniger aktuelle Konsolen (Xbox 360, PS3, Wii U), mit jeweils komplett unterschiedlichen GPUs, der CPU der PS3 unterscheidet sich sehr stark von den CPUs von Xbox 360 und Wii U, auch die CPUs von Wii U und Xbox 360 unterscheiden sich noch erheblich. Auch die RAM Aufteilung, Größe und Geschwindigkeit ist stark verschieden.

Soooo viele Grundverschiedene Konfigurationen gibt es bei halbwegs aktuellen Gaming PCs auch nicht:

CPUs:
AMD Phenom II
AMD Bulldozer/Vishera
Intel Core i5/i7
(Leistungsfähige min. Quadcores mit dem selben Befehlssatz -bis auf AVX und SSE4a-, L3 Cache usw; nach Möglichkeit sollte auf eine gute und flexible Paralellisierbarkeit geachtet werden)

RAM:
Min. 8GiB DDR3; das ist zwar nicht in jedem Gaming PC vorhanden angesichts der mickrigen Speicherpreise kann man aber Aufrüstbereitschaft erwarten

GPU: DirectX 11 kann man heute als gegeben vorraussetzen, auch 1GiB VRAM kann man vorraussetzen (zum Vergleich; wer Farcry spielen wollte brauchte damals auch zwingend eine DX9 GraKa, DX9 GraKas gab es damals erst knapp zwei Jahre
nVidia Fermi-Serie
nVidia Kepler-Serie
AMD RV800/900 Serie (relativ ähnlich)
AMD RV1000 (GCN)

Wenn man die Mindestanforderungen hoch genug ansetzt und einen ähnlichen Aufwand investiert wie er auch auf den Konsolen üblich ist kann man viel erreichen. Auch mit geringeren Mindestanforderungen kann man gut optimieren allerdings lastet das Spiel dann High-End PCs nicht aus, zumindest in Sachen RAM und CPU.
 
Zuletzt bearbeitet:
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Nun... soooo viel schneller ist GDDR5 im Vergleich zu DDR3 garnicht; bei gleichem Takt sind beide gleich schnell, GDDR3 erreicht (@Standard) derzeit maximal etwa 1500MHz (real) und 3000MHz effektiv, DDR3 ist bei 933MHz (real) und 1866MHz (effektiv). Kaufbarer OC-DDR3 erreicht laut Hersteller 1400/2800MHz, die höchsten Hersteller-OC Taktraten bei GDDR3 liegen soweit ich weiß bei 1575/3150MHz. Soooo viel Unterschied ist da nicht. Die Latenzen/Timings von GDDR sind genauso vom Speichercontroller vorgegeben wie beim DDR sind aber wohl meist zugunsten einer hohen möglichen Taktrate sehr konservativ gewählt, die Timings sind bei VRAM nicht so wichtig.

Eine Quadro K5000 arbeitet übrigens etwa mit 1350/2700MHz, das ist durchaus ein Bereich den man mit DDR3 erreichen kann und jedenfalls deutlich konservativer als bei den Consumer Karten.

Irgendwie dämmert mir langsam, das du den Unterschied zwischen DDR und GDDR "nicht ganz raffst"... (oder) verwechselst du das einfach mit RAM vs. VRAM?
Ich verstehe überhaupt nicht wieso du DDR3 in Relation zu GDDR3 stellst und nicht DDR3 zu GDDR5?
Woher leitest du gerade überhaupt ab, dass ich den Unterschied zwischen DDR und GDDR nicht verstehe?

PC Hardware, die deutlich älter ist als die Hardware der Konsolen würde ich als bestenfalls ebenbürtig bezeichnen.

Fakt ist: Crysis läuft auf einem Mittelklasse PC, der älter ist als die Xbox 360 in mindestens vergleichbarer Grafik.
3.2 Ghz Xenon mit 128-Bit VMX Einheiten und 128 Registern, einer USA GPU und 10mb eDRAM soll auf einem Mittelklasse PC, der älter(!) ist als die Xbox 360 mit schönem DX9 Overhead, weil da gibt es schon einen sehr schönen für die CPU, mit mindestens vergleichbarer Grafik Crysis stemmen können?

Die angebliche ineffizienz von DirectX wird oft und stark überschätzt, überschätzt wird auch das Optimierungslevel auf den Konsolen, auch dort wird mit bestenfalls sehr wenigen Ausnahmen mit einer API gearbeitet, entweder Open GL oder eine vom Herstellet (im Fall der Xbox 360 ein DirectX 9 Ableger...)

Manuelle Low-Level Programmierung wird auf den Konsolen, da bin ich mir sicher, auch nur sehr sparsam eingesetzt, da das bei einem Softwareprojekt in der Größenordnung eines modernen Spiels nicht viel anders möglich ist.
Der Overhead ist auf jeden Fall groß genug. Er ist ja auch je nach Stelle variabel und zwackt mal kaum und mal viel Performance ab.
Pauschal 30-100% durfte ich schon lesen, Carmack hat da auch schon paar mal geplaudert und bei AMD hat sich ja von einiger Zeit sich auch jemand über die API beschwert und was möglich ohne wäre.
Einer der Hauptwünsche bei DX10 war die Verringerung des CPU-Overheads und das ist auch geschehen und auf einer Konsole gar nicht präsent.
OpenGL direkt verwendet keine Konsole, bei der PS3 frickelt sich scheinbar jeder Dev seine Custom-API zusammen mit einem Set aus low-level-zugriffen, high-level-abstraktionen etc.
Ähnlichkeiten zu OpenGL sind sicher gegeben, da man einige Sachen davon auch wohl mehr oder weniger direkt übernommen hat, aber heavy-custom soll das Zeug angeblich sein.
Die Xbox hat einen speziell angepasstes DX, welcher viele low-level Möglichkeiten zur Verfügung stellt und natürlich das herausholt, was die Konsole liefern kann und das ist mehr als das Featurelevel 9 auf dem PC.

Optimieren auf dem PC ist zwar ein etwas größerer Aufwand als optimieren auf einer Konsole aber es gibt nicht nur eine Konsole und die Konsolen unterscheiden sich stärker voneinander als (fast) jede denkbare aktuelle Gaming-PC Konfiguration. Wir haben zur Zeit drei verschiedene mehr oder weniger aktuelle Konsolen (Xbox 360, PS3, Wii U), mit jeweils komplett unterschiedlichen GPUs, der CPU der PS3 unterscheidet sich sehr stark von den CPUs von Xbox 360 und Wii U, auch die CPUs von Wii U und Xbox 360 unterscheiden sich noch erheblich. Auch die RAM Aufteilung, Größe und Geschwindigkeit ist stark verschieden.
Es sind 3 mehr oder weniger grundverschiedene Systeme, wobei Xbox 360 und Wiiu sich sehr ähnlich sind, aber sicherlich auch mehr als genug unterscheiden, dass war's dann aber auch "schon".
Bei einem PC hast du ja eine praktisch unbegrenzte Skalierungsbandbreite von Laptop bis hin zur reinen Gamingmaschine.
Das macht es natürlich auch nicht schön für einen Dev.
SSE4 benützen? Haha, AMD hat das leider nicht, oh jetzt hat es AMD, am besten FMA4 benützen, ohh leider hat Intel das nicht usw. usf.
Bei den CPUs bist du natürlich stark eingeschränkt und musst 3 Jahre zurück und mehr schauen, falls dein Game auf genug Rechnern laufen soll und du genug Menschen ansprechen kannst.
Das gleiche bei DX9,10 und 11. 2-3 Renderpfade zu unterstützen macht auch keinen Spaß.
Keine Frage, man kann Kompromisse finden, man kann verschiedene Profile und Patches bereit stellen, man kann viel abdecken, aber das ist leider nicht die Realität in der wir leben, wo Zeit, Geld und Lust bei vielen Publishern limitiert.
 
Zuletzt bearbeitet:
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Na ja... Man kann Chips schon recht groß machen; wenn die Konsolen einen richtigen Monsterchip bekämen dann wäre einiges möglich, auf den ~600mm² eines GK110 wäre etwa genauso gut ein GK104 und ein CPU Teil in der Größenordnung eines Sandy Bridge Quadcore möglich.

Allerdings wäre ein solcher Chip teuer und stromhungrig. Beides Sachen, die für eine Konsole nicht gewünscht sein dürften.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Mich würde interessieren, ob Konsolen mit "hohem" Stromverbrauch in Ordnung wären, wenn man das Teil anständig und leise kühlen könnte? Oder DARF eine Konsole lt Entwickler keinen hohen Verbrauch aufweisen?
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Mich würde interessieren, ob Konsolen mit "hohem" Stromverbrauch in Ordnung wären, wenn man das Teil anständig und leise kühlen könnte?

Na ja, Sony ist seinerzeit schon ziemlich für den hohen Stromverbrauch der PS3 kritisiert worden.
Wobei Verbrauch und Kühlung halt immer ein Problem bei einer Konsole sind, denn die Gehäuse sind sehr kompakt (Wohnzimmertauglichkeit) und dementsprechend die Kühlmöglichkeit extrem eingeschränkt.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Na ja, Sony ist seinerzeit schon ziemlich für den hohen Stromverbrauch der PS3 kritisiert worden.

Kritisieren tun da aber nur ein Bruchteil. In richtigen Tests würde die PS4 natürlich ein Manko bekommen, wenn sie im Vergleich zur XBox 50 Watt mehr verbrauchen würde. Allerdings fraglich ob das den Kunden stören würde, wenn dies bezüglich bessere HW verbaut ist.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Kritisieren tun da aber nur ein Bruchteil. In richtigen Tests würde die PS4 natürlich ein Manko bekommen, wenn sie im Vergleich zur XBox 50 Watt mehr verbrauchen würde. Allerdings fraglich ob das den Kunden stören würde, wenn dies bezüglich bessere HW verbaut ist.

Das dürfte den meisten Kunden wohl wirklich egal sein, denke ich, wenn die Konsole dann wirklich leise ist.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Locuza schrieb:
Ich verstehe überhaupt nicht wieso du DDR3 in Relation zu GDDR3 stellst und nicht DDR3 zu GDDR5?
Woher leitest du gerade überhaupt ab, dass ich den Unterschied zwischen DDR und GDDR nicht verstehe?

Tu ich nicht, ich hab nur ein mal GDDR3 geschrieben, das war ein Tippfehler...

Das du den Unterschied zwischen DDR und GDDR nicht verstehst leite ich daraus ab, das du ihn anscheinend überschätzt.

Locuza schrieb:
3.2 Ghz Xenon mit 128-Bit VMX Einheiten und 128 Registern, einer USA GPU und 10mb eDRAM soll auf einem Mittelklasse PC, der älter(!) ist als die Xbox 360 mit schönem DX9 Overhead, weil da gibt es schon einen sehr schönen für die CPU, mit mindestens vergleichbarer Grafik Crysis stemmen können?

Was willst du damit sagen?

Ja, ein gehobener Mittelklasse-Gaming PC, der älter (ein wenig) ist als die Xbox 360 schafft Crysis mit vergleichbarer Grafik.

Locuza schrieb:
Der Overhead ist auf jeden Fall groß genug. Er ist ja auch je nach Stelle variabel und zwackt mal kaum und mal viel Performance ab.
Pauschal 30-100% durfte ich schon lesen, Carmack hat da auch schon paar mal geplaudert und bei AMD hat sich ja von einiger Zeit sich auch jemand über die API beschwert und was möglich ohne wäre.

30-100% von was?

Locuza schrieb:
Einer der Hauptwünsche bei DX10 war die Verringerung des CPU-Overheads und das ist auch geschehen

Ja... wir reden auch von DX11/11.1, alles andere ist veraltet.

Locuza schrieb:
OpenGL direkt verwendet keine Konsole, bei der PS3 frickelt sich scheinbar jeder Dev seine Custom-API zusammen mit einem Set aus low-level-zugriffen, high-level-abstraktionen etc.

Ich bezweifle das sich jeder Engine- geschweige denn Enging Entwickler eine eigene API zimmert, der Aufwand wäre viel zu groß.

Locuza schrieb:
wobei Xbox 360 und Wiiu sich sehr ähnlich sind

Naaaa ja...

Die CPUs sind zwar beides PPC CPUs mit drei Kernen, abgesehen davon unterscheiden sie sich aber sehr stark. Die Wii U hat abgesehen davon doppelt so viel RAM, der aber langsamer angebunden ist und die GPU dürfte sich überhaupt sehr stark unterscheiden.

Viel größere Unterschiede findet man zwischen zwei (aktuellen, Gaming-) PCs auch nicht.

Locuza schrieb:
Bei einem PC hast du ja eine praktisch unbegrenzte Skalierungsbandbreite von Laptop bis hin zur reinen Gamingmaschine.
Das macht es natürlich auch nicht schön für einen Dev.

Das ist nicht so schlimm; man muss einfach die Mindestanforderungen hoch genug ansetzen; wenn man sie aus irgendeinem Grund niedriger Ansetzen will ist das auch kein Problem, dann werden High-End Systeme eben nicht voll ausgereizt, zumindest in Sachen CPU/RAM.

Locuza schrieb:
und musst 3 Jahre zurück und mehr schauen, falls dein Game auf genug Rechnern laufen soll und du genug Menschen ansprechen kannst.

Da bin ich anderer Meinung: wer aktuelle Spiele spielen will sollte auch aktuelle (Gaming-) Hardware benutzen. Wer keine aktuelle Gaminghardware benutzt hat ja genug ältere Spiele zur Auswahl.

Mehr als drei Jahre alte Hardware muss man nicht unterstützen, siehe Crysis.

Cook2211 schrieb:
Allerdings wäre ein solcher Chip teuer und stromhungrig. Beides Sachen, die für eine Konsole nicht gewünscht sein dürften.

Ja, Konsolenhardware ist keine High-end Hardware; nicht weil es nicht möglich ist sondern weil es nicht wirtschaftlich ist.

Cook2211 schrieb:
Na ja, Sony ist seinerzeit schon ziemlich für den hohen Stromverbrauch der PS3 kritisiert worden.
Wobei Verbrauch und Kühlung halt immer ein Problem bei einer Konsole sind, denn die Gehäuse sind sehr kompakt (Wohnzimmertauglichkeit) und dementsprechend die Kühlmöglichkeit extrem eingeschränkt.

Wenn man will... und Geld keine Rolle spielt... geht viel, in einem Gehäuse wie dem der Ur-Xbox 360 könnte man mit *geeigneten Maßnahmen* sicher 500W+ bei vergleichbarer Lautstärke abführen.

Die Kosten limitieren die Leistung der (zukünftigen) Konsolen, nicht die technischen Möglichkeiten; die Hersteller werden insbesondere auch versuchen die Subventionen möglichst klein zu halten oder möglichst komplett darauf zu verzichten.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

Viel wichtiger als die neueste Technik und der Stromverbrauch sind die Spiele selbst.
Ich werde noch lange auf der Xbox 360 zocken und die riesige (+sehr gute) Spiele-Bibliothek ausnutzen welche die MS-Konsole über die Jahre angesammelt hat.
Da gibts noch so viel nachzuholen. Ob die neue Box nun technisch an einen PC rankommt oder nicht ist mir ehrlich gesagt wurscht, man sieht ja dass es am PC
kaum Spiele gibt welche die Technik auch nur annähernd ausreizen. Die neuesten Grafikkarten und CPUs werden ans Limit gepeitscht mit übertriebenen AA-Filter,
DX11-Effekten oder diversen Lichtspielchen. Wirklich großen Unterschied sieht man zu den mitterweile 7 Jahre alten Konsolen kaum. Ein echtes Armutszeugnis.
 
AW: Xbox 720 und Playstation 4: Crytek-CEO spricht sich für viel RAM aus

RAM ist doch billig wie nie....verstehe das nicht :schief:. Muss ich aber auch nicht, bin und bleibe PC´ler.

dem stimm ich zu (währe ja dafür, das sich die hersteller von PC-Spielen gegen konsolen aussprechen würden - vor allem weil die hardware bei den meisten spielern eben aufgerüstet wird (d.h. nicht so schnell "altert" und dann mehr oder minder komplett obsolet wird wie es im moment mit der konsolenhardware ist, welche veralteter ist als die zeitung von gestern))

mfg LAX
ps: bleibe deshalb auch beim PC (hab momentan mehr als genug RAM :)
 
Zurück