Carmack: Entwickler sind faul und warten nur auf immer schnellere Hardware

Ja, das waren noch zeiten, wo man aus Knappheit an Ressourcen versucht hat, alles rauszuholen.

Dank x-Kerne und x-GB an RAM ist das leider nicht mehr nötig und dank Highspeed Internet auch da nicht mehr nötig auf Größe zu achten. Qualität und Reinheitsgebote werden nicht mehr beachtet. :daumen2:
 
Ja, das waren noch zeiten, wo man aus Knappheit an Ressourcen versucht hat, alles rauszuholen.

Dank x-Kerne und x-GB an RAM ist das leider nicht mehr nötig und dank Highspeed Internet auch da nicht mehr nötig auf Größe zu achten. Qualität und Reinheitsgebote werden nicht mehr beachtet. :daumen2:

Bei der Größe der Spiele bin ich aber auf der anderen Seite.
Die sollen so groß sein wie nötig, komprimieren ist aktuell überflüssig. Das einzige was "nervt" ist halt die SSD wenn die zu klein ist, alles andere - kein Thema.
Ich halte 100GB für angemessen und 200GB als den nächsten "Meilenstein" was ein komplettes Spiel mit DLC angeht. Werden wir bald haben :D
 
Carmack: Entwickler sind faul und warten nur auf immer schnellere Hardware

Einsicht ist der erste Schritt... :devil:
 
Bei der Größe der Spiele bin ich aber auf der anderen Seite.
Die sollen so groß sein wie nötig, komprimieren ist aktuell überflüssig. Das einzige was "nervt" ist halt die SSD wenn die zu klein ist, alles andere - kein Thema.
Ich halte 100GB für angemessen und 200GB als den nächsten "Meilenstein" was ein komplettes Spiel mit DLC angeht. Werden wir bald haben :D

SSD Technik ist halt noch zu teuer. Ein gesunder Mittelweg wären SSHDs. Vor allem, wenn die Software und Betriebssysteme diese entsprechend ansteuern. Noch 2016 hatte Seagate eine 1TB 2,5" SSHD mit 32 GByte NAND und 9mm Dicke im Sortiment. Nun gibt es eine 2TB 2,5" SSHD, die nur 7mm dick ist, jedoch wieder nur 8 Gbyte NAND besitzt wie das 2015er Modell. Und im 3,5" ist es derzeit dürftig. Wo es 2015 noch SSHDs mit 4TB gab, werden heute nur 2TBs angeboten. Evtl. ist das aber wieder so ne Marktgeschichte. Erst mal nur mit dem Halbgaren Kasse machen, und 1-2 Jahre später das "Richtige" nachschieben.
 
Zuletzt bearbeitet von einem Moderator:
Der Xenon (IBM) wurde in der X360 als CPU verwendet. Die GPU hieß Xenos und stammte von ATI...Also zwei verschiedene Paar Schuhe.
Mannometer, genau darum gings doch.:wall:
Ließt du eigentlich schon die Posts, auf die du antwortest?:what:
Nochmal:
Xenon = CPU, die mit 77-115 GLFOP/s
Xenos = GPU, die mit 240 GFLOP/s

Du sprachst aber von der Xenos mit 77 GFLOP, was ich ja mit meinem Post zu korrigieren versucht habe.:klatsch:
„Nö, überhaupt nicht!“
Und wieder nochmal::ugly:
Die GPUs der XBox 360 und PS3 kannst du auf rein technischer Seite nicht mit einander vergleichen. Ganz unterschiedliche Architekturen, da von verschiedenen Entwicklern...
 
Zuletzt bearbeitet:
Mannometer, genau darum gings doch.:wall:
Ließt du eigentlich schon die Posts, auf die du antwortest?:what:
Nochmal:
Xenon = CPU, die mit 77-115 GLFOP/s
Xenos = GPU, die mit 240 GFLOP/s
Du sprachst aber von der Xenos mit 77 GFLOP, was ich ja mit meinem Post zu korrigieren versucht habe.:klatsch:
Und wieder nochmal::ugly:
Die GPUs der XBox 360 und PS3 kannst du auf rein technischer Seite nicht mit einander vergleichen. Ganz unterschiedliche Architekturen, da von verschiedenen Entwicklern...

Du liest nicht!
Ich sprach beides an, zuerst die CPUs -ergo den Xenon im Vergleich zum CELL...bei der bei der PS3 durchaus mehr los ist. Dann kam ich auf die GPUs zu sprechen,...die sich beide einander eben nicht sehr viel geben. Die Xbox (Xenos) hat ein paar Transistoren mehr, dafür hat die PS3 (RSX) u.a. besseren Grafikspeicher.

Ja, die Architektur beider Konsolen ist anders. Das war vorher auch schon klar. Aber unterm Strich ist eben bei der PS3 mehr rauszuholen, solange die Entwickler die gegebene Hardware (nach Carmack) auch ihrer Art nach entsprechend nutzen...taten sie meist jedoch nicht. Und das Argument war dem gewidmet, der meinte dass die PS3 ne miese Konsole gewesen ist. Aber was kann die Hardware dafür, dass sie nicht entsprechend bedient wird. Miese Programmierer trifft es eher.

Steigst Du jetzt durch?
 
Zuletzt bearbeitet von einem Moderator:
Die Frage ist eher, ob DU durchsteigst:

Der Xenos liegt bei 77 GFlops laut Wiki. Und die Angaben finden sich auch anderswo. Die GPU der X360 wurde von auf 240 hochgeschraubt, dabei ist sie mit der PS3 GPU etwa vergleichbar.

Siehst du jetzt den Fehler?;)
DU hast also offenkdundig den Xenos mit dem XenoN verwechselt. Oder du hast die Buchstaben ducheinander gebracht. Eins von beidem.
 
Die Frage ist eher, ob DU durchsteigst:

Siehst du jetzt den Fehler?;)
DU hast also offenkdundig den Xenos mit dem XenoN verwechselt. Oder du hast die Buchstaben ducheinander gebracht. Eins von beidem.

Ja, hab ich mich verschrieben. Der erste Satz bezog sich auf die CPU. Da sollte Xenon stehen. Der dritte Satz bezog sich auf die GPU, und die wurde übrigens eben zuvor nicht mit 240 Gflops bemessen, sondern mit einer kaum höheren Leistungsstärke als der Xenon (90 Gflops).

Egal wie rum, ändert alles nichts daran, dass mit der PS3 bescheiden gearbeitet wurde.
 
Diese GFLOP-Zahl für den Xenos.

Das war bis etwa letztes Jahr auf Wikipedia zu lesen, bis einer alle Einträge inkl. zur PS3 komplett über den Haufen geworfen hat. Bis dahin konnte man dort auch den Polygon-Count bei beiden Konsolen nachlesen. Bei dem kommt der GPU der Xbox 360 nun auf satte 500 Millionen. Vorher waren es nicht mal 100 Millionen, sondern die Zahl lag im unteren achtstelligen Bereich.

Bei der PS3 wurde die Angabe der maximalen Polygonzahl (die war neunstellig) entfernt. Der XDR-Ram der PS3 taktet dafür jetzt bei 400 MHz...3,2 GHz sollten es jedoch sein.
 
Zuletzt bearbeitet von einem Moderator:
Beim RSX stand auch mal was von 400 GFLOP. Diese Angabe stammte aber von Nvidia und war so hoch gegriffen, dass sogar Nvidia selber diesen Wert nach unten korrigierte. 192 GFLOP ist in etwa das, was in der Praxis eine vergleichbare GeForce-Grafikkarte dieser Generation erreicht, z.B. 7800 GTX. Theoretisch können die natrülich auch mehr, rein logisch sogar tatsächlich 400, aber aufgrund gewisser technischer Begebenheiten der Architektur wurde dieser Wert in der Praxis nie auch nur ansatzweise erreicht.^^

240 GFLOP beim Xenos erscheinen mir dagegen bei immerhin 48 Unified Shader (der RSX hat nur 24 Pixel + 8 Vertex Shader zusammen mit den Pixel-Pipelines aufgesplittet) durchaus legitim. 80-96 GFLOP hingegen ist eher das, was eine Radeon X1800 XL erreicht aber 1. ohne MUL-Einheit und 2. hat die auch nur 16 + 8 Shader.;)
 
Zurück