Reale Spiele gibs bis jetzt noch nicht

Speicherplatz ist jedenfalls definitiv nicht der limitierende Faktor bei aktuellen Spielen.
(Im Gegenteil, stellenweise wünsch ich mir, die würden mal weniger komprimieren...)
richtig und keine Tapete für die Levels nehmen wie z.B. Resident Evil 4 und 5
finde 5 sieht auf PC nicht gut genug aus selbst im vergleich zu Far Cry High und Crysis auf Mittel
wird wohl Zeit das PC Games auf 2 DVD's oder mehr oder Blue Ray kommen
64 bit und DX 11 sowie 8 GB RAM vorraussetzen um auf Mittel zu laufen, sowie immer 4 CPU Kerne nutzen
 
Über CPU-Leistung und Größe des Installationsmediums kann man sich streiten. RAM sollte imho flexibel und "open-end" sein. Wieso muss ein Level beim neustart neugeladen werden, obwohl ich noch 1 GB im RAM frei habe? Macht keinen Sinn, dass könnte griffbereit liegen.

Worauf ich aber eigentlich hinauswollte, sind die Ladezeiten von HDD. Wenn ein z.B. FarCry Level in 20 Sekunden (ganz grobe Schätzung, lange nicht gespielt) lädt, auf der Festplatte aber nur 40MB hat (inkl. aller level-spezifischen Daten), dann hat der Designer die Balance bei der Komprimierung vollkommen falsch angesetzt. Denn eigentlich ließen sich die vorliegenden Daten in weniger als einer Sekunde übertragen, die CPU braucht anschließend aber noch 19 Sekunden, um sie zu entpacken. Würde man weniger komprimieren und ein bißchen mehr Festplattenplatz nutzen (auf denen ist im Zeitalter von 2TB-Platten eigentlich nie zuwenig Platz für Spiele), könnte der Ladevorgang vielleicht in 5 Sekunden erledigt sein.
 
ja da sind wir aber bei dem problem : nicht jeder hat soviel speicher und das geld sich extra für ein 50€ game noch ne 50€ platte zu holen ...

das fraunhofer institut wollte allen mal einreden das man den unterschied von 64kbit zu 128kbit nicht hören könne ( sagte ein kumpel mal ) ... ja klar :lol: !

btt : spiele auf bd wäre echt mal schön denn für die ps3 gibts das ja auch schon ... da könnte man dann zum beispiel hd texture packs beilegen und so ...
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube die Spieleentwickler wissen nicht wie sie die Grafik noch verbessern können oder irgendwie den Spielspaß erhöhen können und modden irgendwelche spiele nur mit etwas kleinen auf (wie als lächerlichiges Beispiel: ein hamburger mit Käse heißt auch plötzlich Cheeseburger :D) also sie sind gerade in einer Zwickmühle und wissen nicht weiter, weil 2009 in sache Spiele wirklich versagt hat in meinen Augen und DirectX 11 hat mich bis jetzt nich sehr beeindruckt.

Was meint ihr?
 
Zuletzt bearbeitet:
Intel hat ein Schritt für die "Reale Spiele" geschafft, denn sie hat ein 48 Kern CPU erfunden, der noch einen neuen Grundbaustein für diesen gibt. Durch die vielen Cores kann man es doch schaffen das "Reale Spiel" zu erstellen oder?
 
Intel hat ein Schritt für die "Reale Spiele" geschafft, denn sie hat ein 48 Kern CPU erfunden, der noch einen neuen Grundbaustein für diesen gibt. Durch die vielen Cores kann man es doch schaffen das "Reale Spiel" zu erstellen oder?

Ich verweiße auf diesen Link: Zu viele Prozessor-Kerne machen Computer langsam - Network Computing

Scheint nicht so als würde der jetzige 48Kerner auf einen Grünen Ast kommen ;)

Wobei ich auch Glaube, das wenn diese Probleme behoben werden, die Richtung in immer mehr Kerne über geht. Aber wie im Link geschrieben, ergibt das auch wieder neue Probleme.
 
Naja dazu kommen denk ich viele limitierende Gründe, warum es noch nicht möglich wäre diese Datenmengen zu bewältigen um ein "reales" Spiel zu simulieren.
 
Intel hat ein Schritt für die "Reale Spiele" geschafft, denn sie hat ein 48 Kern CPU erfunden, der noch einen neuen Grundbaustein für diesen gibt. Durch die vielen Cores kann man es doch schaffen das "Reale Spiel" zu erstellen oder?

Das Dingens ist aber primär für Cloud Computing gedacht (Cluster-on-a-chip). Ähnelt wohl dem P55C (Pentium in der MMX-Version...). Ich glaube nicht, dass man das für Grakas benutzen kann, da die IA-32 kompatibel sind (also x86). Und IA-32 ist bekanntlich nicht für Grafikberechnung geeignet :D
(Kann sich noch wer an Software-Rendering erinnern? :ugly:)
 
naja selbst wenn erst mal muss ein spiel soviele kerne nutzen können ... und iwann bringen auch sonst wieviele kerne nix mehr ... das stichwort heist hier parallelisierung !
 
Wieso sollen denn noch so viele Kerne nichts bringen. Parallelisierung ist doch genau das was uns auf viele Kerne bringt. Theoretisch könnte man doch dann her gehen und von jeder CPU ein Programm berechnen lassen. Hat man x Programme am laufen, hat man einfach x cores die nun diese x programme berechnen.
So hätte theoretisch jedes Programm einen Core den er voll und ganz nutzen könnte. Das wäre dann auch echtes Multitasking. Uns wird ja immer nur vorgegaugelt alles würde gleichzeitig ablaufen.

Wie ist eigentlich eine GPU aufgebaut? Wäre es da auch möglich mehere cores drauf zu packen? Also auf einen "Sockel". Bis jetzt ist es doch so das einfach der gleiche Chip nochmal auf die graka gesetzt wird um mehere gpus auf einer graka zu haben.
 
Die "Core"-Definition von CPUs (die ohnehin nicht ganz klar ist) lässt sich nur schwer auf GPUs übertragen. Am nahesten kommt die Sichtweise, dass jeder unabhängige shader-Prozessor ein eigenständiger Kern ist, demnach besitzen aktuelle GPUs bereits viele 100 Kerne. Da die Zahl der Sockel bei Multi-DIE-Systemen keinen großen Unterschied macht und die Zahl der Sockel bei Grafikkarten per Definition=0 ist, gibt es keine engere Integration mehrerer Chips auf einer Karte, als derzeit praktiziert wird.
Es wird zwar immer wieder von Plänen gesprochen, idealerweise nur noch einen Chip zu haben und die einzelnen Modelle alleine durch die Zahl der Chips zu trennen, aber in der Praxis scheitert das an der hohen Anzahl von sich gegeneinander beeinflussenden Elementen im Rendering-Prozess, die ein extrem hohes Datenaufkommen zwischen den einzelnen Recheneinheiten bedingen. Innerhalb eines Chips kein Problem, aber bekanntermaßen bereits zwischen zwei GPUs mit großen Nachteilen behaftet und bei vier GPUs eine mittelschwere Katastrophe, was die Skalierung angeht.
In nächster Zeit wird wohl keiner der Hersteller die Zahl der GPUs pro Karte steigern, sondern weiterhin an der Zahl der Einheiten pro Chip arbeiten.

Bezüglich Parallelisierung:
Ich denke, Havenger wollte andeuten, dass genau diese bis auf weiteres nur sehr eingeschränkt möglich ist und somit die Zahl der in Spielen nutzbaren Kerne stark einschränkt. Da interagiert das Problem der bereits oben genannten Kommunikation (sicher: Man könnte z.B. die Physik jedes Objektes von einem Kern berechnen lassen. Aber wie werden dann Kollisionen berücksichtigt?) als auch die Verwaltung eine Rolle. Denn im Gegensatz zu z.B. dem Rendering eines Bildes, das aus einzelnen Elementen besteht, die hinterher leicht zusammengefügt werden können, ist ein Spiel zwingend darauf angewiesen, dass alle Elemente der Spielwelt zu jeder Zeit zueinander passen.
Lasse ich die aber alle getrennt voneinander berechnen, muss ich sehr viel Rechenleistung aufbringen, um alle Berechnungen zu vereinigen und zu koordinieren.
Und diese Aufgabe kann ich wiederum nur schwer auf mehrere Kerne verteilen -> ich habe automatisch eine sehr hohe Last auf einem Kern, der dann eh alles limitiert.
 
Zurück