Square-Enix-Chef glaubt, dass PS3, Xbox 360 und Wii bereits am Aussterben sind

Ganz zu schweigen von der Infrastrucktur, wie jemand schon erwähnt hat, müsste ein massiver ausbau an Servern stattfinden, was der Umwelt super zu gute kommt.
Zum anderen wie soll dann der Inhalt bezahlt werden und zum anderen will ich nicht, dass irgend jemand ungebeten weiß was ich Spiele, denn das geht keinem was an - Außer ich schließe mich einer Community an.

Da es aber quatsch ist solche langfristige Prognosen anzustellen, kann man diese Aussagen getrost mit einem Augenzwinkern hinnehmen.
 
Naja, so lässt sich Crysis auf OnLive zocken (via Streaming).
https://www.youtube.com/watch?v=<object width="660" height="405"><param name="movie" value="http://www.youtube.com/v/6Lqkz5UJHbY&hl=de_DE&fs=1&color1=0x006699&color2=0x54abd6&hd=1&border=1"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/6Lqkz5UJHbY&hl=de_DE&fs=1&color1=0x006699&color2=0x54abd6&hd=1&border=1" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="660" height="405"></embed></object>
 
Das scheitert außerdem derzeit noch an zu vielen Dingen wie Bandbreite, Ping ..... und hat hier mal jemand überlegt, was man da für gigantische Rechenzentren bräuchte ?!


Ernsthaft! Man gehe mal von 20.000 Kunden aus, die gleichzeitg Crysis zocken wollen, man braucht für die versprochene Full-HD-Auflösung damit erst mal 20.000 HD5870er für die reine Grafikberechnung (plus alles, was sonst noch so "benötigt" wird für die Berechnung des Spiels, also Unmengen RAM, CPUs ...), dann müssen die Videosignale noch stark komprimiert werden um halbwegs fix durch die Leitung zu passen (1080p Flash mal als Beispiel >_< aua), diese Komprimierung dürfte auch noch mal EINIGES an CPU-Kraft erfordern, möchte man nicht endlose Terbit in Netz streamen ....

Das mag sich so konzentriert nach viel anhören, aber unterm Strich ist es wenig, im Vergleich zu dem, was man bei zentraler Installation braucht. Die meisten Leute spielen nur ein paar Stunden pro Tag, d.h. bei einem weltweiten Dienst könnten deine 20.000 HD5870er Crysis für 30-40.000 Spieler ermöglichen, weil du bei so großen Zahlen immer einen erheblichen Teil hast, der das Spiel gerade nicht nutzt. Bei Multiplayer-Games könnten in Zukunft sogar spezielle Cluster entwickelt werden, die die komplette Spielwelt berechnen und dann nur noch für jeden einzelnen Spieler die Perspektive abtasten müssen -> nach der Grundinvestition ist der zusätzliche Rechenaufwand für einen einzelnen Spieler nicht größer, als für eine reflektierende Oberfläche in einem konventionellen Spiel.
Der Rechenbedarf von Komprimierung ist auch zu bewältigen. Wenn man spezialisierte Chips hat, ist eine encoding Einheit i.d.R. nicht komplexer, als ein Dekodierer und die z.B. in Blue-Ray-Playern verwendeten Chips oder auch die (nicht so hoch spezialisierten) Einheiten auf ATI-Grafikkarten sind nun wirklich keine Monster.

Bandbreite ist auch kein großes Problem, 10-15 MBit/s reichen für 1080p inkl. 5.1 bequem aus und sind in Europa und USA bereits verbreitet (in Asien der Steinzeit zugerechent), in 10 Jahren (und um diese Zeiträume gehts hier) sind vermutlich im GBit Bereich. (Vor 10 Jahren träumten die meisten jedenfalls noch von Dual-ISDN mit 128kbit/s)
Wenn ich an remote-Anwendungen und Thin Clients denke, kommt man auch noch mit deutlich weniger aus. (ich kann hier jedenfalls problemlos in 1600x1200 via I-Net arbeiten und meine 2 MBit sind nicht annähernd ausgelastet)

Was aber definitiv ein Problem bleibt, ist der Ping. 30-40ms mögen okay sein, wenn es die Verzögerung zwischen der Handlung eines Gegners und der Darstellung der selben ist.
Aber 30-40ms zwischen der Eingabe und der Ausgabe? Da ist eine schlechte Funkmaus + SLI/CF nichts dagegen. Ich klicke schon bei 2D-Remote-Anwendungen gehäuft daneben, für Shooter definitiv keine Option. Auf der anderen Seite geht es aber auch um eine Alternative zu Konsolen - und zielgenauer, als mit einem Gamepad, ist man auch so.


Fazit:
Warum es diese gute Idee nicht schaffen wird, Konsolen zu ersetzen, sind vermutlich die Konsolenhersteller selbst. Oder glaubt ihr, die haben Interesse daran, einen Kasten auf den Markt zu bringen, der auch in 20 Jahren noch nicht veraltet und den gesamten Rest den Spieleentwicklern&-hostern zu überlassen?
Eben. Das wäre in etwas so, als wäre Win8 nur noch ein Kernel, der es einem ermöglicht, ganz nach Wunsch GUIs und Applikationen nachzuladen.
 
Was redet ihr hier? Das ist doch absoluter schwachsinn! :what:

Hier muss überhaupt nicht darüber diskutiert werden wie das über einen Netcode vollzogen werden könnte... Das was dieser Mann da prognostiziert, setzt vorraus das sowohl Eingabe als auch Ausgabe über übers Internet angebundene Hardware erfolgt... Ich weiß zwar nicht was der Typ geraucht hat, aber es muss heftig gewesen sein!


Mal ganz davon abgesehen welch eine Internet Anbindung dann ein Nutzer dessen haben müsste bei den Anforderungen, was glaubt ihr müsste ein Server leisten können und für eine Anbindung besitzen um solchen Datenvolumen gerecht zu werden? Und welche Firma soll sich sowas leisten können?

Insofern können nur Browsergames gemeint sein. Und diese sollen den aktuellen Spielemarkt in seiner Beliebtheit ablösen? Ja ne is klar!

Ist doch logisch :klatsch: würden dann doch ware Industriegiganten die Pforten schließen müssen da sie überflüssig werden würden! :schief:

Nix für ungut, aber ein Prophet vom Kaliber Nostradamus ist der Kerl sicherlich nicht!
 
Ihr vergesst eine wesentliche Sache. Ihr meint, der Grafikhunger werde ungebrochen weiter gehen. Dabei zeichnet sich jetzt schon ab, dass das bald ein Ende haben wird. Grafik ist so gut, dass sie nicht unbedingt verbessert werden muß. In 10 Jahren, und davon spricht der Kerl im Interview, wird das noch wesentlicher sein. Eine CPU wird euch 10mal das Crysis von übermorgen berechnen. Die Hardware wird nicht das Problem werden. Des weiteren ist es per Netcode heute schon möglich, und bereits in Entwicklung. GTA4 im Stream über das Internet. Kein Problem. Das ganze steckt jetzt schon nicht mehr in den Kinderschuhen. Die Annahme, dass das in 10 Jahren den Markt regiert, ist nur die logische Schlußfolgerung.

Aber keine Angst, mir fällt es auch schwer, mich von meinem überzüchteten Rechner zu trennen. Irgendwann wird das aber, so ungern wir es auch wahr haben wollen, passieren.
 
Der erste Teil des Textes klingt für mich sehr einleuchtend, ob nun in 10 oder erst in 15 Jahren ist sicher schwer zu sagen.

Aber der vorletzte Satz, das man sich verstärkt auf Social- und Browsergames konzentriert, ist ein Alptraum. :daumen2:
Ich kann diesem ganzen MMO-Quatsch nichts positives abgewinnen.
 
Was redet ihr hier? Das ist doch absoluter schwachsinn! :what:
Ich weiß zwar nicht was der Typ geraucht hat, aber es muss heftig gewesen sein!http://de.wikipedia.org/wiki/Nostradamus


Ich würde einen Menschen der Profitabel ein Multi Millionen Dolla Unternehmen leitet nicht als Schwachmaten bezeichnen. ;)

Weiterhin kann ich euch auch sagen was Microsoft und Sony dazu sagen würden...

Danke !!!

Denn keine der Beiden Konsolen hat bis heute schwarze zahlen geschrieben.
Es ist und bleibt ein Verlust Geschäft.
 
Das mag sich so konzentriert nach viel anhören, aber unterm Strich ist es wenig, im Vergleich zu dem, was man bei zentraler Installation braucht. Die meisten Leute spielen nur ein paar Stunden pro Tag, d.h. bei einem weltweiten Dienst könnten deine 20.000 HD5870er Crysis für 30-40.000 Spieler ermöglichen, weil du bei so großen Zahlen immer einen erheblichen Teil hast, der das Spiel gerade nicht nutzt. Bei Multiplayer-Games könnten in Zukunft sogar spezielle Cluster entwickelt werden, die die komplette Spielwelt berechnen und dann nur noch für jeden einzelnen Spieler die Perspektive abtasten müssen -> nach der Grundinvestition ist der zusätzliche Rechenaufwand für einen einzelnen Spieler nicht größer, als für eine reflektierende Oberfläche in einem konventionellen Spiel.
Der Rechenbedarf von Komprimierung ist auch zu bewältigen. Wenn man spezialisierte Chips hat, ist eine encoding Einheit i.d.R. nicht komplexer, als ein Dekodierer und die z.B. in Blue-Ray-Playern verwendeten Chips oder auch die (nicht so hoch spezialisierten) Einheiten auf ATI-Grafikkarten sind nun wirklich keine Monster.
Das war auch mehr eine Überlegung die in Richtung Kosten/Nutzen für den Betreiber solcher Dienste geht, und letztlich auch die anschließenden Abokosten für einen derartigen Dienst. Es muss ja nicht nur die massierte Infrastruktur irgendwie bezahlt werden, sondern (höchstwahrscheinlich) würde jedes hinzugebuchte Spiel noch ma extra kosten, dass mit dem Dienst gleichzeitig eine Art Spieleflat angeboten wird bezweifele ich.

Im Ernst, was würde das den Spieler letztlich kosten (muss sich für den betreiber ja rechnen)? Da muss man ganz genau auflisten, was dieser Dienst über ~2 Jahre (ungefähre Lebensdauer eines Performance-PCs) kosten würde. Ich für meinen Teil mache bereits einen großen Bogen um die XBox 360, weil ich nicht einsehe für die blanke Möglichkeit eines Multiplayers/Dienstes wie Steam Geld auszugeben. Darüber hinaus gehört einem mit Ausnahme eines Streaming Clients ja eigentlich nix. Läuft das Abo aus sind alle Spiele futsch.

Das sich das im Endeffekt ernsthaft auch für den Spieler rechnen soll erschließt sich mir im Moment noch nicht.
Bandbreite ist auch kein großes Problem, 10-15 MBit/s reichen für 1080p inkl. 5.1 bequem aus und sind in Europa und USA bereits verbreitet (in Asien der Steinzeit zugerechent), in 10 Jahren (und um diese Zeiträume gehts hier) sind vermutlich im GBit Bereich. (Vor 10 Jahren träumten die meisten jedenfalls noch von Dual-ISDN mit 128kbit/s)
Wenn ich an remote-Anwendungen und Thin Clients denke, kommt man auch noch mit deutlich weniger aus. (ich kann hier jedenfalls problemlos in 1600x1200 via I-Net arbeiten und meine 2 MBit sind nicht annähernd ausgelastet)
10 MBit ........ ein gutes Drittel der Leute träumt sogar noch von richtigem DSL, und dass die Telekom in den nächsten 10 Jahren sich doch noch davon überzeugen lässt dass sich Glasfaser für jedes Kuhdorf rechnet halte ich irgendwie für unwahrscheinlich. Klar, für Leute die jetzt schon mit 50er (<3) oder noch größeren Leitungen unterwegs sind kein Problem, aber de facto würde die "Landbevölkerung" (nicht herablassend gemeint) schlicht ausgeschlossen, da oft mehr als DSL Light nicht drin ist. Und ein (selbst komprimierter) Full-HD-Video-Stream mit Surround sitzt da einfach nicht drin, da ist es auch wurst ob in Asien bereits mit Terabits gesurft würde.

Hinzu kommt noch ein anderer Punkt:
Was aber definitiv ein Problem bleibt, ist der Ping. 30-40ms mögen okay sein, wenn es die Verzögerung zwischen der Handlung eines Gegners und der Darstellung der selben ist.
Aber 30-40ms zwischen der Eingabe und der Ausgabe? Da ist eine schlechte Funkmaus + SLI/CF nichts dagegen. Ich klicke schon bei 2D-Remote-Anwendungen gehäuft daneben, für Shooter definitiv keine Option. Auf der anderen Seite geht es aber auch um eine Alternative zu Konsolen - und zielgenauer, als mit einem Gamepad, ist man auch so.
Jepp, da Ping. "Schwammmige" Steuerung ist mit allem unter Fastpath-Eitungen praktisch garantiert. Ich hab auch bis heute daher kein Funk-Eingabegerät über allzu lange Zeit in benutzung gehabt, auch wenn man immer wieder hört dass sich da was getan hätte, rein subjektiv ist mir eine Kabelmaus- und Tastatur immer noch lieber. Und gerade bei Multiplayerpartien im Netz dürfte es da eng werden. Bei nem Ping von knapp 50 zur Serverfarm seines Vertrauens, und von da ab noch mal ~60-80ms zu 'nem Server in sagen wir mal UK (gerade in TF2 sehr beliebt =) ) ist schon so ziemlich das eigene garantierte Aus für einen bei schnellen Shootern, wie das mit einem Gamepad funktionieren soll ist mir noch schleierhafter (na gut, dank "Matchmaking" werden die Konsoleros eh von "High-Ping"-Servern fern gehalten .... es lebe der unsichtbare Glaskäfig). :-/
Fazit:
Warum es diese gute Idee nicht schaffen wird, Konsolen zu ersetzen, sind vermutlich die Konsolenhersteller selbst. Oder glaubt ihr, die haben Interesse daran, einen Kasten auf den Markt zu bringen, der auch in 20 Jahren noch nicht veraltet und den gesamten Rest den Spieleentwicklern&-hostern zu überlassen?
Eben. Das wäre in etwas so, als wäre Win8 nur noch ein Kernel, der es einem ermöglicht, ganz nach Wunsch GUIs und Applikationen nachzuladen.
Und bei der Serverfarm muss nie mal die Hardware gewechselt und/oder erweitert werden ?! Diese Kosten MÜSSEN entweder durch allgemein höhere Kosten für den Streamingdienst zur präventiven Kostendeckung künftiger Upgrades, oder durch Aufschläge bei entsprechend grafikfressenden Titeln oder einmalig höhere Gebühren irgendwie gegenfinanziert werden, umsonst bekommen die die Hardware ja nicht.

Wie schon weiter oben erwähnt: Das die Kosten/Nutzenrechnung so unbedingt positver für die Spieler ausfallen würde glaube ich nicht, ob man sich nun alle 6 Jahre ne Konsole (+ dann höhere Spielepreise und Bezahl.Multiplayerplattformen), alle 2 Jahre den PC aufrüstet oder man hohe Gebühren für einen Streamingdienst entrichten muss, das wird sich im Endeffekt nicht viel tun, da ja auch der Streamingbetreiber Geld verdienen will, und das möglichst nicht zu knapp.

Und die Idee wird nicht nur an technischen oder Kostenfragen scheitern, sonder - mal von mir ausgehend - behagt der Gedanke nicht, sämtliche Spiele und Savegames nicht mehr vor Ort auf einem Gerät zu haben, sondern das ich nach Auslaufen eines Abos de facto NICHTS habe, bei einem alten PC mit Spielen drauf kann ich wenigstens bis in alle Ewigkeit weiter umsonst (naja, Strom ..) zocken, bis das Gerät kaputt geht. Und mit diesem gedanken möchte ich mich nicht anfreuden. Mir ist ja schon flau wenn ich per Steam was runterlade, und ich damit schon keine Disc mehr hier habe, aber wenigstens muss ich da nicht weiter blechen um meine GEKAUFTEN Spiele weiter zocken zu dürfen.
 
Das war auch mehr eine Überlegung die in Richtung Kosten/Nutzen für den Betreiber solcher Dienste geht, und letztlich auch die anschließenden Abokosten für einen derartigen Dienst. Es muss ja nicht nur die massierte Infrastruktur irgendwie bezahlt werden, sondern (höchstwahrscheinlich) würde jedes hinzugebuchte Spiel noch ma extra kosten, dass mit dem Dienst gleichzeitig eine Art Spieleflat angeboten wird bezweifele ich.
Im Ernst, was würde das den Spieler letztlich kosten (muss sich für den betreiber ja rechnen)?

Das sinnvollste wäre wohl umgekehrt: Man zahlt nur noch für die Spielenutzung, die Hardware ist inklusive.
Unterm Strich muss der Kunde aber auch heute für sämtliche Software und Hardware aufkommen (sonst würde ja irgend ein Unternehmen Pleite gehen) und wenn diese Leistung bedeutet, dass massiv Hardware eingespart werden kann, dann wird auch das Gesamtpaket günstiger. (oder zumindest der Gewinn der Firmen größer...)

Da muss man ganz genau auflisten, was dieser Dienst über ~2 Jahre (ungefähre Lebensdauer eines Performance-PCs) kosten würde. Ich für meinen Teil mache bereits einen großen Bogen um die XBox 360, weil ich nicht einsehe für die blanke Möglichkeit eines Multiplayers/Dienstes wie Steam Geld auszugeben. Darüber hinaus gehört einem mit Ausnahme eines Streaming Clients ja eigentlich nix. Läuft das Abo aus sind alle Spiele futsch.


10 MBit ........ ein gutes Drittel der Leute träumt sogar noch von richtigem DSL,

Die Statistik hätte ich gerne mal gesehen. Afaik sind wir mitlerweile bei über 90% Abdeckung in Deutschland (zugegeben: wo ich das gelesen hab, weiß ich auch nicht mehr ;) ). Aber wie gesagt:
Es kann auch mit deutlich weniger gehen und wenn man bedenkt, wie viele Nutzer heute auch ganz ohne HD (-Fernseher) zufrieden sind, ließe sich zusätzlich noch die Qualität reduzieren.

und dass die Telekom in den nächsten 10 Jahren sich doch noch davon überzeugen lässt dass sich Glasfaser für jedes Kuhdorf rechnet halte ich irgendwie für unwahrscheinlich.

Am-Arsch-der-Welt-wohnen wird vermutlich auch in 10 Jahren Konsequnenzen nach sich ziehen, das stimmt wohl. Aber es stellt sich die Frage, ab wann es für einen Hersteller teurer kommt, die besonderen Bedinungen eines kleinen Kundenkreises zu berücksichtigen, als einfach auf diese Kunden zu verzichten.

Ich hab auch bis heute daher kein Funk-Eingabegerät über allzu lange Zeit in benutzung gehabt, auch wenn man immer wieder hört dass sich da was getan hätte

Ich nutz seit Jahren nichts anderes und zumindest als ich noch ein bißchen in Übung war, hats gereicht, um mit dem Kommentar "Aimbot" von (allerdings Noob-reichen) Servern zu fliegen.

Und gerade bei Multiplayerpartien im Netz dürfte es da eng werden. Bei nem Ping von knapp 50 zur Serverfarm seines Vertrauens, und von da ab noch mal ~60-80ms zu 'nem Server in sagen wir mal UK (gerade in TF2 sehr beliebt =) ) ist schon so ziemlich das eigene garantierte Aus für einen bei schnellen Shootern,

Ein komplett in Rechenzentren gerendeters Spiel würde keine "Multiplayerserver" mehr kennen, geschweige denn zusätzliche Ping-Verluste ;)

wie das mit einem Gamepad funktionieren soll ist mir noch schleierhafter

Mir auch. Aber Fakt ist, dass es Leute gibt, die sich extra wegen Halo3 ne Konsole kaufen - also dürften Shooter mit miserabler, indirekter Steuerung wohl durchaus Geld einbringen.

Und bei der Serverfarm muss nie mal die Hardware gewechselt und/oder erweitert werden ?! Diese Kosten MÜSSEN entweder durch allgemein höhere Kosten für den Streamingdienst zur präventiven Kostendeckung künftiger Upgrades, oder durch Aufschläge bei entsprechend grafikfressenden Titeln oder einmalig höhere Gebühren irgendwie gegenfinanziert werden, umsonst bekommen die die Hardware ja nicht.

s.o.: Auch jetzt muss die Hardware immer mal aufgerüstet werden - man gibt alle paar Jahre viele 100€ für eine neue Konsole aus. In Zukunft wird insgesamt weniger Hardware benötigt, die Kosten dafür vermutlich auf den Spielpreis umgelegt. (ob die Spiele zum Festpreis kommen und z.B. nach einer gewissen Zeit ganz eingestellt werden oder z.B. monatliche Gebühren anstehen, bleibt abzuwarten)

Und die Idee wird nicht nur an technischen oder Kostenfragen scheitern, sonder - mal von mir ausgehend - behagt der Gedanke nicht, sämtliche Spiele und Savegames nicht mehr vor Ort auf einem Gerät zu haben, sondern das ich nach Auslaufen eines Abos de facto NICHTS habe, bei einem alten PC mit Spielen drauf kann ich wenigstens bis in alle Ewigkeit weiter umsonst (naja, Strom ..) zocken, bis das Gerät kaputt geht. Und mit diesem gedanken möchte ich mich nicht anfreuden. Mir ist ja schon flau wenn ich per Steam was runterlade, und ich damit schon keine Disc mehr hier habe, aber wenigstens muss ich da nicht weiter blechen um meine GEKAUFTEN Spiele weiter zocken zu dürfen.

Geht mir persönlich genauso. Aber ich muss auch feststellen, dass ich einer vernachlässigbaren Minderheit angehöre, wenn ich fordere, dass Microsoft Win7 100% DOS-kompatibel machen oder Nvidia 9x-Treiber für aktuelle Grafikkarten liefern soll. Die meisten Leute haben weder ein Problem damit, Spiele zu kaufen, deren Kopierschutz einen Einsatz mit zukünftigen Betriebssystemen (oder auch nur bestimmter Software&Treiber) verhindern, noch stört es sie, wenn ganze Schnittstellen einfach mal abgesägt werden. (im Gegenteil: Wie oft muss man hier den Vorschlag lesen, AMD sollte x86 einfach aufgeben und eine komplette eigene 64bit Architektur bringen?)
Das selbst Software, die man samt Datenträger kauft, auf Gedeih und Verderb z.B. auf einen funktionierenden, kompatiblen (Steam-)Server angewiesen ist, ist ja fast schon der Normalzustand.
Da wird auch komplett auf Server verlagerte Software keinen großen Unterschied machen. (ganz ehrlich: Ob das Spiel nun online nur wegen einer Datei/einer Kopierschutz verifizierung auf einen Server zugreift, oder für den kompletten Spielinhalt, das macht nur für Cracker einen Unterschied. Und für die entwickelt kaum jemand ;) )
 
Die Statistik hätte ich gerne mal gesehen. Afaik sind wir mitlerweile bei über 90% Abdeckung in Deutschland (zugegeben: wo ich das gelesen hab, weiß ich auch nicht mehr ;) ). Aber wie gesagt:
Es kann auch mit deutlich weniger gehen und wenn man bedenkt, wie viele Nutzer heute auch ganz ohne HD (-Fernseher) zufrieden sind, ließe sich zusätzlich noch die Qualität reduzieren.
Sagt mal, hab ich was verpasst? Ihr redet hier über 10MBit aber das reicht hinten und vorn nicht aus um eine FullHD auflößung mit 50p-60p zu übertragen. Da ist mindestens 50Mbit von nöten.

Ein komplett in Rechenzentren gerendeters Spiel würde keine "Multiplayerserver" mehr kennen, geschweige denn zusätzliche Ping-Verluste ;)
Aber der Server hat eine Leitung und um so weiter entfernt man von diesem ist, desto höher die Ping. Auch die idee, dass ein SuperComputer die spielwelt berechnet und alle dann drin spielen macht wenig sinn, denn da braucht nur mal eine komponente ausfallen und schon kann keiner mehr spielen, was dann geg. zu Verlusten führen wird.

Mir auch. Aber Fakt ist, dass es Leute gibt, die sich extra wegen Halo3 ne Konsole kaufen - also dürften Shooter mit miserabler, indirekter Steuerung wohl durchaus Geld einbringen.


s.o.: Auch jetzt muss die Hardware immer mal aufgerüstet werden - man gibt alle paar Jahre viele 100€ für eine neue Konsole aus. In Zukunft wird insgesamt weniger Hardware benötigt, die Kosten dafür vermutlich auf den Spielpreis umgelegt. (ob die Spiele zum Festpreis kommen und z.B. nach einer gewissen Zeit ganz eingestellt werden oder z.B. monatliche Gebühren anstehen, bleibt abzuwarten)
Und da Wiederspreche ich dir. Es wird mehr Hardware gebraucht um so ein Spieleserver zu betreiben, da die daten schleißlich verarbeitet, geg. Komprimiert und versendet werden müssen. Das geht nicht einfach so. Dazu kommt, dass man zuhause dennoch eine Proper Hardware haben muss... zumindestens muss diese FullHD verarbeiten können und das zufriedenstellend.


Geht mir persönlich genauso. Aber ich muss auch feststellen, dass ich einer vernachlässigbaren Minderheit angehöre, wenn ich fordere, dass Microsoft Win7 100% DOS-kompatibel machen oder Nvidia 9x-Treiber für aktuelle Grafikkarten liefern soll. Die meisten Leute haben weder ein Problem damit, Spiele zu kaufen, deren Kopierschutz einen Einsatz mit zukünftigen Betriebssystemen (oder auch nur bestimmter Software&Treiber) verhindern, noch stört es sie, wenn ganze Schnittstellen einfach mal abgesägt werden. (im Gegenteil: Wie oft muss man hier den Vorschlag lesen, AMD sollte x86 einfach aufgeben und eine komplette eigene 64bit Architektur bringen?)
Das selbst Software, die man samt Datenträger kauft, auf Gedeih und Verderb z.B. auf einen funktionierenden, kompatiblen (Steam-)Server angewiesen ist, ist ja fast schon der Normalzustand.
Da wird auch komplett auf Server verlagerte Software keinen großen Unterschied machen. (ganz ehrlich: Ob das Spiel nun online nur wegen einer Datei/einer Kopierschutz verifizierung auf einen Server zugreift, oder für den kompletten Spielinhalt, das macht nur für Cracker einen Unterschied. Und für die entwickelt kaum jemand ;) )

Man dann mach dir DOS als VM, wenn du das umbedingt brauchst... das ist doch nun wirklich nicht so schwer.
Es gibt native 64bit CPUs doch schon ewig und genau wegen der Rückwärtskompatibilität die dir so wichtig erscheint wurde dies nur als erweiterung in x86 CPUs eingebaut.
Zu den anderen Punkten: Wer garantiert dir, dass du wärend du spielst nicht durchsucht wirst? Und da ist es schon etwas anderes, wenn einfach eine paar Daten nachgeladen werden oder ein zugriffsrecht erteilt wird als das ganze System offen für diese Betreiber zu legen. Zumal der schritt eher wieder weg von den unnötigen Kopierschutzmaßnahmen geht.
 
Sagt mal, hab ich was verpasst? Ihr redet hier über 10MBit aber das reicht hinten und vorn nicht aus um eine FullHD auflößung mit 50p-60p zu übertragen. Da ist mindestens 50Mbit von nöten.

Also laut Wikipedia reichen 12 Mbit für 1080p in VC1 oder AVC inkl. Ton auf einer 3x-DVD (also "HD"DVD, nicht HD-DVD). Youtube soll seine 1080p Inhalte mit 2 MBit streamen, es gibt mehrere Dienste, die 720p in geringerer Komprimierung für den 2-3 MBit-Bereich anbieten. (1080p hat 2,25 mal mehr Pixel, wären wir also bei bequemen 7,5MBit)
50Mbit sind definitiv nicht nötig.
Wenn die Entwicklung der Internetbanbreiten so weitergeht, dann dürften in weniger als 10 Jahren Internetzugänge für Endkunden erhältlich sein, die 1080p sogar unkomprimiert streamen können (4Gbit reicht bequem)

Aber der Server hat eine Leitung und um so weiter entfernt man von diesem ist, desto höher die Ping.

Das sicherlich, schreib ich ja von Anfang an.

Auch die idee, dass ein SuperComputer die spielwelt berechnet und alle dann drin spielen macht wenig sinn, denn da braucht nur mal eine komponente ausfallen und schon kann keiner mehr spielen, was dann geg. zu Verlusten führen wird.

Moderne Großrechner sind immer als Cluster ausgeführt und i.d.R. virtualisiert. Wenn da eine Komponente ausfällt, verliert man minimal an Rechenleistung und tauscht sie schnellstmöglich aus, das wars.


Und da Wiederspreche ich dir. Es wird mehr Hardware gebraucht um so ein Spieleserver zu betreiben, da die daten schleißlich verarbeitet, geg. Komprimiert und versendet werden müssen. Das geht nicht einfach so.

Äh - ja. Was Daten versenden über das Internet für unglaubliche Leistung kostet, wissen wir ja alle...
Für de/encoding gibts spezielle Chips, aber selbst das ist nicht so extrem fordernd (siehe unten)

Dazu kommt, dass man zuhause dennoch eine Proper Hardware haben muss... zumindestens muss diese FullHD verarbeiten können und das zufriedenstellend.

Das sehr stark komprimierte Youtube-Format soll sich afaik auch bei 1080p mit ION flüssig abspielen lassen, etwas konventionellere Formate wie bei normalen Bluerays lassen sich afaik sogar mit Tegra, d.h. für Handys entwickelte Technik decodieren. (ohne Kopierschutz, aber der ist hier ja auch nicht nötig). Hochoptimierte Decoder-Chips sind noch besser und für Blue-Ray-Player&Co leicht verfügbar.
Oder anders: In 10 Jahren hat dein Toaster dafür ausreichend Rechenleistung.

Zu den anderen Punkten: Wer garantiert dir, dass du wärend du spielst nicht durchsucht wirst? Und da ist es schon etwas anderes, wenn einfach eine paar Daten nachgeladen werden oder ein zugriffsrecht erteilt wird als das ganze System offen für diese Betreiber zu legen. Zumal der schritt eher wieder weg von den unnötigen Kopierschutzmaßnahmen geht.

Häh?
Was willst du denn bitte auf einer reinen Spieleplattform durchsuchen?
 
Also laut Wikipedia reichen 12 Mbit für 1080p in VC1 oder AVC inkl. Ton auf einer 3x-DVD (also "HD"DVD, nicht HD-DVD). Youtube soll seine 1080p Inhalte mit 2 MBit streamen, es gibt mehrere Dienste, die 720p in geringerer Komprimierung für den 2-3 MBit-Bereich anbieten. (1080p hat 2,25 mal mehr Pixel, wären wir also bei bequemen 7,5MBit)
50Mbit sind definitiv nicht nötig.
Wenn die Entwicklung der Internetbanbreiten so weitergeht, dann dürften in weniger als 10 Jahren Internetzugänge für Endkunden erhältlich sein, die 1080p sogar unkomprimiert streamen können (4Gbit reicht bequem)
Ja 12Mbit bei 24 Fps und was denkst du was da bei 60 für Mbit raus kommen???
Um so geringer die komprimierung um so schlechter die Bildqualität oder es steigt die Rechenleistung für die komprimierung und da bräuchtest du für jeden Stream sein eigenen Bildprozessor um vllt. eine Echtzeitleistung zu haben aber dann braucht man auch keine Highres Texturen mehr und auch keine AF, da der Detailgrad stark sinkt.

Moderne Großrechner sind immer als Cluster ausgeführt und i.d.R. virtualisiert. Wenn da eine Komponente ausfällt, verliert man minimal an Rechenleistung und tauscht sie schnellstmöglich aus, das wars.[Oh ja das macht spaß, dass wärend des spielens auf einmal und das ohne grund die Framerate sinkt.



Äh - ja. Was Daten versenden über das Internet für unglaubliche Leistung kostet, wissen wir ja alle...
Für de/encoding gibts spezielle Chips, aber selbst das ist nicht so extrem fordernd (siehe unten)
Wie oben schon gesagt müssen die Bilder berechnet, komprimiert und dann online gestellt werden. Nicht mal moderne AVCHD Camcorder zeichnen das Bild in echtzeit auf - da gibt es immer ein zwischenspeicherprozess, der sich extrem negativ auf die "Ping" auswirken wird.

Das sehr stark komprimierte Youtube-Format soll sich afaik auch bei 1080p mit ION flüssig abspielen lassen, etwas konventionellere Formate wie bei normalen Bluerays lassen sich afaik sogar mit Tegra, d.h. für Handys entwickelte Technik decodieren. (ohne Kopierschutz, aber der ist hier ja auch nicht nötig). Hochoptimierte Decoder-Chips sind noch besser und für Blue-Ray-Player&Co leicht verfügbar.
Oder anders: In 10 Jahren hat dein Toaster dafür ausreichend Rechenleistung.
Bei voller auslastung möglicherweiße 24p... aber 60p glaube ich nicht.

Häh?
Was willst du denn bitte auf einer reinen Spieleplattform durchsuchen?
Den rechner oder kommt da etwa kein Bildstream auf dein System??? Man wie Naiv. So kann der Betreiber möglicherweiße auf deine daten zurückgreifen und du musst es ja durch die Firewall lassen, sonst siehst du nix.
 
Ja 12Mbit bei 24 Fps und was denkst du was da bei 60 für Mbit raus kommen???

Ich tippe mal ganz vage auf das 2,5 fache.
Allerdings seh ich noch nicht so ganz, warum ein Kundenkreis, der sich drei Jahrzehnten über 50i Darstellung freut, auf einmal 60p benötigt.

Um so geringer die komprimierung um so schlechter die Bildqualität oder es steigt die Rechenleistung für die komprimierung und da bräuchtest du für jeden Stream sein eigenen Bildprozessor um vllt. eine Echtzeitleistung zu haben aber dann braucht man auch keine Highres Texturen mehr und auch keine AF, da der Detailgrad stark sinkt.

Nun, mir sind bislang nicht so viele Leute über den Weg gelaufen, die sich über den mangelnden Detailgrad bei ihrer Blue-Ray beschwert haben. Selbst das extrem (und verlustbehaftetste) Youtube-Format wird von den meisten noch nicht für gerendert gehalten.

Nicht mal moderne AVCHD Camcorder zeichnen das Bild in echtzeit auf - da gibt es immer ein zwischenspeicherprozess, der sich extrem negativ auf die "Ping" auswirken wird.

Ich würde spontan auch mal annehmen, dass bei der Entwicklung des Speichersystem von AVCHD-Camcorder "maximal 2ms Verzögerung bei der Aufzeichnung" so ziemlich die letzte Entwicklungspriorität war.
Aktuelle Remote-Desktop-Lösungen sieht das schon anders aus - genauso, wie das Ergebniss.

Den rechner oder kommt da etwa kein Bildstream auf dein System??? Man wie Naiv. So kann der Betreiber möglicherweiße auf deine daten zurückgreifen und du musst es ja durch die Firewall lassen, sonst siehst du nix.

Ich wiederhole noch einmal: Welche Daten möchte jemand aus einer HD-Streaming-Box oder von einem Spiele-only-Server klauen?
Savegames?
 
Ich tippe mal ganz vage auf das 2,5 fache.
Allerdings seh ich noch nicht so ganz, warum ein Kundenkreis, der sich drei Jahrzehnten über 50i Darstellung freut, auf einmal 60p benötigt.
LOL 50i ist von der bitrate nur so viel wie 25p und von der auflösung in der horizontalen nur halb so groß, sprich es wird nur ein Halbbild dargestellt. Was auf nen röhrenmonitor vllt. gut aussieht aber auf nem TFT zu solchen netten interlaced streifen führt.
http://www.windowsmoviemakers.net/PapaJohn/54/Interlaced-Versus-Progressive_files/image010.jpg

Viel spaß beim spielen mit schönen ghostigs. Das wird ein spaß - zum einen durch die ganzen prozesse verzögerungen ohne ende und dann auch noch ein bild das bei schnellen bewegungen nicht mehr wirklich anschaubar wird...

Nun, mir sind bislang nicht so viele Leute über den Weg gelaufen, die sich über den mangelnden Detailgrad bei ihrer Blue-Ray beschwert haben. Selbst das extrem (und verlustbehaftetste) Youtube-Format wird von den meisten noch nicht für gerendert gehalten.
Blu-ray (wie es richtig geschrieben wird im übrigen) haben so gut wie immer 24p und nun sag mir bitte ob das für ein flüssiges spielvergnügen reicht. Dir würde die youtube Qualität, die nix mit FullHD zu tun hat, reichen? Wenn man auflösungstests machen würde, würde diese sicher gerade so an SD kommen aber sicher kein crispes HD von eine BD.


Ich würde spontan auch mal annehmen, dass bei der Entwicklung des Speichersystem von AVCHD-Camcorder "maximal 2ms Verzögerung bei der Aufzeichnung" so ziemlich die letzte Entwicklungspriorität war.
Aktuelle Remote-Desktop-Lösungen sieht das schon anders aus - genauso, wie das Ergebniss.
Wie kommst du darauf? Ich kenne kein rechner, der AVCHD in Echtzeit on the fly codieren kann. Die meisten systeme tun sich schon schwer beim decodieren. 1 Stream geht meistens aber bei 2en hört es schon auf.


Ich wiederhole noch einmal: Welche Daten möchte jemand aus einer HD-Streaming-Box oder von einem Spiele-only-Server klauen?
Savegames?
Man dein rechner liegt offen da und ein Port muss dafür ungeschützt offen liegen. Wenn man will kann man dann über den stream ein Trojaner schicken der sehrwohl passwörter, surfverhalten und kontodaten ausspionieren kann.
 
Blu-ray (wie es richtig geschrieben wird im übrigen) haben so gut wie immer 24p und nun sag mir bitte ob das für ein flüssiges spielvergnügen reicht.

Es ging um die Auflösung. Bezüglich der Frames habe ich bereits geschrieben, was bislang dargestellt und als flüssig bezeichnet wurde.

Dir würde die youtube Qualität, die nix mit FullHD

1920x1080 ist nicht Full HD?
Das hätte ich dann gerne belegt.

zu tun hat, reichen? Wenn man auflösungstests machen würde, würde diese sicher gerade so an SD kommen aber sicher kein crispes HD von eine BD.

Es geht bei komprimierten Streams um den Bildinhalt, nicht die Auflösung. Und ja: Selbst die alten 720p YouTube-HD-Streams sind, wenn sie auch HD aufgenommen wurden, weitaus näher am Fotorealismus dran, als alle Spiele, die mir bislang begegnet sind.


Wie kommst du darauf?

logisches Denken bzw. persönliche Erfahrung.

Man dein rechner liegt offen da und ein Port muss dafür ungeschützt offen liegen. Wenn man will kann man dann über den stream ein Trojaner schicken der sehrwohl passwörter, surfverhalten und kontodaten ausspionieren kann.

(M)ein Rechner tut rein gar nichts zur Sache. Surfverhalten und Kontodaten ebenfalls nicht. Ein Trojaner braucht erstmal ein Betriebssystem, auf dem er läuft.
 
Es ging um die Auflösung. Bezüglich der Frames habe ich bereits geschrieben, was bislang dargestellt und als flüssig bezeichnet wurde.
Es ging nicht um die Auflösung sondern um die Übertragungs- bzw. Datenrate!

1920x1080 ist nicht Full HD?
Das hätte ich dann gerne belegt.
50i ist kein direktes fullHD, da das i für interlaced steht und das bedeutet das abwechselnd ein Half-frame Übertragen wird und das alle 50stel einer Sekunde. Die reale auflösung wäre dann 1920x540. Progressiv wäre 50p und das wären dann Full-Frames in der vollen auflösung aber demzufolge auch mit einer höheren Datenrate.


Es geht bei komprimierten Streams um den Bildinhalt, nicht die Auflösung. Und ja: Selbst die alten 720p YouTube-HD-Streams sind, wenn sie auch HD aufgenommen wurden, weitaus näher am Fotorealismus dran, als alle Spiele, die mir bislang begegnet sind.
genau, mit schönen quad-artefakten und einer farbauflösung die jenseits von gut und böse ist. Schade wenn man anscheinend nicht mal mehr aus dem fanster schaut und schon die extrem schlechte detailfülle von youtube als fotorealistisch bezeichnet. Aber es soll menschen geben, die Komprimierungsartefakte toll finden. Aber ein Vorteil hat es, AF und AA braucht man nicht mehr (zumindestens keine hohen filtereinstellungen), da man durch die Komprimierung eh kaum noch details in der Distanz sehen wird.


logisches Denken bzw. persönliche Erfahrung.
Na sehr logisch kann es ja kaum sein. Denkst du wirklich, dass ein Supercomputer sowohl eine Komplexe spielwelt inklusive der Physik und allen animationen und texturen in der höchsten LOD für alle streamer bereitstellen und gleichzeitung dieses Komprimieren, die eingehenden daten verarbeiten und das Kostengünstiger als ein Home-PC?

Ich kann aus eigener Erfahrung, da ich einen HDV-Camcorder besitze, sagen das es ein reisen delay zwischen Aufnahmen, Kompression und Speicherung gibt. Ich komme deswegen darauf, weil das Signal, welches auf dem Band gespeichert wird auch direkt via FireWire abgenommen werden kann und da stellt man defakto ein delay von ca. 2 sec. und mehr fest. Sind wir mal Großzügig und sagen das es intern noch eine Verzögerung gibt zum FireWire Port da kommen wir vllt. auf etwa 1-1,5 Sekunden. Selbst das ist bei weitem nicht Zufriedenstellend und das Problem verstärkt sich noch, um so potenter die Kompression ist. HDV ist mpeg2 HD aber AVCHD ist Mpeg4 und das braucht wesentlich mehr Rechenpower um gerendert zu werden.

(M)ein Rechner tut rein gar nichts zur Sache. Surfverhalten und Kontodaten ebenfalls nicht. Ein Trojaner braucht erstmal ein Betriebssystem, auf dem er läuft.
Ach und die spiele Brauchen keines? Eine konsole hat also seit neustem kein OS?:what: LOL
Ohne OS kein Internetstream, wie sollen sonst die daten verarbeitet werden? Man braucht zumindestens irgendwas wie ein Kernel, sonst bekommt man keine hardware dazu software zu verarbeiten.


P.S. Ich hoffe ich bin nicht zu persönlich geworden. Falls doch, tut es mir leid - war so nicht meine Intention.
 
Zuletzt bearbeitet:
Die Industrie soll also auf Milliarden-Umsätze der PC/Konsolen-Hardware verzichten? Und MS und Sony schauen zu? Niemals. Noch dazu ist das gesamte System wie hier schon öfters aufgeführt noch lange nicht umsetzbar.
 
Die Industrie soll also auf Milliarden-Umsätze der PC/Konsolen-Hardware verzichten? Und MS und Sony schauen zu? Niemals. Noch dazu ist das gesamte System wie hier schon öfters aufgeführt noch lange nicht umsetzbar.

Eben und da die ansprüche an spiele immer noch steigen, denn bei wirklich Photorealismus sind wie noch lange nicht, wird das auch noch lange ein ding der unmöglichkeit sein. Viele die heute 1920x1080 als standart ansehen werden das in 10 Jahren als altbacken empfinden.
 
Die Industrie soll also auf Milliarden-Umsätze der PC/Konsolen-Hardware verzichten? Und MS und Sony schauen zu? Niemals. Noch dazu ist das gesamte System wie hier schon öfters aufgeführt noch lange nicht umsetzbar.

Microsoft und Sony haben da nichts zu melden, sondern die Spielehersteller. Wenn die die PS3/Xbox Lizenzen nicht mehr zahlen wollen, weil sie einen besseren Vertriebsweg gefunden haben, dann wars das. Nur Nintendo macht zur Zeit mit der Hardware Gewinn und hat somit die Kontrolle über den Wert der Plattform.


50i ist kein direktes fullHD, da das i für interlaced steht und das bedeutet das abwechselnd ein Half-frame Übertragen wird und das alle 50stel einer Sekunde. Die reale auflösung wäre dann 1920x540. Progressiv wäre 50p und das wären dann Full-Frames in der vollen auflösung aber demzufolge auch mit einer höheren Datenrate.

Ich weiß, wofür i steht, sonst käm ich wohl kaum auf den Gedanken, den Begriff "50i" (in dem absolut rein gar nichts zur Zeit kodiert wird) zu verwenden.
"Echtes" FullHD, so wie es auf jeder Blu-ray (wenn dir die Schreibweise wichtig ist) zu finden ist es und wie es in den Anschlussspezifikationen vorgesehen ist, mit denen jeder Konsolero glück spielt, hat 24p. Das ist sogar eine noch geringere Bandbreite, als 50i, welches wiederum seit Jahrzehnten jedem Fernsehzuschauer für "flüssig" ausreicht. Verdammt - viele Konsolenspieler sind überrascht, wenn man ihnen sagt, dass ihre auf "HD" gestellte Xbox ein von einer 800er Auflösung hochinterpoliertes Bild liefert, weil sie es selbst nicht bemerken würden, wie matschig eigentlich alles ist.

Das ein paar wenige verwöhnte PC-Gamer lieber mit 30-40p spielen und es bemerken, wenn sich ein paar Pixel ähnlich sehen, mag sein und ich zähle mich selbst zu denjenigen, die die niedrige Wiederholrate im Kino ankotzt. Aber Fakt ist doch, dass die meisten Leute es nicht einmal merken, wenn ihr Crossfiregespann die Bilder in einem Abstand ausspuckt, der 20fps entspricht. Dieses Minimum muss eine neue Technologie schaffen, wenn sie die alte ersetzen will, ohne dass jemand einen Nachteil bemerkt - und das ist relativ problemlos zu schaffen. Alles darüber hinaus ist Luxus,


genau, mit schönen quad-artefakten und einer farbauflösung die jenseits von gut und böse ist. Schade wenn man anscheinend nicht mal mehr aus dem fanster schaut und schon die extrem schlechte detailfülle von youtube als fotorealistisch bezeichnet.

Wirklich schade.
Noch schlimmer finde ich es aber, wie schlecht viele Leute in der Rubrik "Textverständniss" sind. Ich sage nicht, dass Youtube-HD fehlerfreien Fotorealismus liefert. Ich sage nur, dass es echter aussieht, als dass, was Spieleprogrammierer zur Zeit (und wenn man die Entwicklung der letzten Jahre interpoliert: in nächster Zeit) abliefern.
Oder kannst du mir irgend ein Spiel nennen, dass z.B. diese Grafikqualität liefert?
(beim Farbumfang kann ich übrigens keine Defizite erkennen und ich würde gern sehen, wieviele Artefakte du mir zeigen kannst, wärend du mit der interaktiven Steuerung vergleichbaren Inhaltes abgelenkt bist)

Na sehr logisch kann es ja kaum sein. Denkst du wirklich, dass ein Supercomputer sowohl eine Komplexe spielwelt inklusive der Physik und allen animationen und texturen in der höchsten LOD für alle streamer bereitstellen und gleichzeitung dieses Komprimieren, die eingehenden daten verarbeiten und das Kostengünstiger als ein Home-PC?

Für eine Gesamtnutzungsdauer von 24h am Tag mit weniger Hardwareaufwand, als PCs für 6 Haushalte a 4 Stunden: Ja. (obs auch billiger wird, hängt von der Preisgestaltung der Hardwarehersteller ab und damit vom Umfang, der nie dagewesene Ausmaße hätte)

Aber darum gings hier nicht, es ging um die Logik, dass man einen Camcorder z.B. eher auf Preis, kompakte Abmessungen, niedrigen Stromverbrauch, Robustheit,...., denn auf eine Echtzeit-Aufzeichnung optimieren könnte.

Ich kann aus eigener Erfahrung, da ich einen HDV-Camcorder besitze, sagen das es ein reisen delay zwischen Aufnahmen, Kompression und Speicherung gibt. Ich komme deswegen darauf, weil das Signal, welches auf dem Band gespeichert wird auch direkt via FireWire abgenommen werden kann und da stellt man defakto ein delay von ca. 2 sec. und mehr fest. Sind wir mal Großzügig und sagen das es intern noch eine Verzögerung gibt zum FireWire Port da kommen wir vllt. auf etwa 1-1,5 Sekunden. Selbst das ist bei weitem nicht Zufriedenstellend und das Problem verstärkt sich noch, um so potenter die Kompression ist. HDV ist mpeg2 HD aber AVCHD ist Mpeg4 und das braucht wesentlich mehr Rechenpower um gerendert zu werden.

Tjo, wie bereits gesagt: Die Erfahrung mit z.B. für den mobilen Einsatz optimierten Camcordern sagen leider wenig über die Realität von Streaming-Lösungen aus. Ich schlage vor, du sammelst ein paar Erfahrungen mit Remote-Desktoplösungen.
Ich schätze, ich komme hier auf <100ms und zu übertragen ist ein 1600x1200x32 Bild via 2Mbit DSL (was aber nichtmal benötigt wird).

Ach und die spiele Brauchen keines? Eine konsole hat also seit neustem kein OS?:what: LOL

Es geht nicht um "seit neuestem". Es gibt um "in Zukunft". Und nein, mir wäre nicht bekannt, dass z.B. ein DVB-?-Decoder ein Betriebssystem hat. Sowas verwendet man i.d.R. nur, wenn man eine flexible Plattform braucht, die verschiedene Software und aufgaben bewältigen kann. Also z.B. Server, die verschiedene Spiele berechnen sollen. Aber nicht irgendwelche Settop-Boxen, deren einzige Aufgabe die Decodierung eines Videostreams und die Weitergabe der Befehle eines standardisierten Eingabgerätes sind.
Oder hast du einen Monitor und eine Maus mit Betriebsssytem?

P.S. Ich hoffe ich bin nicht zu persönlich geworden. Falls doch, tut es mir leid - war so nicht meine Intention.

Ich bin seit über 8 Jahren in Foren aktiv, man härtet ab ;)
Stellenweise hat man aber den Eindruck, du würdest in meinen Sätzen nach den Aussagen suchen, die du von einem Troll ohne Ahnung erwartest, wobei du leider die Aussagen übersiehst, die ich eigentlich versuche zu machen.
 
Zurück