Die Industrie soll also auf Milliarden-Umsätze der PC/Konsolen-Hardware verzichten? Und MS und Sony schauen zu? Niemals. Noch dazu ist das gesamte System wie hier schon öfters aufgeführt noch lange nicht umsetzbar.
Microsoft und Sony haben da nichts zu melden, sondern die Spielehersteller. Wenn die die PS3/Xbox Lizenzen nicht mehr zahlen wollen, weil sie einen besseren Vertriebsweg gefunden haben, dann wars das. Nur Nintendo macht zur Zeit mit der Hardware Gewinn und hat somit die Kontrolle über den Wert der Plattform.
50i ist kein direktes fullHD, da das i für interlaced steht und das bedeutet das abwechselnd ein Half-frame Übertragen wird und das alle 50stel einer Sekunde. Die reale auflösung wäre dann 1920x540. Progressiv wäre 50p und das wären dann Full-Frames in der vollen auflösung aber demzufolge auch mit einer höheren Datenrate.
Ich weiß, wofür i steht, sonst käm ich wohl kaum auf den Gedanken, den Begriff "50i" (in dem absolut rein gar nichts zur Zeit kodiert wird) zu verwenden.
"Echtes" FullHD, so wie es auf jeder Blu-ray (wenn dir die Schreibweise wichtig ist) zu finden ist es und wie es in den Anschlussspezifikationen vorgesehen ist, mit denen jeder Konsolero glück spielt, hat 24p. Das ist sogar eine noch geringere Bandbreite, als 50i, welches wiederum seit Jahrzehnten jedem Fernsehzuschauer für "flüssig" ausreicht. Verdammt - viele Konsolenspieler sind überrascht, wenn man ihnen sagt, dass ihre auf "HD" gestellte Xbox ein von einer 800er Auflösung hochinterpoliertes Bild liefert, weil sie es selbst nicht bemerken würden, wie matschig eigentlich alles ist.
Das ein paar wenige verwöhnte PC-Gamer lieber mit 30-40p spielen und es bemerken, wenn sich ein paar Pixel ähnlich sehen, mag sein und ich zähle mich selbst zu denjenigen, die die niedrige Wiederholrate im Kino ankotzt. Aber Fakt ist doch, dass die meisten Leute es nicht einmal merken, wenn ihr Crossfiregespann die Bilder in einem Abstand ausspuckt, der 20fps entspricht. Dieses Minimum muss eine neue Technologie schaffen, wenn sie die alte ersetzen will, ohne dass jemand einen Nachteil bemerkt - und das ist relativ problemlos zu schaffen. Alles darüber hinaus ist Luxus,
genau, mit schönen quad-artefakten und einer farbauflösung die jenseits von gut und böse ist. Schade wenn man anscheinend nicht mal mehr aus dem fanster schaut und schon die extrem schlechte detailfülle von youtube als fotorealistisch bezeichnet.
Wirklich schade.
Noch schlimmer finde ich es aber, wie schlecht viele Leute in der Rubrik "Textverständniss" sind. Ich sage nicht, dass Youtube-HD fehlerfreien Fotorealismus liefert. Ich sage nur, dass es echter aussieht, als dass, was Spieleprogrammierer zur Zeit (und wenn man die Entwicklung der letzten Jahre interpoliert: in nächster Zeit) abliefern.
Oder kannst du mir irgend ein Spiel nennen, dass z.B.
diese Grafikqualität liefert?
(beim Farbumfang kann ich übrigens keine Defizite erkennen und ich würde gern sehen, wieviele Artefakte du mir zeigen kannst, wärend du mit der interaktiven Steuerung vergleichbaren Inhaltes abgelenkt bist)
Na sehr logisch kann es ja kaum sein. Denkst du wirklich, dass ein Supercomputer sowohl eine Komplexe spielwelt inklusive der Physik und allen animationen und texturen in der höchsten LOD für alle streamer bereitstellen und gleichzeitung dieses Komprimieren, die eingehenden daten verarbeiten und das Kostengünstiger als ein Home-PC?
Für eine Gesamtnutzungsdauer von 24h am Tag mit weniger Hardwareaufwand, als PCs für 6 Haushalte a 4 Stunden: Ja. (obs auch billiger wird, hängt von der Preisgestaltung der Hardwarehersteller ab und damit vom Umfang, der nie dagewesene Ausmaße hätte)
Aber darum gings hier nicht, es ging um die Logik, dass man einen Camcorder z.B. eher auf Preis, kompakte Abmessungen,
niedrigen Stromverbrauch, Robustheit,...., denn auf eine Echtzeit-Aufzeichnung optimieren könnte.
Ich kann aus eigener Erfahrung, da ich einen HDV-Camcorder besitze, sagen das es ein reisen delay zwischen Aufnahmen, Kompression und Speicherung gibt. Ich komme deswegen darauf, weil das Signal, welches auf dem Band gespeichert wird auch direkt via FireWire abgenommen werden kann und da stellt man defakto ein delay von ca. 2 sec. und mehr fest. Sind wir mal Großzügig und sagen das es intern noch eine Verzögerung gibt zum FireWire Port da kommen wir vllt. auf etwa 1-1,5 Sekunden. Selbst das ist bei weitem nicht Zufriedenstellend und das Problem verstärkt sich noch, um so potenter die Kompression ist. HDV ist mpeg2 HD aber AVCHD ist Mpeg4 und das braucht wesentlich mehr Rechenpower um gerendert zu werden.
Tjo, wie bereits gesagt: Die Erfahrung mit z.B. für den mobilen Einsatz optimierten Camcordern sagen leider wenig über die Realität von Streaming-Lösungen aus. Ich schlage vor, du sammelst ein paar Erfahrungen mit Remote-Desktoplösungen.
Ich schätze, ich komme hier auf <100ms und zu übertragen ist ein 1600x1200x32 Bild via 2Mbit DSL (was aber nichtmal benötigt wird).
Ach und die spiele Brauchen keines? Eine konsole hat also seit neustem kein OS?
LOL
Es geht nicht um "seit neuestem". Es gibt um "in Zukunft". Und nein, mir wäre nicht bekannt, dass z.B. ein DVB-?-Decoder ein Betriebssystem hat. Sowas verwendet man i.d.R. nur, wenn man eine flexible Plattform braucht, die verschiedene Software und aufgaben bewältigen kann. Also z.B. Server, die verschiedene Spiele berechnen sollen. Aber nicht irgendwelche Settop-Boxen, deren einzige Aufgabe die Decodierung eines Videostreams und die Weitergabe der Befehle eines standardisierten Eingabgerätes sind.
Oder hast du einen Monitor und eine Maus mit Betriebsssytem?
P.S. Ich hoffe ich bin nicht zu persönlich geworden. Falls doch, tut es mir leid - war so nicht meine Intention.
Ich bin seit über 8 Jahren in Foren aktiv, man härtet ab
Stellenweise hat man aber den Eindruck, du würdest in meinen Sätzen nach den Aussagen suchen, die du von einem Troll ohne Ahnung erwartest, wobei du leider die Aussagen übersiehst, die ich eigentlich versuche zu machen.