Square-Enix-Chef glaubt, dass PS3, Xbox 360 und Wii bereits am Aussterben sind

Ich weiß, wofür i steht, sonst käm ich wohl kaum auf den Gedanken, den Begriff "50i" (in dem absolut rein gar nichts zur Zeit kodiert wird) zu verwenden.
"Echtes" FullHD, so wie es auf jeder Blu-ray (wenn dir die Schreibweise wichtig ist) zu finden ist es und wie es in den Anschlussspezifikationen vorgesehen ist, mit denen jeder Konsolero glück spielt, hat 24p. Das ist sogar eine noch geringere Bandbreite, als 50i, welches wiederum seit Jahrzehnten jedem Fernsehzuschauer für "flüssig" ausreicht. Verdammt - viele Konsolenspieler sind überrascht, wenn man ihnen sagt, dass ihre auf "HD" gestellte Xbox ein von einer 800er Auflösung hochinterpoliertes Bild liefert, weil sie es selbst nicht bemerken würden, wie matschig eigentlich alles ist.
50i auf einer Röhre schaut ordentlich aus aber auf einen LCD-TV nicht, deswegen werden diese Signale auch Deinterlaced. Macht sinn ein Stream im Interlaced verfahren zu schicken und dann muss der TV auch noch das bild deinterlacen, wo zudem auch noch informationen verloren gehen. Falls du das nicht glaubst, dann solltest vllt. mal ein paar Videos Editen. Ein upscaling ist aber kein FullHD und wir reden ja über FullHD oder etwa nicht?

Das ein paar wenige verwöhnte PC-Gamer lieber mit 30-40p spielen und es bemerken, wenn sich ein paar Pixel ähnlich sehen, mag sein und ich zähle mich selbst zu denjenigen, die die niedrige Wiederholrate im Kino ankotzt. Aber Fakt ist doch, dass die meisten Leute es nicht einmal merken, wenn ihr Crossfiregespann die Bilder in einem Abstand ausspuckt, der 20fps entspricht. Dieses Minimum muss eine neue Technologie schaffen, wenn sie die alte ersetzen will, ohne dass jemand einen Nachteil bemerkt - und das ist relativ problemlos zu schaffen. Alles darüber hinaus ist Luxus,
Na dann spiel mal nen shooter mit 24p online, mal sehen wer daran spaß hat. Zum anderen solltest du wissen, dass Konsolen 30p bzw. 60p als framerate anpeilen, da diese vom amerikanischen Strohm/TV standart abgeleitet werden.



Wirklich schade.
Noch schlimmer finde ich es aber, wie schlecht viele Leute in der Rubrik "Textverständniss" sind. Ich sage nicht, dass Youtube-HD fehlerfreien Fotorealismus liefert. Ich sage nur, dass es echter aussieht, als dass, was Spieleprogrammierer zur Zeit (und wenn man die Entwicklung der letzten Jahre interpoliert: in nächster Zeit) abliefern.
Oder kannst du mir irgend ein Spiel nennen, dass z.B. diese Grafikqualität liefert?

(beim Farbumfang kann ich übrigens keine Defizite erkennen und ich würde gern sehen, wieviele Artefakte du mir zeigen kannst, wärend du mit der interaktiven Steuerung vergleichbaren Inhaltes abgelenkt bist)
Ah, du schaust also beim Spielen auf die Mouse/Controller? Du Blickst dennoch auf das Bild, lustig wird es bei schnellen bewegungen, da dort ja nur 1-Pass compression angewendet werden kann wird die blockbildung extrem oder die Kompressionszeit steigt exorbitant. Schau dir den Trailer nochmal an, Da sind so viele Blockartefakte, dass es schon nicht mehr lustig ist.
Hier hab ich mal ein Bild aus dem Trailer (willkürlich).http://www.fs-mw.de/Bilder/2012.jpg

und hier hab ich dir mal die Farbinformationen extrahiert.
http://www.fs-mw.de/Bilder/2012 Saturation.jpg

Sieht toll aus oder. Soviel zur guten Farbauflösung und Blockbildung.


Für eine Gesamtnutzungsdauer von 24h am Tag mit weniger Hardwareaufwand, als PCs für 6 Haushalte a 4 Stunden: Ja. (obs auch billiger wird, hängt von der Preisgestaltung der Hardwarehersteller ab und damit vom Umfang, der nie dagewesene Ausmaße hätte)
Was zu Beweisen wäre, da können wir nur spekulieren.

Aber darum gings hier nicht, es ging um die Logik, dass man einen Camcorder z.B. eher auf Preis, kompakte Abmessungen, niedrigen Stromverbrauch, Robustheit,...., denn auf eine Echtzeit-Aufzeichnung optimieren könnte.

Tjo, wie bereits gesagt: Die Erfahrung mit z.B. für den mobilen Einsatz optimierten Camcordern sagen leider wenig über die Realität von Streaming-Lösungen aus. Ich schlage vor, du sammelst ein paar Erfahrungen mit Remote-Desktoplösungen.
Ich schätze, ich komme hier auf <100ms und zu übertragen ist ein 1600x1200x32 Bild via 2Mbit DSL (was aber nichtmal benötigt wird).
LOL ich hab keine Cam für den Supermarkt, die hat mich 900€ gekostet. Das wäre der obere Konsumerbereich und da wird Hardware eingesetzt die sich oft nicht so sehr von den Profi-Geräten unterscheidet. Der Signalprozessor z.B. ist der selbe wie im Prosumer Camcorder der selben Firma.
Gerade bei Camcordern muss man sehr echtzeitig sein, da man intern nicht unmengen an Cachespeicher zur verfügung hat, sonst würden die noch teuerer.

Es geht nicht um "seit neuestem". Es gibt um "in Zukunft". Und nein, mir wäre nicht bekannt, dass z.B. ein DVB-?-Decoder ein Betriebssystem hat. Sowas verwendet man i.d.R. nur, wenn man eine flexible Plattform braucht, die verschiedene Software und aufgaben bewältigen kann. Also z.B. Server, die verschiedene Spiele berechnen sollen. Aber nicht irgendwelche Settop-Boxen, deren einzige Aufgabe die Decodierung eines Videostreams und die Weitergabe der Befehle eines standardisierten Eingabgerätes sind.
Oder hast du einen Monitor und eine Maus mit Betriebsssytem?
Ein OS vllt. nicht aber ein Programmiertes Bios sicher... Maus und Tastatur senden nur ein simples signal, welches vom OS interpretiert wird und nicht intern... das ist kein vergleich und das weißt du auch.


Ich bin seit über 8 Jahren in Foren aktiv, man härtet ab ;)
Stellenweise hat man aber den Eindruck, du würdest in meinen Sätzen nach den Aussagen suchen, die du von einem Troll ohne Ahnung erwartest, wobei du leider die Aussagen übersiehst, die ich eigentlich versuche zu machen.
Du drückst dich aber auch nicht klar aus...
 
Zuletzt bearbeitet:
wenn alles über streaming passiert braucht man doch ein unglaubliches server und internet netzwerk .
 
ich hoffe sehr, dass sich sowas niemals durchsetzen wird. es mag leute geben die darin vorteile sehen, aber für mich überwiegt klar der eine große Nachteil.. Man bezahlt für etwas dass man nicht besitzt!
 
Zurück