Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Niemand wird ein Format verwenden, das ihn ggf. dazu zwingt, die komplette Datenbank neu zu erstellen/komprimieren und einzubinden, weil es auf einmal was kostet oder das im Worst Case sogar nachträgliche Zahlungen mit sich bringt.
Damit es nicht so ein Chaos wie bei GIF gibt, wa. :ugly:
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Wie Castor_23 schon sagt, lieber ein einheitliches Format einer Expertengruppe, anstatt von einem Unternehmen (gerade) wie Google entwickelt

Ähm, warum sollte Google nicht in der Lage sein, eine Expertengruppe zu beschäftigen? Wenn das Format dann unter einer freien Lizenz (z.B. LGPL) veröffentlicht wird, ist man auch vom Erfinder des Formats nicht abhängig. Ich würde Google sogar als positiven Faktor bezeichnen, weil so eine große Firma hinter dem Format steht und es sich schneller durchsetzen kann.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Also ich meinte immer Flash sei der Bremsklotz im Internet.
Hoffentlich setzt sich das Format nicht durch, da mir ein unabhängiger Standard einer Expertengruppe immer lieber ist als ein Standard, der von einem einzelnen Unternehmen entwickelt wurde (in diesem Fall noch dazu von Google :kotz: )
Solange keine Lizenzgebüren daherkommen...
Wie ist das mit MP3 und co? Genau dasselbe, ist ja auch keine Expertengruppe dahinter sondern eine Firma.
Direct X wäre auch so ein "Firmeneigenes" Ding, trotzdem sind alle auf Version 11 so geil, was ich bis heute nicht verstehe. Die Expertengruppe stellt dem entgegen: OpenGL,OpenCL,OpenML usw...

Hinzu kommt, dass Google sehr praktische Produkte und Services anbietet (Email, Server, Homepage, Kalender, Fotodatenbank, Mappingdienst, Videoportal, Bücher und vieles mehr und das in durchaus hoher Qualität und mit gleichzeitig leichter Bedienung. Spricht für mich nix dagegen, wenn es denn dann uneingeschränkt genutzt werden kann - wovon auszugehen ist bei Google
 
Zuletzt bearbeitet:
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Jpeg hat Gif mit Leichtigkeit für nicht-animierte Bilder ablösen können
GIF ist für Transparente Bilder gedacht und der Nachfolger von GIF ist PNG (und nicht JPEG), welcher auch vermehrt Verwendung findet.
JPEG ist eher für Fotos und Farbige Bilder da GIF nur 256 Farben darstellt und daher nicht vergleichbar (PNG schaft 24bit).
Dafür ist JPEG IMMER Verlustbehaftet während GIF bzw. PNG verlustfrei komprimiert.

Zwei "Codecs" mit verschiedenen Zielgruppen kann man nicht vergleichen.

Als vollständiger Ersatz nur in Kombination mit Java - und das verlangt vom Programmierer soviel mehr Zeitaufwand, dass man bis auf weiteres lieber den Nutzer warten lässt ;)
Java ≠ Javascript
 
Zuletzt bearbeitet:
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Direct X wäre auch so ein "Firmeneigenes" Ding, trotzdem sind alle auf Version 11 so geil, was ich bis heute nicht verstehe. Die Expertengruppe stellt dem entgegen: OpenGL,OpenCL,OpenML usw...
Vielleicht weil du von dem Thema keine Ahnung hast? Ist nicht böse gemeint aber hättest du die Standards mal selbst genutzt, dann wüsstest du warum niemand so recht Bock auf Open*L hat. Eine Diskussion dazu passt hier sicher nicht hin aber es gibt man durchaus gute Gründe etwas proprietäres zu nutzen anstatt eines freien Standards.

Generell kann ich dir aber zustimmen, dass freie Standards meist sicherer sind (siehe Patenstreit bei GIF und ähnliche Ängste bei H.264).

@MysticBinary82
Da musste halt schneller tippen. :ugly:
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Basierend auf dem VP8-Codec erlaubt das neue Format im Schnitt eine 39 Prozent stärkere Kompression als bisherige Formate
Dieses Experiment habe ergeben, dass die Bilder hinterher im Schnitt auf 39 Prozent der Dateigröße geschrumpft sind.
:huh::huh::huh:

Also ich finde es Quatsch, da geht doch die Kompatiblität zu so unglaublich vielen Schnittstellen verloren.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Super noch ein neues Format, aber da es von Google ist sag ich nein danke in welche Bereiche wollen die denn jetzt noch rein. Langsam bekommt man echt Angst vor Google in ein paar Jahren gibt es nichts mehr was Google nicht auch herstellt oder hat.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Solange keine Lizenzgebüren daherkommen...
Wie ist das mit MP3 und co? Genau dasselbe, ist ja auch keine Expertengruppe dahinter sondern eine Firma.

MP3 ist zu 50-100% (je nach dem, wen man fragt), Frauenhofer - d.h. deutsche Steuergelder.

Direct X wäre auch so ein "Firmeneigenes" Ding, trotzdem sind alle auf Version 11 so geil, was ich bis heute nicht verstehe. Die Expertengruppe stellt dem entgegen: OpenGL,OpenCL,OpenML usw...

OpenGL&CL werden von Firmenkonsortien entwickelt (ML sagt mit nichts), das ist ja einer der Gründe, warum die nicht vorran kommen: Zwei dutzend Parteien und jede kümmert sich primär um ihre Rendite.


GIF ist für Transparente Bilder gedacht und der Nachfolger von GIF ist PNG (und nicht JPEG), welcher auch vermehrt Verwendung findet.

Ich weiß nicht, was wofür gedacht ist/war, aber in den Frühzeiten des www sind mir sehr viele gifs begegnet, die dann einige Zeit später quasi flächendeckend von jpeg abgelöst wurden.
Was die Gründe dahinter waren, sei mal dahingestellt (vermutlich die gestiegene Bandbreite bei den Nutzern), aber es zeigt, dass ein Wechsel des primären Internet-Bildformates möglich ist, wenn sich ein Vorteil zeigt.
(PNG gegenüber jpeg hat z.B. fast nur den Vorteil der verlustfreien Komprimierung, die aber mit größeren Dateien bezahlt wird. Im Intenet ist Qualität Nebensache, Bandweite wichtig)


:huh::huh::huh:

Also ich finde es Quatsch, da geht doch die Kompatiblität zu so unglaublich vielen Schnittstellen verloren.

Nenne eine .jpeg basierte Schnittstelle.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Könnten die nicht ein Bildformat entwickeln, welches sich der Bandbreite der Nutzer anpasst und so jenachdem nur einen Teil der Informationen streamt? Bei Leuten mit ISDN kommen dann meinetwegen nur 10% der Infos an und der Browser berechnet daraus das Bild so gut es geht und bei Leuten mit schnellem Internet kommen 100% an, was dann eine verlustfreie Darstellung bedeutet.
Wenn dann jemand mit ISDN-Speed das Bild herunterlädt, bekommt er automatisch die Version mit 100%.

Mein Kumpel mit UMTS hat so einen Service automatisch mit drin. Beim surfen lädt der Server vom ISP die Bilder wie sie sind vom Ziel-Server, komprimiert sei ein Stück weiter und sendet sie dann weiter an ihn.

Mit diesem ganzen fragmentierten Müll können die meinetwegen sonstwo bleiben. Deshalb finde ich schon JPG so schlecht und wenn ein kommendes Format noch schlechtere Bilder zaubert, dann viel Spaß. :daumen2:
 
Zuletzt bearbeitet:
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Wahnsinn, das ist ein 2,76 MB großes PNG. :ugly:
Wenn man das als jpeg mit ordentlicher Qualität abspeichert würde es vermutlich schon besser aussehen und dazu auch kleiner sein. :fresse:
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Könnten die nicht ein Bildformat entwickeln, welches sich der Bandbreite der Nutzer anpasst und so jenachdem nur einen Teil der Informationen streamt?
Damit haben sich eigentlich vor Jahren schon Personen beschäftigt und raus gekommen ist JPEG2000.
JPEG 2000 ? Wikipedia
Das was Du meinst nennt sich "progressiver Bildaufbau". Dabei kann z.B. nur die unterste Genauigkeitsstufe des Bildes zur Darstellung verwendet werden. Dazu müssen viel weniger Daten übertragen werden.
Früher wurde das auch genutz, weil man auch normale JPEG-Bilder progessiv komprimieren kann. Man hatte dann immer zuerst ein unscharfes Bild das nach und nach schärfer und detailreicher wurde.
Ich kenn mich mit Webseitenprogrammierung nich so aus, deswegen weis ich nich ob es da irgendwelche Probleme gibt bei der Umsetzung dieser Technik. Eigentlich müsste es auch nur der Browser unterstützen. Er müsste ermitteln welche Datenrate zur verfügung steht und daraufhin entscheiden mit welcher Qualität die Bilder dargestellt werden sollen. Die meisten Handys/Smartphones machen das von Haus aus, um Rechenleistung zu sparen. Jedoch muss trotzdem fast immer das komplette Bild herunter geladen werden, da anscheinend die meisten Bilder nicht progressiv gespeichert werden.
JPEG2000 bietet auch höhere Komprimierungsraten als JPEG bei gleichbleibender Qualität. Man muss jedoch immer bedenken das hohe Komprimierungsraten und hohe Qualität sehr viel Rechenleistung benötigen.

Dafür ist JPEG IMMER Verlustbehaftet während GIF bzw. PNG verlustfrei komprimiert.
Wieso IMMER? JPEG kann auch ohne optischen Verlust komprimieren, oder was meinst du?
 
Zuletzt bearbeitet:
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Damit haben sich eigentlich vor Jahren schon Personen beschäftigt und raus gekommen ist JPEG2000.
JPEG 2000 ? Wikipedia
Das was Du meinst nennt sich "progressiver Bildaufbau". Dabei kann z.B. nur die unterste Genauigkeitsstufe des Bildes zur Darstellung verwendet werden. Dazu müssen viel weniger Daten übertragen werden.
Früher wurde das auch genutz, weil man auch normale JPEG-Bilder progessiv komprimieren kann. Man hatte dann immer zuerst ein unscharfes Bild das nach und nach schärfer und detailreicher wurde.
Ich kenn mich mit Webseitenprogrammierung nich so aus, deswegen weis ich nich ob es da irgendwelche Probleme gibt bei der Umsetzung dieser Technik. Eigentlich müsste es auch nur der Browser unterstützen. Er müsste ermitteln welche Datenrate zur verfügung steht und daraufhin entscheiden mit welcher Qualität die Bilder dargestellt werden sollen. Die meisten Handys/Smartphones machen das von Haus aus, um Rechenleistung zu sparen. Jedoch muss trotzdem fast immer das komplette Bild herunter geladen werden, da anscheinend die meisten Bilder nicht progressiv gespeichert werden.
JPEG2000 bietet auch höhere Komprimierungsraten als JPEG bei gleichbleibender Qualität. Man muss jedoch immer bedenken das hohe Komprimierungsraten und hohe Qualität sehr viel Rechenleistung benötigen.
Progressive Komprimierung ist etwas anderes. Dessen sind ist nur, dass man das Bild schon erkennen kann, bevor es komplett runtergeladen wurde und nicht um verschieden gute Varianten ein und desselben Bildes bereitzustellen.

Für Thunderstorms Idee müsste man vielleicht sogar das HTML Protokoll erweitern um dann auch Bandbreiteninfos an den Server zu übertragen. Aber verkehrt wäre es sicher nicht.

Wieso IMMER? JPEG kann auch ohne optischen Verlust komprimieren, oder was meinst du?
JPEG erreicht dadurch so gute Kompressionsraten, weil Informationen verloren gehen und es deshalb verlustbehaftet ist. Das muss nicht heißen, dass die Verluste für das menschliche Auge sofort sichtbar sind. Mittels Differenzbilder kann man aber die Unterschiede deutlicher machen.
Für den primären Einsatzzweck (Fotos) sind JPEGs aber sehr gut geeignet da man kaum Unterschiede wahrnimmt. Computer-generierte Bilder sorgen aber sehr schnell für Artefakte, da man in CGIs hohe Kontrste und scharfe Kanten hat (sehr gut bei Schrift zu beobachten).
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Mein Kumpel mit UMTS hat so einen Service automatisch mit drin. Beim surfen lädt der Server vom ISP die Bilder wie sie sind vom Ziel-Server, komprimiert sei ein Stück weiter und sendet sie dann weiter an ihn.
Hm... Mit dem Opera Browser (die Funktion Opera Turbo) werden die Bilder komprimiert und es wird weniger Bandbreite gebraucht.
Natürlich sehen dann die Bilder (je nach Seite) nicht mehr ganz so dolle aus .
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Progressive Komprimierung ist etwas anderes. Dessen sind ist nur, dass man das Bild schon erkennen kann, bevor es komplett runtergeladen wurde und nicht um verschieden gute Varianten ein und desselben Bildes bereitzustellen.

Für Thunderstorms Idee müsste man vielleicht sogar das HTML Protokoll erweitern um dann auch Bandbreiteninfos an den Server zu übertragen. Aber verkehrt wäre es sicher nicht.
Ich hab mich mit dem Thema jetz nich weiter beschäftigt, aber ich denke wenn man Teile eines Bildes darstellen kann ohne das man die Komplette Datei geladen hat, sollte es auch möglich sein, Bilder in niedriger Qualität darzustellen ohne die komplette Datei zu laden. Dazu brauch theoretisch nur der Browser in der Lage sein. Dem Server müsste dann nur vermittelt werden das die Datei nicht weiter gesendet werden muss. Dazu sollte man allerdings zur problemlosen Implementierung schon ein erweitertes HTML-Protokoll erstellen. Müsste aber nicht unbedingt nötig sein.
Sinnvoll wäre wenn der Browser dabei eine Prozentangabe für die zu ladenden Bildinhalte bekommt, um im Mittel alle Bilder mit der gleichen Qualität darzustellen. Aber wie gesagt dazu müssen auch die Bilder progressiv gespeichert sein, damit eben jeweils die niederfrequenten ersten Koeffizienten eines jeden Bildblockes eingelesen werden können.

JPEG erreicht dadurch so gute Kompressionsraten, weil Informationen verloren gehen und es deshalb verlustbehaftet ist. Das muss nicht heißen, dass die Verluste für das menschliche Auge sofort sichtbar sind. Mittels Differenzbilder kann man aber die Unterschiede deutlicher machen.
Ja stimmt schon. So gesehen ist es verlustbehaftet. Ist ja prinzipiell auch nicht anders möglich bei einer Kompression. Ziel ist es ja den Bildinhalt verlustarm oder verlustlos zu Komprimieren. Dazu gibt es eben JPEG-LS und JPEG2000 von der Joint Expert Group. Aber auch mit JPEG kann bei optimalem Bildinhalt "quasi" ohne visuellen Verlust komprimiert werden.
Auf jeden Fall ist dieser Google webp kram eigentlich nix weiter neues und auch nix besonderes. Er bietet keine Qualitätssteigerung und die verringerung der Datenrate ist mit den seit Jahren schon verfügbaren Codecs ebenso möglich. Rechenleistung is für JPEG2000 und co. mittlerweile auch genug da. Frag mich wozu da immer noch jeder auf JPEG setzt. Gerade die Webseitenbetreiber sollten ja für jedes GB weniger an Traffic dankbar sein.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Ja stimmt schon. So gesehen ist es verlustbehaftet. Ist ja prinzipiell auch nicht anders möglich bei einer Kompression.
Nicht ganz. Es gibt wie schon im Thread geschrieben verlustbehaftete Kompression und verlustfreie Kompression. Die Datei wird bei beidem kleiner, aber bei letzterem gibt es zum Originalbild keine Unterschiede.
Zum Vergleich MP3 ist immer verlustbehaftet - auch mit 320 kbit/s, FLAC ist verlustfrei und es hat die Selbe Qualität wie die Originalaufnahme.
Die verlustbehafteten Formate sind auf den Durchschnitt angepasst. Hat jemand z.B. einen Hörfehler (Töne werden anders wahrgenommen), dann hören sich MP3 schrecklich an weil bestimmte Frequenzen einfach weggeschnitten (welche Otto Normalo vielleicht nicht hört oder sofort hört, die Person mit dem Hörschaden oder auch mit dem besser ausgeprägen Hörorgan aber schon) wurden während bei FLAC das volle Spektrum noch enthalten ist, also 1:1 zum Original.

Bei Bildern (JPEG) werden einfach bestimmte "Details" zusammengewürfelt und "weichgezeichnet". Je nach Ausprägung des Auges und des Monitors sieht man auch hier Unterschiede.
 
Zuletzt bearbeitet:
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Ich hab mich mit dem Thema jetz nich weiter beschäftigt, aber ich denke wenn man Teile eines Bildes darstellen kann ohne das man die Komplette Datei geladen hat, sollte es auch möglich sein, Bilder in niedriger Qualität darzustellen ohne die komplette Datei zu laden. Dazu brauch theoretisch nur der Browser in der Lage sein. Dem Server müsste dann nur vermittelt werden das die Datei nicht weiter gesendet werden muss.

Das funktioniert aber nur, wenn der Server die Bildinhalte Stück für Stück einstreut. Sonst dürfte auf der Kette -InetStruktur-Provider-InetAnbindung-Browser-UntersuchungBildinhalt-InetAnbindung-Provider-InetStruktur-Server soviel Zeit vergehen, dass längst der gesamte Inhalt des Bilder in Paketen unterwegs ist, ehe der Browser "genug" meldet. So groß sind die meisten jpegs schließlich nicht, erst das Massenaufkommen führt zu Traffic. Der Browser muss aber bei jedem Bild einzeln entscheiden, wieviel er davon braucht.
Sinnvoller wäre eine Implementierung seitens der Server, enventuell auch einen Proxy (wobei der dann die Pakete analysieren müsste): Der hält die Pakete mit detailierten Bildinformationen einfach solange zurück, bis der Browser die Ankunft aller anderen gemeldet hat. Auf die Art entfällt auch eine aufwendige Abstimmung auf die Bandbreite. Die Bilder werden weiterhin vollständig übertragen, aber diese unwichtigste Information einfach als letztes gesendet. Text & eine niedrig auflösende Form der Bilder stehen dem Nutzer schon zur Verfügung, wärend die Details noch geladen werden. (oder auch nicht mehr, wenn der Nutzer bereits vorher entscheidet, dass ihn die Seite nicht interessiert)

Aber führt eine derartige Komprimierungsform nicht in sich zu einer insgesamt größeren Datei? Afaik beruhen die meisten Komprimierungstechniken darauf, dass Informationen mehrerer Pixel auf eine Struktur hin anaylsiert und diese Struktur dann übertragen/gespeichert wird (also "4*rot" statt "rot-rot-rot-rot"). Daraus entsteht nicht automatisch eine niedriger aufgelöste Form des Bildes, die müsste man extra erzeugen.
Das einzige Verfahren, bei dem sie automatisch integriert wäre, wäre eine Vereinigung der Pixel zu immer größeren Kacheln, wobei zur Wiederherstellung der hochauflösenden Form nur noch die Abweichung der jeweiligen Subeinheit zum Mittelwert des großen&ganzen übertragen wird. Da wäre die Kompressionsrate bei kontrastreichen Bildern aber nahe null.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Aber führt eine derartige Komprimierungsform nicht in sich zu einer insgesamt größeren Datei? Afaik beruhen die meisten Komprimierungstechniken darauf, dass Informationen mehrerer Pixel auf eine Struktur hin anaylsiert und diese Struktur dann übertragen/gespeichert wird (also "4*rot" statt "rot-rot-rot-rot"). Daraus entsteht nicht automatisch eine niedriger aufgelöste Form des Bildes, die müsste man extra erzeugen.
Also einfache RLE (Lauflängenkodierung) ist wohl so ziemlich das einfachste Verfahren und zudem verlustfrei. Bei JPEG bspw. kommt erstmal ne Umwandlung in nen anderen Farbraum zur Anwendung und anschließendes Subsampling. Sprich man geht von RGB weg und nimmt einen Raum bei dem die einzelnen Komponenten unterschiedlich wichtig für die Wahrnehmung sind. so kann man die unwichtigeren Informationen (Farbverschiebungen sind weniger schlimm als Helligkeitsunterschiede) mit geringerer Genauigkeit speichern (subsampling). Das ist aber bei weitem noch nicht alles bei JPEG, da kommen noch einige Schritte mehr und zum Schluss kommt dann immer noch sowas wie RLE, LZW, Huffman oder etwas ähnliches, dass verlustfrei und unabhängig von den Daten ist (Musik, Bilder, Text, etc.). Wegen diesen letzten Schrittes bringt es eigentlich auch nie was die Daten nochmal zu zippen - JPEG, MP3s, Filme werden dadurch fast immer größer als vorher.

Kann man aber auch alles bei Wikipedia nachlesen, für den thematischen Einstieg sind die Artikel eigentlich immer recht brauchbar.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Das jpeg gezielt Informationen weglässt, wusste ich gar nicht - dachte nur, dass es sich nicht drum kümmert, wenn sich komprimierte Form nicht mehr eindeutig hochrechnen lässt.
Aber mein Argument hat bestand: Das ganze Systeme basiert auf Pixeln/Bildabschnitten, nicht auf hierarchischen System, dass das ganze Bild erfasst und zunehmend feiner darstellt. Es liegt keine Sequenz vor, die das ganze Bild grob Beschreibt und eine Art Voransicht ermöglichen würde.
 
AW: Neues Bildformat Webp soll Internet beschleunigen und JPEG ablösen

Nicht ganz. Es gibt wie schon im Thread geschrieben verlustbehaftete Kompression und verlustfreie Kompression. Die Datei wird bei beidem kleiner, aber bei letzterem gibt es zum Originalbild keine Unterschiede.
Da stimm ich Dir schon zu und es is richtig was du schreibst. Nur es war von mir erstmal im groben nur gemeint das beim komprimieren eben redundante, irrelevante und auch tlw. eben benötigte Daten entsorgt werden. Was bei der Wiedergabe für den Menschen wichtig ist und was nicht, ist sehr unterschiedlich, aber dies ist eben der ausgangspunkt von Codecs wie JPEG oder MPEG2-Layer3. Es gibt auf jeden fall auch so genannte "verlustfreie" Codecs. Datenverlust haben fast alle nur der Informationsverlust ist eben unterschiedlich ^^

Der Browser muss aber bei jedem Bild einzeln entscheiden, wieviel er davon braucht.
Ja das stimmt schon, aber er bekommt ja meist den Header zuerst um was mit der Datei anfangen zu können, zumindest wenn er es Progressiv laden soll. Früher ging das mal irgendwo einzustellen. Egal, im normalfall bekommt er sicherlich erst den Header und damit weis er sofort wieviel er von der Datei braucht (selbst die Downloads geschehen bei den meisten Browsern Progressiv und um zu wissen wieviel Speicherplatz benötigt wird, wird meist erst der Header übertragen und analysiert). Bei symmetrischen Übertragungsraten wie bei ISDN ist es somit ohne weiteres möglich dem Server die (im vergleich zur Datenrate) große Datei vor dem kompletten Senden abzuwürgen (oder zumindest die Übertragung auf der "langsamen" letzten Meile zu verhindern).
Aber führt eine derartige Komprimierungsform nicht in sich zu einer insgesamt größeren Datei? Afaik beruhen die meisten Komprimierungstechniken darauf, dass Informationen mehrerer Pixel auf eine Struktur hin anaylsiert und diese Struktur dann übertragen/gespeichert wird (also "4*rot" statt "rot-rot-rot-rot"). Daraus entsteht nicht automatisch eine niedriger aufgelöste Form des Bildes, die müsste man extra erzeugen.
Das einzige Verfahren, bei dem sie automatisch integriert wäre, wäre eine Vereinigung der Pixel zu immer größeren Kacheln, wobei zur Wiederherstellung der hochauflösenden Form nur noch die Abweichung der jeweiligen Subeinheit zum Mittelwert des großen&ganzen übertragen wird. Da wäre die Kompressionsrate bei kontrastreichen Bildern aber nahe null.
Kontrastreiche Bilder lassen sich auch nur schlecht komprimieren. Die Lauflängenkodierung wird nicht unbedingt immer angewendet und dient auch nur der redundanzreduktion. Die meisten Coder nutzen aber komplexere verfahren der Zeichenkodierung, da nur wenige Dateien viele gleiche aufeinanderfolgende Zeichen beinhalten.
Bei JPEG gibt es definitiv die Möglichkeit des auslesens der ersten Koeffizienten eines jeden Bildblocks. Dazu muss eben nur beim Komprimieren ein häckchen bei Progressiv gesetzt werden, dann sollten diese Daten auch am Anfang der Datei stehen.
Wegen diesen letzten Schrittes bringt es eigentlich auch nie was die Daten nochmal zu zippen - JPEG, MP3s, Filme werden dadurch fast immer größer als vorher.
Das liegt aber hauptsächlich daran das Zip-Dateien eine eigene Codetabelle (oder so ähnlich) erstellen. Dadurch kommt zu den ohnehin schon komprimierten Daten noch zusätzliche Information hinzu. (nur so als Ergänzung zu deiner Aussage)
Aber mein Argument hat bestand: Das ganze Systeme basiert auf Pixeln/Bildabschnitten, nicht auf hierarchischen System, dass das ganze Bild erfasst und zunehmend feiner darstellt. Es liegt keine Sequenz vor, die das ganze Bild grob Beschreibt und eine Art Voransicht ermöglichen würde.
Prinzipiell schon, denn wie gesagt es gibt die Möglichkeit die Koeffizienten der DFT für die niederfrequenten (verschwommenen) Bildinhalte zuerst auszulesen.
Übrigens: In PC-Games wird ein ähnliches Verfahren angewendet um Texturspeicher zu sparen. Texturen werden erst komplett geladen wenn sich die Kameraperspektive nähert. Zuvor erscheinen nur die verschwommenen Texturen der niedrigen Koeffizienten. Das gleiche gilt seit kurzem auch für die Geometrie. Hier nennt es sich dann Tesselation.
 
Zurück