2.3 Formate für nichtlineare audiovisuelle Daten

2.3.1 MPEG-4

Die Entwicklung von MPEG-4 als Kodierungsstandard für audiovisuelle Programme mit extrem niedrigen Bitraten begann 1993 und liegt seit 1999 als ISO internationaler Standard vor. Eine erste Erweiterung in Form von MPEG-4 Version 2 ist seit 2000 internationaler Standard. Derzeit wird noch an Erweiterungen in einigen Bereichen gearbeitet.

Audiovisuelle Szenen sind bei MPEG-4 in hierarchischer Struktur aus sogenannten Media Objects zusammengesetzt. Ein Media Object beschreibt dabei Objektprimitive wie Standbilder, Videoobjekte und Audioobjekte. MPEG-4 spezifiziert dabei Objektprimitive für natürliche und synthetische Daten, sowie für zwei- und dreidimensionale Repräsentationen. Einzelne Media Objects sind so kodiert, daß sie auch ohne umgebende Objekte behandelt werden können; die wirkliche Szene entsteht aber durch die Komposition der Objekte.

MPEG-4 bietet standardisierte Wege, um eine Szene aus Objekten zusammenzustellen, beispielsweise um

Im Gegensatz zu den Vorgängern MPEG-1 und MPEG-2 legt MPEG-4 einen deutlichen Schwerpunkt auf Interaktionsmöglichkeiten. So kann es beispielsweise möglich sein, Objekte in der Szene umherzubewegen, Ereignisse auszulösen, die Auswirkungen auf die Szene haben, oder die Sprache von Tonquellen zu wählen.

MPEG-4 verabschiedet sich damit von der streng linearen Welt seiner Vorgänger und bietet so eine deutlich höhere Flexibilität für eine Vielzahl von Einsatzbereichen.

Abbildung 8: Schematische Darstellung von MPEG-4 auf Empfängerseite.

 

2.3.2 Dynamische Vektorgrafiken im WWW: Scalable Vector Graphics (SVG)

Scalable Vector Graphics (SVG) ist ein noch in Entwicklung befindlicher Standard zur Beschreibung zweidimensionaler Grafiken. Bilder können dabei aus Vektorgrafiken, Pixelgrafiken (GIF, JPEG, PNG) und Text bestehen.

Die Beschreibung der Vektorgrafiken und der Hierarchie geschieht mittels Extensible Markup Language (XML). Die textbasierte Syntax von XML ist jedoch nicht sonderlich effizient, was die Datenrate betrifft. Deshalb können SVG-Szenen mittels gzip komprimiert werden. Jeder SVG-Interpreter muß in der Lage sein, so komprimierte Daten darzustellen. Vorteil der XML-Beschreibung ist die nahtlose Integration in HTML- und XHTML-Webseiten.

SVG-Objekte integrieren sich in die strukturierte Beschreibung von Webseiten nach dem Document Object Model (DOM); so ist es beispielsweise möglich, SVG-Objekte durch die Skriptsprache JavaScript zu modifizieren. Dies ermöglicht sowohl animierte Effekte als auch interaktive Elemente.

Weiterhin lassen sich Textelementen Stile mit demselben Cascading Style Sheet (CSS) zuweisen, das auch für Textstile auf der enthaltenden Webseite genutzt wird. Damit kann man durch Änderung des Style Sheets schnell das Aussehen von Webseite und Grafiken modifizieren. Dies ist mit bisherigen Grafikformaten nicht möglich.

Durch die Möglichkeit, auf Schriften, Bilder und andere Elemente verweisen zu können und diese nicht in den Code einbinden zu müssen, können mehrere Grafiken auf dieselben Ressourcen zurückgreifen und sparen somit Speicherplatz und Übertragungsdauer.

2.3.3 QuickTime Virtual Reality (QTVR)

Das QuickTime Virtual Reality Format ermöglicht die Darstellung von dreidimensionalen Objekten (Außenansicht) oder Panoramas (Innenansicht). Im Vergleich zu aufwendiger Virtueller Realität, bei der man tatsächlich den Eindruck erhält, Teil der Szene zu sein, bietet QuickTime VR nur eine gewöhnliche zweidimensionale Darstellung auf Bildschirmen. Der Eindruck einer virtuellen Realität wird dadurch erzeugt, daß der Betrachter das Objekt um eine zentrale Achse drehen kann oder - bei Panoramas - sich selbst um die eigene Achse drehen kann, um Räume oder Landschaften im Rundumblick betrachten zu können.

Zielgruppe von QTVR ist damit weniger Forschung und Industrie, sondern der Heimanwender. Da die Objekte und Panoramas nicht durch Vektoren sondern durch aneinandergefügte Fotografien repräsentiert werden, wird zwar ein guter Bildeindruck erzeugt, jedoch ist es prinzipiell nicht möglich, sich frei in den Räumen zu bewegen: Der Beobachtungsstandpunkt ist festgelegt. Um dennoch eine gewisse Interaktion zu ermöglichen, können Bildbereiche als Hotspots definiert werden. Hotspots sind Verweise auf externe Webseiten oder andere Medien, oder weitere Panoramas, die in der selben Datei gespeichert sind. Damit ist eine einfache Bewegungsmöglichkeit gegeben, jedoch springt man nur von einem Standpunkt zum nächsten - ein fließender Übergang ist nicht möglich.

Um aus Fotografien einen Panoramaeindruck zu erzeugen, existieren bei QTVR zwei verschiedene Methoden. Bei der ersten Methode werden die Fotografien auf einen angenommenen Zylinder projiziert, in dessen Mitte sich der Beobachter befindet. Da hierbei Zylinderdeckel und Boden nicht mit erfaßt werden, ist der Blick nach oben und unten beschränkt. Um eine vollständige Rundumsicht zu ermöglichen, gibt es in der neuen Version 5 kubische Panoramas. Hierbei werden sechs Fotografien auf die Innenseiten eines Würfels projiziert. Dank entsprechender Korrekturalgorithmen sind die Würfelkanten im fertigen Panorama nicht zu sehen.