Virtuelle Realität als Erzählhilfe im Dokumentarfilm

9. Mai 2015

Als Auftakt Veranstaltung des Dokforums beim 30. Münchner Dokfilmfestival beschäftigten sich verschiedene Experten am Freitag 08. Mai 2015 mit der Frage, wie virtuelle Realität im Dokumentarfilm und Journalismus benutzt werden kann, um Geschichten zu erzählen.

 

Jamie Pallot von der Emblematic Group USA stellte verschiedene Beispiele virtueller Realität im sogenannten Immersive Journalismus vor, wobei diese Bezeichnung für eine einfühlende Form steht, Ereignisse aus der realen Welt in eine virtuelle Simulation zu übertragen. Dazu werden Techniken aus der Computerspielwelt benutzt, 3D-Brillen und die entsprechenden Programme, um die virtuellen Räume im Computer zu generieren. Aus den Schilderungen von Zeugen und zufälligen Filmaufzeichnungen werden die realen Örtlichkeiten als animierte 3D Räumen nachgebaut, die der Zuschauer dann mit einer 3D-Brille in einer Installation betreten kann, um quasi als Zeuge den Ereignissen beizuwohnen. Oft sind die Soundtracks der Vorfälle real. Es gibt auch Mischformen, bei denen die Videoaufzeichnungen des Ereignisses in die animierten Räume eingebaut sind. Man kann sich das Ganze als dreidimensionale Computergenerierte Tatortrekonstruktion vorstellen, die trotz Animationslevels zu einer hohen emotionalen Einbindung des Zuschauers führt. Augenblicklich sind die Installationen noch sehr aufwändig, weil ähnlich wie im virtuellen Studio bei tragbaren Kameras, die realen Raumpositionen der Zuschauer ermittelt werden müssen, um die entsprechenden Ansichten des virtuellen Raumes zu liefern. Jamie Pallot von der Emblematic Group und die Firmengründerin Nonny de la Pena haben inzwischen in Zusammenhang mit verschiedenen Veranstaltungen eine Reihe unterschiedlicher Projekte zum Bürgerkrieg in Syrien,  zu Guantanamo, zur Essenausgabe an Obdachlose entwickelt, die sie auf einer eigenen Internetseite vorstellen (http://www.immersivejournalism.com/)

 

Nicht ganz so aufwändig sind 360° Aufnahmen. Der Londoner Journalist Edward Miller flog im Oktober 2014 nach Hong Kong, um die zu Pro-Demokratie Proteste mit einer 360° Kamera zu dokumentieren. Den Film kann man in der 360° Version im Internet unter (www.hongkongunrest.com) betrachten und wer keine 3D-Spielebrille hat, kann seine Blickrichtung mit dem Mauszeiger vorgeben. Grundsätzlich bringen 360° Produktionen eine Reihe von Besonderheiten mit sich:

Die Bildraten müssen über 50 Bilder pro Sekunde liegen, die Wiedergaberate sollte doppelt so hoch sein. Der Dynamikumfang ist extrem und augenblicklich können die Kamerasysteme das noch nicht akzeptabel verarbeiten. Am Drehort stellt sich die Frage: Wohin mit der Crew und dem Zusatzequipment, denn alles ist im Bild. Meist trägt der Kameramann die Kamera an einem Monopod über dem Kopf, so wie Google seine Streetview Bilder erstellt. Kamerabewegungen sind kontraproduktiv und können beim Betrachten mit 3D Brille Schwindel auslösen. Eine 360° Aufnahme in 3D lässt sich mit der links/rechts Kameraanordnung nicht lösen, denn zwischen der Vor- Rück-Perspektive muss sich das links/rechts Prinzip irgendwo umkehren.

 

Auch die BBC experimentiert in ihrem Research&Development Department mit den Fragen der 360° Aufnahme. Zillah Watson von der BBC und Filmemacher Peter Boyd Maclean präsentierten in München ihre 360° Aufnahmen von der Tate Modern Gallery und ihre Erfahrungen bei der Produktion. Benutzt haben sie ein 6 fach Gopro Kamerarig in Würfelform. Diese Rigs gibt es von verschiedenen Firmen, zum Beispiel Freedom 360°. Enthusiasten dieser Filmform haben sich ihre Rigs mit dem 3D-Drucker selbst kreiert. Wichtig ist eine Image-Stitching Software, die die Einzelbilder an ihren Nahtstellen bildmäßig interpoliert und zusammenfügt. Da gibt es zum Beispiel Autopano des französischen Softwarehauses Kolor. Gopro hat diese Firma aufgekauft, schließlich braucht ein 360° Fan gleich sechs Kameras.

Dan Pacheco scant das Publikum

Dan Pacheco ist Professor für journalistische Innovation in Syracuse und arbeitet neben 360° Grad Aufnahmen auch mit Raumscannern um neue virtuelle Ansichten zu schaffen. Der auf einem iPad aufgesetzte Structure Sensor projiziert ein Gitterliniennetz in den Raum, um es dann mit einem Sensor zu erfassen. Aus den Verzerrungen des Netzes werden die Raumtiefeninformationen berechnet und eine 3D Raumansicht berechnet. Die Kombination aus Videokamera und Raumscanner ist eine vielversprechende Methode, reale Räume einfach in VR abzubilden.