Super RTL setzte bei seinem Magazinformat „Wow – Die Entdeckerzone“ von jeher auf ein virtuelles Studio. Nun hob man die Kulissen aus dem Rechner mit neuer Technik auf das nächste Level.
Das virtuelle Studio ist ein wichtiger Bestandteil im Konzept von „Wow – Die Entdeckerzone“, einer Magazinsendung für Kinder für Super RTL, die auf spielerische Weise Wissensinhalte vermitteln will. Nun vermeldete der Kölner Sender ein Upgrade: „Außergewöhnliche physikalische Phänomene“ würden „durch den Einsatz immersiver 3D-Welten so hautnah wie nie zuvor“ präsentiert. „Mithilfe einer Echtzeit-3D-Engine wurden spektakuläre virtuelle und fotorealistische Naturkulissen erschaffen.“ Was genau war aber neu an der Umsetzung?
„Beim alten Set-Konzept hatten wir nur einen begrenzten virtuellen Studioraum, in dem verschiedenste 3D-Elemente und Effekte stattfanden“, erläutert Alexander Gerdes, Regisseur von Tof Pictures. „Wir wollten jetzt aus diesem Studioraum hinausgehen und visuell eine unbegrenzte Weite erreichen. Auf dem Mond, im Regenwald, auf einem Segelschiff – dort und in anderen ungewöhnlichen Umgebungen sollten die Moderationen stattfinden und die Qualität sollte mit aktuellen Computerspielen mithalten.“
Neues Setup
Möglich wurde das mithilfe des Berliner Unternehmens EngineRaum, das seit 2018 Virtual-Studio- und Augmented-Reality-Systeme für den Einsatz im professionellen Broadcastbereich entwickelt. Die Basis für das eingesetzte eSpace-System ist die Engine des russischen Unternehmens Unigine, das sich vor allem auf den Bereich natürlicher Simulation konzentriert hat, wie etwa für Flugsimulatoren. „Im Bereich realistischer Beleuchtungsmodelle ist sie ,State of the Art‘ und gibt uns damit die Möglichkeit, so fotorealistisch wie nur möglich zu produzieren“, beschreibt EngineRaum- und vr3-Geschäftsführer Dirk Konopatzki die Technologie. Physically Based Rendering, Realtime Global Illumination, Ambient Occlusion und Dynamische Reflexionen sind hier die ausschlaggebenden Merkmale. Das neue Setup ist in sämtlichen Belangen eine extreme Verbesserung. Effekte, beispielsweise Schär- fentiefe und Bewegungsunschärfe lassen sich einfach mit realen Kameras matchen und damit reale und virtuelle Elemente noch besser miteinander verschmelzen. Sonnenstand, Schatten, Wasser- und Wetterphänomene sehen beeindruckend realistisch aus. Tropische Inseln, Piraten- schiffe, Mond- oder Arktislandschaften konnten so in hoher Qualität nachgebildet werden. Elf Welten mit über 50 Highlight-Animationen, angefangen bei laufenden Dinosauriern über startende Flugzeuge, fliegende Telefonzellen und schwimmende Wale bis hin zu zerfallenden Brücken mussten in unter 13 Wochen gebaut und animiert werden.
Schnellerer Workflow
The curve vfx lieferte wie schon die Jahre zuvor den gesamten Content für die WOW-Studio-Produktion, war aber dank eSpace von EngineRaum jetzt in der Lage, die Qualität und Bearbeitungszeit „enorm“ zu verbessern wie Corney Ryczek von the curve vfx betont. „Effekte wie Schattenwurf und Global Illumination mussten früher mühsam vorgerechnet werden und erst nach dem Export sah man, ob alles passte. Änderungen im Set hatten daher auch entsprechend lange Bearbeitungszeiten. In eSpace sieht man bereits beim Editieren, ob alles passt und kann die Änderungen direkt vornehmen. So können wir Anpassungen sogar während der laufenden Produktion in Echtzeit vornehmen.“ Dabei verwendet eSpace das mittlerweile weit verbreitete PBR-Shader-Modell. Durch die vorhandene Material-Library von eSpace sei die Vielfalt an realistischen und ein- drucksvollen Materialien sehr groß gewesen und konnte verhältnismäßig schnell und unkompliziert erweitert werden.
Studiodreh
Für die Aufzeichnungen in Düsseldorf setzte vr3 zwei remote-gesteuerte Panasonic-PTZ Kameras (AW-UE150) sowie eine BlackMagic URSA Mini Pro ein. Die Panasonic PTZ-Kameras boten den großen Vorteil, dass sie ihre PTZ-Werte in Echtzeit über das angeschlossene Netzwerk bereitstellten. Die URSA konnte auf einem Magnum-Dolly frei und flexibel im gesamten Studio bewegt werden. Die Kamera-Positions-Daten lieferte ein fest installierter Mo-Sys Star-Tracker. An der Studiodecke befestigte Reflektoren ließen ihn jederzeit seine Position eindeutig im Raum ermitteln. Diese Positionsdaten wurden, gleichzeitig mit den Werten für Brennweite und Schärfe, an die Systeme von Engine-Raum weitergegeben.
Die zwei PTZ-Kameras waren in ihrer Position fixiert. Frei schwenkbar und mit einem sehr großen Zoom-Bereich versehen, übermittelten sie ihre Werte ebenfalls an die EngineRaum-Systeme. Jeder Kamera war dabei eine eigene Renderengine zugeordnet, in der auch direkt das Greenscreen-Keying mit dem internen Keyer vorgenommen wurde.
Am ersten der 15 Drehtage konnte die Crew sofort loslegen. Mit den eTools von EngineRaum wurden für jede Sendung entsprechende Run-Downs generiert, so dass ein Operator die gewünschten Animationen einfach und punktgenau zur Moderation einstarten konnte. Die Moderatoren steuerten manche Animationen auch direkt im Set. Das geschah über einen Tracker, der seine Positions- und Rotationsdaten direkt an die virtuellen Objekte weitergab. So wurden virtuelle Gewichte gestemmt, der Lauf der Sonne per Hebel beeinflusst, Eis zertrümmert und Objekte mit riesigen Magneten ange- zogen. [13960]