Update: Digital Object Theatre

Während ich vorm Sommer noch davon ausging, dass Realtime Animation vermutlich nur mit Blender und oder Animata für uns zu realisieren sei, stießen wir kurz vor Beginn der Sommerwerkstatt auf die Unreal-Engine, für die Apple ein Plugin bereitgestellt hat. Mit diesem und einem Iphone (OS muss entsprechend aktuell sein), lässt sich in Echtzeit eine vorher geriggte Figur animieren. Abgesehen vom riggen, geht dies recht unproblematisch und schnell. Der Output lässt sich capturen, sodass sich mit einem Beamer durchaus mit digitalen Puppen spielen lässt. In wieweit sich die Software für ganze Stücke nutzen lässt, und welches der unzähligen Plugins für andere Kameras zur Steuerung am besten nutzen lässt, werde ich in den nächsten Monaten ausfuchsen – aus der Perspektive eines Theaterpädagogen. Meine Rü-Kids sind schon ganz heiß drauf …

Digitale Masken

Auch in Sachen Digitale Masken sind wir weitergekommen. Allerdings haben wir kurzzeitig den Pfad der AR-Filter verlassen, da sich für Performatives eine dringendere Lösung aufgetan hat. Im Tanz und der Interaktiven-Installation kennt man es bereits und auch in der Fashion-Welt wird diese Technologie eingesetzt: Dynamic Projection Mapping.

Durch diese Technik lässt sich die Maske aus dem Screen, auf den Körper und somit im Raum spielbar herauslösen. Es ist möglich, vorausgesetzt man verfügt über einen entsprechenden Showrechner, für etwa 300€ nötige Soft- und Hardware zu erstehen, um auch im chronisch unterfinanzierten Off-Off-Theater mit getrackten Körpern und auf diese gemappten Videoinhalten zu arbeiten. Diese Kosten lassen sich locker halbieren, wenn man es schafft (unter Linux z.B.) das nötige Kinect-Framework zum laufen zu kriegen und dann noch die Rawdaten z.B. in PureData/GEM oder Processing weiterverarbeitet, um Dynamic Mapping möglich zu machen. Unter Windows ist es kaum möglich ohne das Microsoft-Framework auszukommen, was den Transfer der Daten in beispielsweise PureData erheblich erschwert (mir jedenfalls). Ich hatte probiert die Skeleton-Daten in OSC zu übersetzen, um sie dann in PD verfügbar zu machen, jedoch ist die nötige Software einfach nicht mehr verfügbar und die ehemaligen Links führen alle auf apple.com… Jetzt sollte man meinen unter MACos sollte es einfacher sein. Hier gibt es zahlreiche Möglichkeiten die Rawdaten zu grabben, allerdings hakt es hier schon beim Kinect-Framework… Bestimmt machbar, allerdings für Theatermacher ohne nötige Kenntnis kaum umsetzbar.
Also: die Kostengünstige Variante fordert Nerven und kostbare Arbeitszeit. Denn selbst wenn man die Tiefenkamera ans laufen kriegt, hat man noch keine Mappingsoftware, es sei denn man steigt von vorneherein auf kostenpflichtige Programme um. Ansonsten heißt es selbst programmieren. Sollte ich Zeit finden, werde ich nochmal ein Wochenende mit meinem alten Linuxrechner und PureData verbringen. Jetzt musste eine schnelle und stabile Lösung her.

Auf dem Mac hats uns bei der Werkschau im August 2020 das Framework zerschossen, sodass wir mit einer Stunde Verspätung am Ende nur statische Mappings zeigen konnten. Allerdings durch Soundscape, Lichtinstallation und gesprochenem Text – nicht zuletzt auch durch die gemappten Clips – wirkte die performative Installation dann doch.

Gestern ist es mir gelungen eine kostenpflichtige Windows basierte Lösung ans Laufen zu kriegen. Hier ergeben sich jetzt auch neue Möglichkeiten für das Digitale Puppenspiel. Der Langzeittest steht noch aus, aber es wird sicher in Kürze ein Video auf unserem Kanal dazu geben. Auf dem Bild oben sieht man meine unfertige Test-Antonin-Artaud-Maske…

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s