Flashback: Ein Blick ins All, heute vor zehn Jahren

Der 7. Januar 2025 war für mich ein ganz besonderer Tag, denn mein damaliger Kollege Martin Holland und ich hatten eine Verabredung mit Alexander Gerst. Der war im November des vorangegangenen Jahres nach 165 Tagen im All wieder auf die Erde zurückgekehrt und hatte seitdem einen vollen Terminkalender – denn natürlich waren wir nicht die einzigen Journalisten, die ihn unbedingt interviewen wollten.

Das Transkript (eines Teils) unseres Gesprächs war dann in der Make-Ausgabe 1/15 zu lesen. Dies war die erste Ausgabe des Magazins nach dem Namenswechsel von c’t Hacks zu Make, bei der nur der neue Name darüber stand; außerdem war die gesamte Gestaltung des Hefts frisch überarbeitet worden. Das Layout des Gerst-Interviews reizte deren Rahmen ziemlich aus, war in meinen Augen ziemlich gelungen und deshalb bin ich froh, dass man sich den Artikel als PDF kostenlos herunterladen kann. Alternativ gibt es das Interview auch online; dazu den zweiten Teil, der damals nicht bei Make, sondern unter der Marke c’t beziehungsweise heise online erschien.

Das Interview fand standesgemäß im Astronautenzentrum der ESA in Köln-Porz statt, das wir vor und nach unserem etwa einstündigen Gespräch noch ausführlich besichtigen konnten, ebenso die Anlagen des Deutschen Zentrum für Luft- und Raumfahrt (DLR) auf demselben Gelände – die Eindrücke davon hat Martin Holland in einem weiteren Online-Artikel und einer Bilderstrecke festgehalten.

Gagarin in Bronze

Ein wenig überrascht war ich seinzerzeit schon, auf dem weitläufigen Areal auf eine Büste des sowjetischen Kosmonauten Juri Gagarin zu stoßen. Weil damals 3D-Scan mittels Photogrammetrie eines der Themen war, mit denen ich mich für Make beschäftigte, habe ich die kurze Wartezeit genutzt, die Büste einmal umkreist und davon eine Video mit dem Smartphone gedreht, aus dem ich dann später eine Serie von Standbildern exportiert habe, die ich dann in die längst nicht mehr verfügbare Gratis-App 123D Catch von Autodesk einfütterte. Das Ergebnis war mäßig, aber damals fühlte es sich wie Science-Fiction an, dass man jetzt im Vorbeigehen mit seinem Telefon die Form eines Objekts in 3D einfangen kann …

Später wurden die kostenlosen Photogrammetrie-Apps besser und ich benutzte den alten Gagarin-Bildersatz für den direkten Vergleich. Mit Trnio funktionierte die 3D-Rekonstruktion ein paar Jahre später gleich viel besser, vor allem, wenn man sich aus der Fotoserie gleich noch eine Oberflächentextur erstellen ließ:

Dem ersten Menschen im Weltall in Köln ein Denkmal zu setzen, hätte vor 1990 sicher für weltanschauliche Diskussionen gesorgt, denn der war schließlich ein Vorzeige-Held der Sowjetunion. Zum Zeitpunkt unseres Besuchs im Astronautenzentrum war die Zusammenarbeit mit Russland in der Raumfahrt und besonders auf der ISS allerdings schon so etwas wie Routine, allen massiven politischen Konflikten auf der Erde zum Trotz. Und die waren damals schon unübersehbar – zur Erinnerung: Die Annektion der Krim durch Russland war da noch nicht mal ein Jahr her.

Doch Kooperationen im All hat es sogar schon zu den Hochzeiten Zeiten des kalten Kriegs gegeben, darauf machte mich meine Frau gerade aufmerksam: Beim sogenannten Apollo-Sojus-Test-Projekt kam es 1975 zum Rendezvous zwischen einer sowjetischen und einer US-amerikanischen Raumkapsel sowie deren Besatzungen in rund 200 Kilomentern über Grund. Allerdings wurde diese Kooperation nicht fortgesetzt, solange die UdSSR existierte und für die Amerikanern war dies bis zum Start des Shuttle-Programms erst mal die letzte bemannte Raumfahrtmission.

Zurück in der Realität

Das Datum unseres Treffens mit Alexander Gerst und unseres Besuchs im Astronautenzentrum bleibt mir allerdings aus einem ganz anderen Grund dauerhaft präsent: Als wir nach unserem Besuch an der Haltestelle am Tor zum ESA- und DLR-Gelände auf den Bus warteten, war ich so voller Eindrücke und müde von diesem ereignisreichen Tag und starrte nur noch Löcher in die Luft (oder besser: das All über unseren Köpfen). Der Kollege Martin Holland, ganz Nachrichtenredakteur, warf einen Blick in sein Smartphone – und fand dort vage, aber sehr beunruhigenden Nachrichten: Etwa schlimmes war in Paris passiert, genaues war noch nicht zu erfahren. Das stellte sich dann kurz darauf heraus und es ist heute ebenfalls zehn Jahre her: Der islamistisch motivierte Terroranschlag auf die Redaktion der Satirezeitschrift Charlie Hebdo.

Video – mein neues altes Medium

Bis vor gut sechs Wochen war ich stellvertretender Chefredakteur der Make – Deutschlands gefährlichstem DIY-Magazin; jetzt mache ich beruflich was ganz anderes. Artikel habe ich immer sehr gerne geschrieben (anderfalls hätte ich wohl auch nie dieses Blog angefangen), aber leider brachte die leitende Tätigkeit für mich mit sich, dass ich immer weniger selbst geschrieben, dafür mehr redigiert und vor allem viel mehr organisiert und auch in Sitzungen gesessen habe. Trotzdem ist über die Jahre natürlich einiges zusammengekommen, was online gegegangen ist und über dem ich (zumindest als Mit-)Autor stehe. Eine umgekehrt chronologische Liste (das neueste steht oben) gibt es auf meiner Autorenseite bei heise online.

Video als Spielwiese

Ein paar dieser Beiträge bestehen in erster Linie aus einem Video mit etwas Text drumherum. Tatsächlich waren für mich diese Videos, die ich in meiner letzten Zeit bei Make zwischendrin immer mal wieder mal machen konnte, für mich sehr befriedigend: Denn bei diesen kurzen Filmen habe ich alles selber gemacht, mir ein Konzept für den Ablauf ausgedacht, den Text fürs Skript geschrieben, Bild und Ton aufgenommen und das ganze am Ende geschnitten. Deshalb fühlen sich die fertigen Filme für mich auch ein wenig an wie abgeschlossene Werke – auch wenn ich Werk als Begriff zu hochtrabend finde, es geht ja nicht um Kunst, sondern um Gebrauchsfilme. Aber auf einige davon bin ich ehrlich stolz.

Hier ist mein letztes Make-Video, bei dem es um den Test eines smarten Lineals ging, den NeoRuler von Hozo Design, der mich am Ende aber nicht wirklich überzeugt hat:

Gedreht habe ich übrigens in den letzten Jahren fast ausschließlich mit meinem jeweils aktuellen Smartphone, in diesem Fall ist das ein Fairphone 5. Als App nehme ich im Prinzip immer noch gerne Filmic, früher in der Pro-Version, inzwischen als Filmic Legacy, denn der Hersteller hat stillschweigend sein Geschäftsmodell vom Einmalkauf zum Abo-Modell geändert und was der jetzt monatlich haben will, ist für mich als Gelegenheitsnutzer leider viel zu teuer. Hingegen kostet die Schnittsoftware DaVinci Resolve kein Geld – aber eine Menge Einarbeitungszeit habe ich durchaus investiert. Ich finde aber, das hat sich gelohnt.

3D-Scanner im 2D-Video

Mehr Spaß mit meinen Testgeräten als beim (doch nicht so) smarten Lineal hatte ich bei den insgesamt drei 3D-Scannern, die ich in zwei Videos ausführlich vorgestellt habe. Es geht dabei um die Modelle Pop 2 sowie Mini des Herstellers Revopoint und das Open-Source-Projekt OpenScan Mini:

Die Unboxing- und Montagesequenzen sind dabei am Video-Arbeitsplatz in der Make-Redaktion entstanden, wo es fest installierte Kameras und Leuchten gibt, die auf den Arbeitstisch gerichtet sind – so etwas erleichtert die Dreharbeiten deutlich. Den NeoRuler-Film habe ich hingegen komplett im „Home Studio“ gedreht, genauer gesagt zum Teil auf dem Schreibtisch und zum anderen auf dem Esstisch. Einzige Ausnahme: Das Intro und das Fazit, bei dem ich im Bild bin, hat meine Kollegin Dunia im Make-Labor gefilmt. Sowas ist tatsächlich viel einfacher, wenn man ein Gegenüber hat, das die Kamera hält. Lustiger ist es auch.

Schneller produziert

Solche Produkt-Test-Videos bedeuten natürlich eine Menge Aufwand, denn manchmal ist es gar nicht so einfach, die Funktion der Geräte anschaulich im Film einzufangen. Damit man das Lichtmuster der 3D-Scanner real erahnen kann oder damit die Anzeige des Blinkenlights-Lineals im Video nicht zu sehr flackert (was sie bei der Wahrnehmung mit dem bloßen Auge aufgrund dessen Trägheit überhaupt nicht tut), waren doch einige Experimente mit Bildwiederholraten und Beleuchtung nötig.

Die Datenmodelle, die aus den 3D-Scannern kamen, habe ich zudem in Blender importiert und so gerendert, dass man die Unterschiede sehen kann und zum Teil die Ergebnisse auch noch interaktiv drehbar bei Sketchfab hochgeladen – auch das kostet natürlich alles Zeit.Funktioniert aber auch hier, weil es so schön ist:

Am Ende kostete der Schnitt natürlich auch noch viele Stunden. Um das alles zu beschleunigen, habe ich mir bei jedem Video aufgrund der bisherigen Erfahrungen aufs Neue überlegt, wie ich am besten vorgehe: Erst den Text schreiben und dann Bilder dazu drehen? Erst die Bilder machen und schneiden, dann einen Text dazu aus dem Off live einsprechen? Den Rohschnitt machen und dann einen Text dazu schreiben und den in Ruhe einsprechen? Ich habe alles probiert und in der Summe machte das alles zeitlich kaum einen Unterschied: Jedes der drei oben gezeigten Videos dürfte am Ende etwa 25 bis 35 Stunden Arbeitszeit gekostet haben.

Schneller gibt es bei zwei einfacheren Videos. Das erste erschien in der Vorweihnachtszeit 2022 und zeigt Last-Minute-DIY-Geschenke von und für Maker. In meinem Video darin ging es darum, wie man etwa aus alten Kalenderblättern hübsche Faltschachteln für Kleinigkeiten herstellen kann:

Noch kompakter ist dieser Einspieler aus der „Entertainmentshow“ der virtuellen Maker Faire Hannover 2021 – es war mitten in Corona (und an Friseurbesuche nicht zu denken, wie man an meinen Haaren sieht):

 

Die Begrüßungssequenz am Anfang ist bei einem der seinerzeit seltenen Besuche im Büro entstanden, gedreht habe ich mit meinem damaligen Nokia 7 Plus und den Ton habe ich notgedrungen mit dem eingebauten Mikro aufgenommen. Für die Stimme aus dem Off beim eigentlichen Tutorial (die ja deutlich anders klingt) habe ich das Mikro eines wirklich guten Headsets benutzt, aber das viel zu dicht am Mund platziert, sodass ich klinge, als hätte ich eine Wäscheklammer auf der Nase. Anfängerfehler. Apropros: Ich bekomme es gerade nicht hin, das Video der kompletten Entertainmentshow von YouTube mit Timecode einzubetten (mein Auftritt ist nämlich erst bei 2:30:18), deshalb habe ich oben einen Ausschnitt aus der Show einmontiert.

Be kind: Rewind

Spulen wir mal weiter zurück: Es war 2015 und noch ein Smartphone vorher (Google Nexus 5) und ich hatte mich auf die Ideen Expo in Hannover verirrt, eine mehrtägige Messe für Schülerinnen und Schüler, die dort für eine berufliche Zukunft in technischen Bereichen begeistert werden sollen. Dort zeigte die Hochschule Jade eine komplett aus Lego gebaute und mit Mindstorms gesteuerte Produktionsstraße für Papierwürfel, deren zentrale Arbeitsgänge ich in zwei Filmschnipseln festgehalten habe:

Seltsamerweise sind die beiden Clips in meiner Online-Geschichte dazu gar nicht (mehr) verlinkt, nur in einer Bildunterschrift erwähnt, auf YouTube haben sie aber inzwischen jeweils weit über 30.000 Klicks gesammelt, im Lauf von neun Jahren natürlich. Meine erfolgreichsten Videos bisher (und das werden sie wahrscheinlich auch auf Dauer bleiben …).

Heute ist es mir eher peinlich, dass ich nicht wenigstens ein Video aus den beiden Teilen zusammengefügt habe, dazu ein paar Standbilder reingeschnitten und eine Texttafel vornedran und am Ende – und dann auch noch der miese Ton …! Aber wahrscheinlich musste es (wie immer) alles ganz schnell gehen.

Schnitt. Nochmal fast zwanzig Jahre früher: Damals, Mitte der 90er, war Videoproduktion noch viel mühsamer, denn man filmte auf Magnetbändern und verbrachte sehr viel Zeit beim Schneiden mit dem Spulen, bis man an der richtigen Stelle für einen Schnitt war. Tatsächlich habe ich Filmen und Schneiden noch in der analogen Zeit gelernt, an der Hochschule für Künste in Bremen – aber das ist mal ein Thema für einen eigenen Artikel hier im Blog. Nur noch soviel: Damals zählte Video zu den neuen Medien und deshalb ist Video, wie die Überschrift sagt, für mich ein altes neues Medium – oder eben umgekehrt: Weil es jetzt auf jeden Fall eines ist, was nicht mehr Teil meines Jobs ist. Aber mal schauen, was noch daraus so wird.

Männer, die in Brillen starren – Erzählungen aus der virtuellen Realität

Virtual Reality – kurz: VR – war schon ein heißes Thema, als ich vor über zehn Jahren Informatik an der Uni Bremen studiert habe. In der Praxis sah Virtual Reality damals so aus: Man baute eigens einen Raum auf, eine sogenannte Cave. Deren Wände waren idealerweise gewölbt, damit die künstliche Welt nicht durch störende Ecken unterbrochen wurde – denn auf diese Wände projizierten mehrere Beamer synchron die Simulation einer in Echtzeit und 3D berechneten Umgebung.

Staken durch den virtuellen Dschungel

An zwei studentische Projekte aus dem Jahr 2004 erinnere ich mich noch besonders gut: Bei einem stakte man auf einem Floß durch die vorbeiziehende 3D-Grafik eines Dschungels (in dem gab es animierte Säbelzahltiger und andere Monster, die seltsam blaue Haut hatten). Das Floß rührte sich dabei nicht wirklich vom Fleck, lediglich die Bewegung der Stange in der Hand des Benutzers wurde von Sensoren erfasst und beeinflusste dadurch das Tempo, in dem die Landschaft in der Projektion achteraus glitt.

Die Technik unter dem fliegenden Teppich

Beim anderen VR-Projekt ging es rasanter zu, denn da kurvte man auf einem fliegenden Teppich durch die Luft. Der Teppich war auf eine Holzplatte geklebt, in zwei Achsen beweglich gelagert und pneumatisch (oder hydraulisch?) gedämpft. Man konnte seine Ausrichtung durch Verlagern des eigenen Gewichts verändern und dadurch den Teppich steuern. Hatte man Tempo aufgenommen, blies einem sogar Fahrtwind ins Gesicht – auf dem folgenden Foto ist am Rand des projizierten Himmels oben der Luftauslass für die Windmaschine zu erkennen.

Fliegen auf dem Teppich durch die VR

Die Idee der VR erlebt gerade wieder eine Renaissance. Allerdings hat sie sich aus ihren Caves befreit und steckt kompakt in Brillen, in die man nur hinein-, aber nicht hindurchsehen kann, und die an zugeklebte Tauchermasken erinnern.

Solche Brillen wie die Oculus Rift oder die Samsung Gear VR haben den unschlagbaren Vorteil, dass man nicht mehr einen kompletten Raum umbauen muss, um in die virtuelle Realität einzutauchen. Auf der anderen Seite kann so ein Sichtgerät immer nur bei einem Benutzer zur Zeit auf der Nase sitzen. Und so ist das Internet voll mit Videos von Leuten, die in undurchsichtige Brillen schauen, den Kopf hin und her drehen und ihren Zuschauern dabei erzählen, was sie gerade erleben. Damit wird über eine Technik, die vielen noch wie Zukunfstmusik vorkommen mag, auf eine Weise kommuniziert, die schon die Epen Homers durch die Jahrtausende trug: Durch Erzählen und Zuhören.

Das hat handfeste Gründe. Bei der Samsung Gear VR zum Beispiel läuft die gesamte VR-Darstellung auf einem handelsüblichen Smartphone – versucht man, auf demselben Gerät die live erzeugten stereoskopischen Videos mitzuschneiden, geht die Hardware in die Knie und die virtuelle Welt fängt an zu ruckeln. Aber selbst bei Systemen, die nicht mit diesem Problem kämpfen, etwa der Oculus Rift, ist der Mitschnitt der Videos nur ein müder Abklatsch des eigentlichen Erlebnisses: Der räumliche Eindruck stellt sich nicht ein, wenn man die Bilder für beide Augen einfach nur so nebeneinander auf dem Bildschirm sieht. Die Darstellung erscheint verzerrt, weil die kalkulierte Verzeichnung durch die eingebauten Linsen der Brille fehlt. Die Bilder füllen längst nicht das gesamte Gesichtsfeld aus. Vor allem reagiert die Darstellung nicht auf eigene Kopfbewegungen. All dies macht aber gerade den Eindruck aus, mit Haut und Haaren in die simulierte Welt einzutauchen. Da bleibt wirklich nur, es selbst zu erleben und davon zu erzählen.

Und ja, es ist eine wirklich intensive Erfahrung, die noch am ehesten mit einem sehr plastischen Traum zu vergleichen ist.