Untertitel Spracherkennung, Emoji Tests

Nachmittags kurz spielen mit meiner Nichte. Dann Tests am Mac. Unter den vielen Spaziervideos ist nur eins, welches ich mit Untertiteln online stellte.

Die durchschnittliche Zeit, mit der dieses Dresden Video angeschaut wird, bist um einiges höher (17′ vs 15′), als eben ohne. Immerhin 26% schauen sich das Video mit Untertiteln an.

Die Frage ist also, wie ich weitere Videos effizient mit Untertiteln versorge. Eine Idee ist, Ableton live zu nutzen. Man kann Videos in Ableton zur Nachvertonung laden und einfach einen Audiotrack in Stücken aufnehmen. Ich testete das und es funktioniert ganz gut. Ein Sega Saturn Gamepad band ich per Gamepad Companion mal testweise ein. Wenn ich die Tasten gut belege, könnte ich komfortabel Record, Forward, Rewind nutzen. ‚Ne Tastatur/Mouse tut es auch. Hauptsache ist, dass ich die Spracherkennung für Subtitles nutze und mir das Tippen erspare. Straßennamen wird Google wohl nicht erkennen und müssten in Notizen festgehalten werden. Mal sehen, ob’s Spaß und eine Zeitersparnis bringt.

Abends schaffte ich es in der Finsternis und Dunkelheit noch zu einer Jogging-Runde. Danach wieder ein feines Abendessen.

Das „Emoji to Scale“ Thema interessierte mich. Apple Emojis darf man wohl nicht kommerziell verwenden. Openmoji sah nicht so dolle aus, unbrauchbare SVG für 3D. Twemoji von Twitter leicht besser. So stieg ich mal wieder in C4D ein und checkte, wie man ein Video aus der Idee machen könnte – in 3D? Es gab auch eine neue WebGL Version von Scale of the Universe. Diese Art Videos ist ganz nett und wäre mal ein Neu-Einstieg. In C4D ist das alles gar nicht so einfach zu machen. Jetzt mit dem PC als ausreichend schneller Renderer, wäre ein 5 Minuten Video schon mal cool.

Ich fand erst per Tutorials eine Möglichkeit, C4D Objekte auf die gewünschte reale Größe zu skalieren. Der Import von neuen .AI Files geht zwar nun gut, ist aber auch etwas wackelig. Es gilt eben über 100 Symbole zu animieren, was aber mit Camera Morphs klappen sollte. Da muss einiges gescriptet werden – jedenfalls was die Aufbereitung der Daten angeht. Ich müsste das alles in einige Shots aufteilen, wie ich es in einem Behance Beispiel sah. Ob die Transparenzfunktion auch in U-Render geht, werde ich testen. Insgesamt waren das wieder einige Stunden des Herumexperimentierens aber eben auch wichtig, weil ich ohne Auffrischung eben doch schnell viele Programme verlerne. Wichtig ist, wie die Skalierungsfaktoren animiert werden, weil man ja keine realen Werte nehmen kann.

Die Emoji-Idee ist noch frisch und sollte wohl doch zuerst angepackt werden. Ohne Budget muss es nicht perfekt werden. Wenn ich um die 4fps in C4D hinbekomme, nehme ich aber kein After Effects. Hinterher bin ich schlauer. Xpresso bei C4D scheint wieder wichtig.

0 Responses to “Untertitel Spracherkennung, Emoji Tests”


Kommentare sind zur Zeit nicht möglich.