Hier nochmals in Kurzform die im PDF angesprochenen Programmpunkte der dwerft-Konferenz in Berlin in der Brandenburgischen Landesvertretung, In den Ministergärten 3, 10117 Berlin. Auskommentiert werden erst die letzten beiden Beiträge, da zuvor eine Teilnahme an der "No Show? Cube Fair Berlin" ermöglicht werden konnte.
10.00
Eröffnung
– Hans-Peter Hiepe (Bundesministerium für Bildung
& Forschung, angefragt)
– Jörg Wehling (DRA, dwerft-Sprecher)
10.15
Der dwerft-Workflow: Vernetzung in der Film/TV-Branche
– Peter Effenberg (transfermedia)
10.45
Follow the White Rabbit - Metadaten sichtbar machen
– Stefan Beckers (Filmuniversität Babelsberg) & Alexander Kramer (HTW)
11.05
Archivmaterial befunden und sichtbar machen
Automatisierung im Bearbeitungsprozess von Filmmaterial
– Jörg Wehling (DRA) und Markus Kreisel (wdr mediagroup digital)
11.25
Videoediting & Quality Check as a (Cloud) Service
– Peter Altendorf (IRT) &
– Andreas Martin (Interlake)
Interessant: die Entscheidung auf die Microsoft Azure Serie N - Infrastruktur zu gehen und nicht auf die Amazon Cloud. Auch wenn diese zuletzt nochmals ausdrücklich im Umfeld des IRT beworben wurde.
In den IRT-Richtlinien werden auch die Rahmenbedingungen festgelegt, die für externe Produzenten Voraussetzung sind, um mit den öffentlich-rechtlichen -Anstalten zu kooperieren.
Und diese sollen jetzt auf eine Cloud-Umgebung "gemapped" werden. Die Darstellung der gesamten Onthologie dieses Systems geht zu weit ins Detail. Aber es wird deutlich, dass allein an dem Thema "aspect ratio" nicht weniger als 5 Arbeitsgruppen auf der EBU-Ebene befasst sind.
MXF ist als Standard gesetzt für die Austausch von Audio- und Video-Profilen.
Alle weiteren Überlegungen, die auf der EBU-Ebene vorangetrieben wurden, wurden inzwischen auch mit der SMPTE abgestimmt und werden fortwährend veröffentlicht.
Das Thema File-Based-Delivery wurde nach der Prüfung der vorliegenden Systeme dennoch - gerade deshalb - zu einer eigenen Lösung gefunden.
11.45
Semantische Suche und intelligente Empfehlungssysteme [1]
– Prof. Dr. Harald Sack (Hasso-Plattner-Institut).
LPD = Linked Production Data. Im Gegensatz zur klassischen Darstellung in der Daten in einem Schema wird "irgendwo abgelegt" werden, werden in einer Ontologie die Datensätze samt ihrer Verknüpfung als Wissens-System zur Darstellung gebracht werden: Bedeutungen in "maschinenverstehbarer" Weise. Und dafür soll(te) ein neuer Standard festgelegt werden. Und das auf der Basis der W3C-Standards.
Dafür wurde eine Art "Werkzeugkasten" entwickelt und veröffentlicht, der eine Erweiterung deses Systems zulässt. Aus der Linked Data Cloud wird es möglich, die Bilder einer Sequenz durch entsprechendes Kontext-Wissen zu ergänzen.
Hinzu kommt eine Visual Concept Detection , die fortwährend lernt, Qualifikationen vorzunehmen. Klar: je grösser die Trainingsmenge, desto besser die Bilder. Aber wie viel braucht man um qualifizierte Ergebnisse zu erhalten (angeblich annähernd 60% der ausgewählten Datenmenge).
Der nächste Schritt ist die semantische Suche. Das Tool dazu lautet: Native Entitiy Linking. Was ist jetzt, wenn hier nicht mit Texten gearbeitet wird, sondern ein "Semantischer Video Annotator".
Was aber ist, wenn man nicht genau weiss, was man suchen soll. Dafür hat man bekanntlich kaum eigenen Worte. Da hilft die sogenannte "Explorative Suche" - und führt bis zu einem "Visual Berrypicking" in einer Video-Sammlung.
Und damit sind wir schon bei intelligenten Empfehlungs-systemen. Und hier geht es um die Relevanz der Fakten über den gesuchten Gegenstand. Zum Beispiel: Albert Einstein ... als Physiker und/oder als Vegetariern.
14.30
Metadaten als Geschäft: Impulsvortrag I
Film & Recht – Neue Nutzungsformen und mehr Daten
– Rike Maier (Alexander von Humboldt Institut für Internet & Gesellschaft)
14.40
Metadaten als Geschäft: Impulsvortrag II
Finanzierungswege für die Produktion von OnlineVideo [2]
– Urs Kind (Alexander von Humboldt Institut für Internet & Gesellschaft)
15.00
Metadaten als Geschäft: zwischen Tradition und Zukunft
– Dr. Robert Engels [3], ist Program Leader Metadatabank & Archive bei der größten Rundfunkanstalt Norwegens NRK und Mitglied der ORIGO enterprise architecture group
Ein Gespräch über die Zukunft der Metadaten und die Verortung der
Erkenntnisse der dwerf in dieser mit Peter Effenberg (Projektsteuerung dwerft)
"Wir haben jetzt 3000 Leute, die jetzt die Metadaten schreiben und nach und nach verbessern können. Und das macht besonders Spass, das in Deutschland zu sagen."
Im Radio-Sektor ist diese Ontologie schon seit einem Jahr in Betrieb. Und funktioniert mit noch wenigen Problemen. Und wird von den Archivaren geliebt, weil in unserem Funktionsmodell das Archiv in der Mitte steht.
Und das Ganze ist im Prinzip wie ein Wiki gebaut.
Aus dem Archiv raus und rein ins DiGAS ... in 15 Sekunden. Und vollständig automatisiert.
"Sound ist viel schwieriger als Bild zu analysieren"
"Enterprise Project Management" ist verdammt wichtig für eine solche Entwicklung.
"Wir brauchen Partner und wir brauchen keine Liefertanten"
Frage: Welche Chancen gibt es überhaupt angesichts der Deutschen Rundfunklandschaft.
16.00
dwerft – Zusammenfassung: Ausblick
Podiumsdiskussion mit Fragen aus dem Publikum
Moderation: transfermedia (Projektsteuerung)
Learning? Wir von der Hochschule haben gelernt, dass die Informatiker lernen müssen, sich mit Menschen aus solchen Branchen wie der der Medien wirklich ins Gespräch zu kommen, sich zu verstehen und zu verständigen.