Elfenbeintürme öffnen sich

Videoaufzeichnung an der Universität Erlangen

Steigende Studentenzahlen und Platzmangel stellen Universitäten oft vor große Herausforderungen. Um der Raumnot zu begegnen, zeichnen die Wissenschaftler ihre Veranstaltungen immer öfter auf oder streamen sie gar live im Internet. Neben den Studenten erhalten so auch fachlich Interessierte öffentlichen Zugriff auf spezialisiertes Wissen. Ein Beispiel dafür ist die Universität Erlangen-Nürnberg.

videoaufzeichnung-an-der-universität-erlangen
(Bild: Markus Tischner)

Bereits im Mai 1999 begann das Multimediazentrum der Universität Erlangen-Nürnberg, universitäre Veranstaltungen im Bewegtbild festzuhalten. Die zwölf Vorlesungen aus dem damaligen Sommersemester wurden jedoch nicht etwa für eine Online-Nutzung, sondern für den Bayerischen Rundfunk produziert. In dessen Bildungskanal BR-Alpha vermittelt die Sendung Alpha Campus bis heute wissenschaftliche Erkenntnisse an die interessierte Öffentlichkeit. Diese Produktionen finden auch nach wie vor statt. Aber das Thema Video-Aufzeichnung nimmt mittlerweile einen wesentlich breiteren Raum in der Arbeit des Multimedia-Zentrums ein.

Anzeige

Während die meisten potenziellen Nutzer Ende der neunziger Jahre weder die notwendige Computer-Hardware noch eine leistungsfähige Internet-Anbindung für die Videowiedergabe zur Verfügung hatten, sind Online-Videos heute fast überall verfügbar und konsumierbar. Darauf haben die Erlanger reagiert und schneiden aktuell rund 400 Veranstaltungen pro Semester mit mehreren Kameras mit. Darunter sind neben Fachvorlesungen auch öffentliche Vorträge verschiedener Veranstaltungen. Die fertigen Aufzeichnungen werden in einem eigenen Videoportal bereitgestellt – teilweise nur für Fachstudenten mit Passwort und teilweise frei für Jedermann verfügbar. Doch die Mitschnitte werden nicht nur für das Videoportal produziert. Manche Veranstaltungen werden auch komplett live ins Internet gestreamt.

live-aus-dem-audimax-erlangen
Benutzeroberfläche von BoinxTV (Bild: Markus Tischner)

Insgesamt gibt es vier Hörsäle, die mit fest installierten Kameras ausgestattet sind, in denen regelmäßig Aufzeichnungen stattfinden. Daneben gibt es an der Universität verschiedene Möglichkeiten, Vorlesungen mit mobilen Aufnahmesets mitschneiden zu lassen oder in Eigenregie mitzuschneiden. So werden aus der Aula der Universitätsverwaltung die Vorträge für die Sendung Alpha Campus aufgezeichnet.

SDI-Bild von Dome-Kameras

Während in der Aula mit Broadcast-Kameras von JVC gearbeitet wird, kommt in den Hörsälen das Bild von Sony Dome-Kameras vom Typ Z330. Die eher in der Überwachungstechnik eingesetzten Kameras liefern eine 1080i-Auflösung auf einem 1/3″-CMOS-Chip. Mit der integrierten Optik von Zeiss ist darüber hinaus eine hohe Bildqualität gewährleistet. Ausgegeben wird ein unkomprimiertes HD-SDI-Signal mit einer Bitrate von 1,485 Gbit/s. Zwei Kameras erfassen dabei den Dozenten von vorne links und vorne rechts. Eine dritte Kamera ist jeweils schräg hinter dem Dozenten installiert und liefert Ansichten des Auditoriums für Umschnitte oder Detailaufnahmen von Versuchen oder Objekten.

Sony-Dome-Kameras-im-hörsaal
Sony Dome-Kameras im Hörsaal (Bild: Markus Tischner)

Bei der Aufzeichnung werden die Kamerabilder über Glasfaserleitungen zum Regieraum des Multimediazentrums übertragen. Dort werden die drei Bilder und eine oft vorhandene Computer-Präsentation mit einem Panasonic-Bildmischer gemischt und zu Mitschnitten in verschiedenen Auflösungen und Bitraten weiterverarbeitet.

Steuerpanel-für-Sony-dome-kameras
Steuerpanel für Sony Dome-Kameras (Bild: Markus Tischner)

Anders als herkömmliche Broadcast-Kameras kann die Dom-Variante über das Joystick-Panel RM IP 10 komplett ferngesteuert werden. Neben Horizontal- und Vertikalschwenks können dabei auch Brennweite, Blende, Schärfe, Weiß- abgleich und Gain über das Panel aus der Ferne bedient werden. Im Arbeitsalltag bedient ein Mitarbeiter im Regieraum die drei Kameras gleichzeitig über dasselbe Panel. Um die Arbeit zu erleichtern, gibt es in jedem Hörsaal einige Preset-Einstellungen, bei denen die Kameras auf Knopfdruck in vorher festgelegte Positionen fahren. Damit werden die meisten Standardsituationen abgedeckt.

Wenn sich der Dozent durch den Raum bewegt oder kleine Details wichtig werden, kann man mit der Fernsteuerung leicht eingreifen und die Bewegungen mit verfolgen. Das Objektiv der Z330 hat auf Kleinbildformat umgerechnet einen Brennweitenbereich von ca. 35 mm bis 650 mm. Damit können das Gesicht des Dozenten oder Versuchsdetails auch formatfüllend aufgenommen werden. Wenn die laufende Vorlesung in den Hörsälen nicht mitgeschnitten wird, stehen die Kameras mit dem Objektiv zur Wand, als „Park-Preset“, sodass sich die Anwesenden nicht beobachtet fühlen.

Blockschaltbild-AJA-Embedder-De-Embedder
Blockschaltbild AJA Embedder/De-Embedder (Bild: Markus Tischner)

Kamera-Fernsteuerung via IP

Die Fernsteuersignale gelangen über das IP-Netzwerk der Universität vom Joystick-Panel zu den Kameras. Die Z330 hat einen Steckplatz für Einschubkarten und kann so vom herkömmlichen seriellen Steuerbetrieb auf IP-Steuerung mit Cat-Kabel umgestellt werden. Dies ist extrem praktisch, wenn weite Entfernungen zwischen Kamera und Steuerungspanel überbrückt werden müssen. So wurde es möglich, die Aufzeichnung im fünf Kilometer entfernten Hörsaal mit sehr geringem Aufwand zu steuern.

anschlussfeld-einer-sony-dome-kamera
Anschlussfeld einer Sony Dome-Kamera (Bild: Markus Tischner)

Mit einer anderen Einsteckkarte könnte auch das Bildsignal über Cat-Kabel übertragen werden. Aber die bestehenden Glasfaserleitungen an der Universität Erlangen können das hochwertige HD-SDI-Signal unkomprimiert in Echtzeit übertragen. Dies sorgt dafür, dass die Mitarbeiter im Regieraum die Kameras ohne störende Latenzzeiten fernbedienen. Aus diesem Grund entschlossen sich die Erlanger dazu, das HD-SDI-Signal aus den Kameras mit dem BC362T-Transmitter von Bluebell unkomprimiert auf GlasfaserStandard zu konvertieren.

Aus jedem Hörsaal gelangen vier Streams in den Regieraum, drei Kamerasignale und ein Computerbild. Das Computerbild wird dabei mit einem Konverter des Herstellers TVone zunächst in HD-SDI gewandelt, bevor es in den Bluebell-Transmitter gelangt. Im Regieraum wird das Glasfasersignal mit dem passenden Bluebell-Receiver BC362R wieder in HD-SDI gewandelt und zum Bildmischer geführt.

E-Studio-zur-Aufzeichnung-von-vorlesungen
E-Studio zur Aufzeichnung von Vorlesungen (Bild: Markus Tischner)

Bei besonderen Veranstaltungen in den Hörsälen wird eine der vier Leitungen für die Übertragung einer zusätzlichen mobilen Kamera verwendet. So konnten bei der langen Nacht der Wissenschaften spezielle Versuchsdetails noch flexibler für den Live-Stream eingefangen werden.

Mobile-Kamera-zur-Übertragung-von-Experiment-Details-an-der-langen-Nacht-der-Wissenschaften
Mobile Kamera zur Übertragung von Experiment- Details an der langen Nacht der Wissenschaften (Bild: Markus Tischner)

Der Ton wird in den Hörsälen entweder mit Lavalier- oder Umhängemikrofonen von Sennheiser und Beyerdynamic erfasst und zur Audioanlage des Hörsaals gefunkt. Das Sammelsignal aller angeschlossenen Mikrofone und des Computertons wird über eine XLR-Verbindung zum Embedder/Deembedder HD10AMA des Herstellers AJA geleitet. Der Embedder ist in der Lage bis zu vier Audiosignale in ein HD-SDI-Signal zu integrieren. So wird der Hörsaal-Ton in eines der vier Videosignale eingebunden und direkt mit ihm über Glasfaser zum Regieraum übertragen. Bei öffentlichen Diskussionsveranstaltungen werden die Audiosignale der Sprecher einzeln embedded und können so im Regieraum mit dem Embedder/Deembedder wieder demuxt werden. Damit können die Sprecher auch im Regieraum für die Aufnahme noch einzeln gepegelt werden.

Live-Produktion-mit-mehreren-kameras
Live-Produktion mit mehreren Kameras (Bild: Markus Tischner)

Live-Stream mit Boinx-TV

Am 19. Oktober 2014 fand in Erlangen zum sechsten Mal die lange Nacht der Wissenschaften statt, in der bis ein Uhr nachts die verschiedensten wissenschaftlichen Themen in mehreren hundert Vorträgen und Führungen populärwissenschaftlich aufbereitet wurden. Zu diesem Anlass wurden nicht nur Vorträge für das Portal aufgezeichnet. Interessierte konnten das Geschehen aus drei Hörsälen auch live im Internet verfolgen. Bei diesem Live-Stream kam im Multimediazentrum zum ersten Mal die Mac-Software BoinxTV im Sendebetrieb zum Einsatz.

Mit BoinxTV ist es möglich, bis zu drei Kamerabilder zu mischen und in Echtzeit mit mehreren Layern zu überlagern. So können Titel, Grafiken oder Bauchbinden im Live-Betrieb eingeblendet werden und an einen Streaming-Server weitergeleitet werden. Weil im Multimediazentrum die Bildsignale bereits mit dem vorhandenen Panasonic-Bildmischer bearbeitet werden, wird BoinxTV nicht zum Mischen der Bilder verwendet, sondern nur für die Platzierung der Overlays und Einspielen von Archivmaterial.

Das HD-SDI-Signal, das aus dem Bildmischer kommt, wird über eine AJA Kona Grafikkarte in den Computer eingespeist, auf dem BoinxTV installiert ist. Mit drei weiteren Grafikkarten könnte man die HD-SDI-Signale der Kameras auch direkt in den Computer einspeisen und die Bildregie direkt in der Software durchführen, statt sie vorher auf den Hardware-Bildmischer zu schicken. Im Live-Stream-Betrieb der langen Nacht der Wissenschaften wurden mit BoinxTV Titel und Bauchbinden über das Sendebild gelegt. Außerdem wurden mit der Software in den Vortragspausen vorbereitete Infoclips und Trailer eingespielt, damit keine Sendelücken entstanden.

Regieraum-mit-Bildmischer-und-Steuerpanel-für-Dome-Kameras
Regieraum mit Bildmischer und Steuerpanel für Dome-Kameras (Bild: Markus Tischner)

Da BoinxTV nur ein DVI-Signal ausgibt, müssen Bild und Ton zur Weiterverarbeitung wieder zusammengeführt werden, da DVI keinen Ton überträgt. Mit einem DVI-Extender von Blackmagic Design werden das DVI-Bild und das Audiosignal an der 3,5-mm-Klinkenbuchse des Computers wieder zu einem HD-SDI-Signal gewandelt und an den ENC-300-HDSDI-Encoder weitergegeben. Der für Live-Veranstaltungen konzipierte Encoder codiert das HD-SDI-Signal mit dem H.264 Codec mit einer Datenrate von 3 Mbit/s. Dieser Datenstrom wird nun an den Wowza Streaming-Server geschickt und von ihm im Internet bereitgestellt. Der Wowza-Server erzeugt in Echtzeit mehrere Streams mit unterschiedlichen Auflösungen und Datenraten unter einer URL. Je nach Abspielgerät des Anwenders stellt der Server die Datenqualität zur Verfügung, die das Abspielgerät ruckelfrei wiedergeben kann. Dabei muss sich der Anwender nicht darum kümmern, welchen Stream er auswählen muss.

Fazit

Die Produktion von Live-Übertragungen ins Internet wird immer einfacher und günstiger. Für Unternehmen mit einem Studio an einem Standort kann man bereits mit Kamera, Computer und einigen Soft- und Hardware-Komponenten professionelle Live-Streams erzeugen. Im universitären Umfeld mit vielen verteilten Standorten müssen dagegen viele Einzelaspekte bei der Signalübertragung und Kamerabedienung bedacht werden.

Dennoch ist auch hier mit den Übertragungsmöglichkeiten von Bild-, Ton- und Steuersignalen im Netzwerk via Cat- oder Glasfaserleitungen vieles einfacher geworden. Wer Veranstaltungen regelmäßig aufzeichnen oder live übertragen will, kann damit oft auf bestehende Infrastruktur zurückgreifen und viel Zeit und Aufwand sparen.

 


 

„Adaptive Streaming“

Bei der aktuellen Vielfalt an Abspielgeräten mit unterschiedlichen Hardware-Spezifikationen ist es für die verschiedenen Anwender angenehm, wenn ein Live-Stream in unterschiedlichen Qualitäten verfügbar ist. Stellt man nur einen Stream in einer Qualität zur Verfügung, sind möglicherweise mobile Devices mit geringer Auflösung und schwacher Hardware über – fordert, während High-End-Geräte nicht ansatzweise ausgenutzt werden, weil sie eine viel höhere Qualität in Auflösung und Datenrate verarbeiten könnten.

Im Wowza-Server erzeugt das Transcoder Add-On mehrere unterschiedliche parallele Streams. Zusätzlich zum durchgeleiteten Full-HD Stream mit der Datenrate von 3 Mbit/s erzeugt der Transcoder in Echtzeit drei weitere Streams mit 720p-Auflösung und einer Datenrate 1,3 Mbit/s, mit 360p-Auflösung und einer Datenrate von 850 kbit/s sowie 160p-Auflösung und einer Datenrate von 200 kbit/s. Dabei muss sich der Anwender nicht darum kümmern, welchen Stream er auswählen muss. Der Live-Stream wird unter einer festen URL zur Verfügung gestellt.

Neben der Bereitstellung unterschiedlicher Streams bedeutet Adaptive Streaming auch, dass die einzelnen Geräte je nach Hardwarevoraussetzungen und Verbindungsgeschwindigkeit den passenden Stream erhalten. Dazu kommunizieren Server und Abspielgerät. Wenn sich während des Abspielvorgangs die Verbindung verändert, wie es im mobilen Einsatz der Fall sein kann, wird darüber hinaus on the fly auf den Stream gewechselt, der mit der aktuell zur Verfügung stehenden Datenrate wiedergegeben werden kann.

Anzeige

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.