Ist 8K noch relevant?

Wann lohnt sich 8K und wann nicht?

„8K“: Wie sicherlich allgemein bekannt ist, beschreiben diese beiden Zeichen eine Bildauflösung. Seit Bilder digital aufgenommen/verbreitet werden, können wir Bildpunkte zählen. Früher, als man noch auf fotochemischem Film, also „analog“ aufnahm, variierte die Bildauflösung je nach Filmmaterial, Entwicklung, Kopierprozessen und Messmethoden.

Fernseher mit Nipkowscheiben zeigt frühes Fernsehbild um 1930
Frühes Fernsehbild (um 1930): Fernseher mit Nipkowscheiben (vertikale Zeilenanordnung) (Bild: Eckhard Etzold, Wikipedia, CC BY-SA 3.0))

Inhalt dieses Grundlagen-Artikels:

Anzeige


8K steht für 8.000, und man bezieht sich mit dieser Angabe auf die ungefähre horizontale Auflösung eines digitalen Bildes. Meist meint man ganz genau ein Bild mit der Bildgröße 7.680 × 4.320 Pixel. Strenggenommen also 7,68 K, aber das klingt nicht so griffig. Man sagt dazu aber auch 4.320p, dann meint man die vertikale Anzahl von Pixeln oder auch Zeilen. Eine weitere Bezeichnung für 8K ist UHD-II.

Und wenig zufällig ist 7.680 das Doppelte von 3.840, was wir als Breite eines 4K(UHD-I)-Bildes bereits kennen. Die Verdoppelung der Pixelzahl in einer Dimension bedeutet eine Vervierfachung der Gesamtzahl der Bildpunkte und damit auch der aufzunehmenden und zu übertragenen Datenmenge. Da stellt sich natürlich die Frage: Lohnt sich das überhaupt?

Bevor wir dieser Frage weiter nachgehen, sollten wir festhalten, dass Bildauflösung nicht gleichbedeutend ist mit Bildqualität. Weitere Parameter spielen für den subjektiven Schärfeeindruck eine Rolle:

  • Helligkeit des Bildes (die Schärfeleistung unseres Auges nimmt bei Dunkelheit ab)
  • Dynamikumfang / Kontrastumfang: Verhältnis zwischen hellstem und dunkelstem darstellbaren Bildpunkt
  • Farbtiefe (Anzahl der Abstufungen bei der Kodierung von Farben)
  • Qualität, „Trennschärfe“ der Pixel
  • Bei Filmaufnahmen: Bildfrequenz
  • Komprimierung des Bildes

Alle diese Faktoren beeinflussen unseren Eindruck von der „Bildqualität“. Eines ist allerdings klar: Wurden alle oben genannten Aspekte optimiert, können mehr Informationen (Details) nur durch eine Erhöhung der Pixelanzahl übertragen werden. In diesem Artikel konzentrieren wir uns daher auf die Bildauflösung. Diese ist seit der Erfindung des Fernsehens in den 20er-Jahren des letzten Jahrhunderts massiv angestiegen. Die ersten Fernsehbilder (um 1930) bestanden jeweils aus ca. 30 Zeilen.

Interessanterweise dienten stets olympische Spiele dazu, nicht nur sportliche Rekorde, sondern immer wieder Auflösungsrekorde aufzustellen. Folgende Meilensteine stechen besonders heraus:

1936: erste Live-Übertragung überhaupt: 11. Olympische Spiele in Berlin. Vertikale Bildauflösung: ca. 90 Zeilen, natürlich in Schwarzweiß. Die frühen TV-Aufnahmesysteme hatten einen sehr geringen Dynamikumfang, geringer als fotografischer Film. Deshalb wurde in Berlin dafür ein spezieller Übertragungswagen eingesetzt. Auf dem Dach war eine Filmkamera montiert. Der Film, mit dem diese aufnahm, wurde durch ein Loch im Dach ins Innere des Fahrzeugs geführt, wo er in nur 45 Sekunden entwickelt und im Anschluss daran noch nass abgetastet und so in ein Fernsehbild verwandelt wurde, das in 28 Fernsehstuben übertragen wurde, wo 150.000 Menschen die Spiele (fast) live verfolgen konnten.

1964: erstmals weltweit via Satellit übertragene Spiele mit 480 Zeilen in Farbe (NTSC-Format).

1984: erstmals Aufzeichnung von Olympischen Spielen in analoger HDTV-Technik (1.125 Zeilen) in Los Angeles.

2004: erste Live-Übertragung in Full-HD (1.080 Zeilen) von den 28. Olympischen Sommerspielen in Athen.

2012: erste Live-Übertragung in 4K von den 30. Olympischen Sommerspielen in London.

2016: erste Live-Übertragung in 8K von den 31. Olympischen Sommerspielen in Rio de Janeiro.

Fernsehkamera bei den Olympischen Spielen 1936
Die „Olympia- Kanone“: Fernsehkamera bei den Olympischen Spielen 1936 (Bild: Wikipedia, XI Olympic Games, Berlin, 1936 Official Report, v.1)

Interessanterweise wurden die Meilensteine in Sachen Bildauflösung seit Jahrzehnten von japanischen Firmen gesetzt. Auch heute ist Japan das Land, in dem ein TV-Programm in 8K ausgestrahlt wird. Die japanische Sendeanstalt NHK betreibt seit 2018 den Sender BS8K, der ausgewählte Filme und Serien in 8K ausstrahlt. Auch altes Filmmaterial zeigt sich 8K-tauglich, wie der Science- Fiction-Kultfilm „A Space Odyssey“, der 1968 (!) auf 70-mm-Film aufgenommen und digital auf 8K „remastered“ wurde. Allerdings darf bezweifelt werden, dass ein analoger 70-mm-Film an die Bildqualität eines heute 8K gedrehten Films herankommt.

Die Videoplattform YouTube unterstützt bereits seit März 2015, Vimeo seit Ende 2017 8K-Videos.

>> zurück zur Übersicht

Bildqualität liegt im Auge des Betrachters

Und das ist diesmal wörtlich gemeint. Unser Auge ist ein faszinierendes Organ, aber schlecht mit einem Kameraobjektiv zu vergleichen. Wurde man ein menschliches Auge als Objektiv verwenden, wäre die Bildqualität unterirdisch. Scharf nur auf einem kleinen Fleck in der Mitte, gerade Linien völlig krumm und schief. Aber unser Gehirn rechnet sich die aufgenommen Daten schon. Ähnlich wie ein iPhone, nur krasser.

4K-LED-Kinoleinwand im Cinecittà Nürnberg
4K-LED-Kinoleinwand: Heller, kontrastreicher, schärfer: Statt eines Projektors kommt im Cinecittà Nürnberg eine 10,2 × 5,4 m große Samsung Onyx LED-Wand zum Einsatz. (Bild: Cinecittà Nürnberg)

Fest steht: Wir sehen nur in einem kleinen Bereich wirklich scharf. Da wir aber diesen Bereich durch Augenbewegung schnell verändern können, nimmt das Gehirn die Umwelt in einem größeren Bereich als scharf war.

Zwei Punkte in unserer Umgebung, die wir gerade noch voneinander getrennt wahrnehmen können, haben auf der Netzhaut einen Abstand von ca. 4 μm, was einen Seewinkel von 1 Bogenminute ergibt.

Die Preisfrage lautet nun: Können wir den Unterschied zwischen 4K und 8K überhaupt sehen? So gefragt lautet die Antwort natürlich „Ja“ – wenn wir nur nah genug an den Bildschirm herangehen können.

Eine empirische Studie von Warner Bros. aus dem Jahre 2020 mit 139 auf ihre Sehkraft hin getesteten Teilnehmern zeigte, dass die meisten Menschen den Unterschied zwischen 4K und 8K auf einem 88-Zoll-8K-Fernseher (195 cm Bildbreite) selbst aus der geringen Entfernung von 1,5 m kaum oder gar nicht sehen konnten. Und wer setzt sich schon so nah vor einen so großen Fernseher?

Ob man einen Unterschied sieht, hangt allerdings auch vom gezeigten Content ab. Je weniger Bewegung im Bild ist, desto eher sieht man den Auflösungsunterschied. Warum das so ist? Zunächst hat das Auge bei blitzschnellen Bewegungen gar nicht die Zeit, die Kantenschärfe eines sich bewegenden Objekts zu analysieren. Schwerer wiegt jedoch, dass es diese Kantenschärfe in der Regel auch nicht gibt. Und es gibt sie absichtlich nicht. Stellen wir uns einen horizontalen Kameraschwenk über eine Stadt vor, und stellen wir uns weiterhin vor, jedes Einzelbild wäre gestochen scharf. Bei 25 Bildern in der Sekunde wurden Sie den Abstand einer vertikalen Kante von einem Bild zum nächsten auf dem Bildschirm als unschönes Zittern wahrnehmen. Um das zu vermeiden, verwendet man beim Filmen eine Belichtungszeit von ca. 1/50 Sekunde. Das sorgt für ein Verwischen von schnell bewegten Objekten („Bewegungsunschärfe“). Dieses Verwischen lässt die Bewegung weich und flüssig aussehen. Es liegt allerdings auf der Hand, dass diese Bewegungsunschärfe jeden Auflösungsvorteil zunichtemacht. Das ist auch der Grund, warum Demo-Aufnahmen für 4K und 8K in der Regel Natur- und Drohnenaufnahmen zeigen: viele Details, wenig Bewegung.

Will man den Auflösungsverlust durch Bewegungsunschärfe vermeiden, muss man die die Verschlusszeit kurzer machen und im Gegenzug die Bildfrequenz erhöhen. Mindestens auf 60 Bilder/s. Aber 8K mit 60 fps? Da sprechen wir von gigantischen Datenmengen! (Unkomprimiert 60 × 100 MB sind rund 6 Gigabyte … pro Sekunde!) Sicherlich: Die tatsachlichen Datenmengen sind durch komprimierende Codecs deutlich geringer. Der neueste Standard, gemeinsam entwickelt von Google, Amazon, Netflix, Intel, AMD und NVIDIA heißt AV1 und wurde 2018 veröffentlicht. Er reduziert die Datenrate für Videostreaming gegenüber Vorläufer-Codecs nochmal um 30-50 %.

Jetzt wissen wir, dass der Betrachtungsabstand nicht besonders groß sein darf, wenn man ein möglichst scharfes und detailreiches Bild sehen will. Womit auch klar ist, dass man sich im Kino besser nicht in die letzte Reihe setzt. Wobei die allermeisten Kinos die Filme nur in 2K zeigen. Der Standard der Digital Cinema Initiatives (DCI), dem alle großen Hollywood-Studios angehören, ist 2.048 × 1.080. Wenige Kinos zeigen Filme in 4K (DCI 4.096 × 2.160) und kaum welche in 8K (DCI 8.192 × 4.320). Der Kinoformate sind mit einem Seitenverhältnis von 256:135 (ungefähr 17:9) etwas breiter als die Consumer-Formate 16:9.

Wir können schon mal festhalten, dass 8K für die Wiedergabe von Videos und Filmen in den allermeisten Fällen nicht sinnvoll ist, zumal 8K-Gerate ca. 40 % mehr Strom verbrauchen als 4K-Gerate.

Aber warum gibt es dann so viele Kameras, die 8K aufzeichnen können? Selbst einige spiegellose Digitalkameras für Consumer können 8K-Video aufnehmen (z. B. Canon R5, Nikon Z9, Sony A1). Für den professionellen Einsatz ist mit der Blackmagic URSA Mini Pro 12K eine Kamera auf dem Markt, die bereits 12K mit 60 fps oder 8K mit 120 fps filmen kann. Und das mit einem Dynamikumfang von 14 Blendenstufen. Ein einziges Frame ist hier bereits 80 Megapixel (12.288 × 6.480 Pixel) groß!

Für industrielle Anwendungen gibt es Zeilenkameras, die 16K in der Breite aufnehmen, aber nur eine einzige Zeile. Anwendungen sind u. a. die zerstörungsfreie Werkstoffprüfung oder das Digitalisieren von Dokumenten.

>> zurück zur Übersicht

Produzieren in 8K

Antwort: Es hat Vorteile, in 8K zu drehen, auch wenn man nur in 4K oder 2K vorfuhrt oder sendet.

Zum einen hat man damit einen gewissen Spielraum beim Bildausschnitt. Den kann man nachträglich ohne Qualitätsverlust optimieren. Oder man nutzt das hoher aufgelöste Quellmaterial für digitale Zoomeffekte. Selbst wenn man auf beides verzichtet, bleibt ein weiterer Vorteil: Ein 4K-Bild, das durch Downscaling (Kleinrechnen) eines 8K-Bildes entsteht, ist scharfer als ein Bild, das kameraseitig in 4K aufgenommen wurde. Warum ist das so?

Bildausschnitte des Inneren einer Kirche
360-Grad: Gesamtbild in äquirektangulärer Projektion, daneben Ausschnitte in gewohnter Perspektive (Bild: Michael von Aichberger)

Praktisch alle gebräuchlichen Bildsensoren von digitalen Film- und Fotokameras arbeiten nach dem Konzept der Bayer-Matrix. Eine einzelne Fotozelle kann nur Helligkeitswerte erfassen. Durch winzige Filter über den Photodioden werden diese jeweils für eine bestimmte additive Grundfarbe empfindlich gemacht. Additive Grundfarben sind Rot, Grün und Blau (RGB). Das menschliche Auge kann Grün viel besser wahrnehmen als Rot oder Blau, weil es sich im Laufe der Evolution dem Leben in der Natur angepasst hat. Analog zur spektralen Empfindlichkeit des menschlichen Auges gibt es auf einem Kamerasensor wesentlich mehr Fotozellen mit einem grünen Filter (72 %) als mit einem roten (21 %) oder blauen (7 %). Die maximale Schärfe eines Bildes ist daher nur bei einer Schwarzweiß-Vorlage (Graustufen) gegeben, dicht gefolgt von grünen Objekten. Durch die Bayer-Matrix gehen etwa 30 % der Schärfeleistung einer Kamera verloren. Dieser Verlust kann dadurch kompensiert werden, dass man mit einer höheren Auflösung aufnimmt und diese dann kleinrechnet.

Ein weiterer Grund, in 8K aufzunehmen wäre, eine besonders historische Situation für die Nachwelt zu dokumentieren, in dem Wissen, dass dies später nicht mehr möglich sein wird. So gibt es seit 2022 auch Filmaufnahmen vom Wrack der Titanic in 8K, das sich in einem ständigen Verfall befindet.

Doch in 8K zu produzieren hat seinen Preis:

8k bedeuten mehr und bei gleicher Sensorgroße kleinere Pixel. Das bedeutet: Beugungsbegrenzung setzt früher ein, Schärfentiefe ist geringer. Da kleinere Pixel weniger Licht einfangen können, muss das Bildsignal starker verstärkt werden, was das Bildrauschen erhöht. Man braucht teurere Kameras, aber auch teurere Objektive, denn Objektivfehler sieht man bei 8K deutlicher. Es ist zudem notwendig, sauberer zu arbeiten. Das gilt sowohl für den Kameramann als auch für den Maskenbildner.

Auch die Postproduktion braucht deutlich mehr Ressourcen. Selbst wenn man schnellere Rechner einsetzt, braucht man für jeden Produktionsschritt mehr Zeit, denn es müssen gegenüber 4K viermal so viele Daten verarbeitet werden. Während Full-HD und oftmals 4K meist nativ bearbeitet werden können, so ist es bei 8K so gut wie unumgänglich, mit Proxys zu arbeiten. Das bedeutet: Man erstellt vom gesamten Ausgangsmaterial Kopien in geringer Auflösung, nutzt diese für einen zugigen Schnitt, bei dem Effekte auch in Echtzeit angezeigt werden können. Erst beim Rendering der finalen Fassung wird wieder das Originalmaterial verwendet.

>> zurück zur Übersicht

Sonderfall 360°-Video

Spoiler Alert: Bei der Aufnahme von 360°-Video bringen 8K gegenüber 4K einen drastischen, sehr deutlich sichtbaren Qualitätsgewinn. Warum denn das auf einmal?

Dazu muss man sich vergegenwärtigen, wie 360°-Filme in der Regel aufgenommen und gespeichert werden. Korrekterweise muss man sagen: 360°-Filme, die mit einer einzigen Kamera aufgenommen werden. Man kann nämlich auch mit vielen Kameras gleichzeitig ein Gesamtbild in verschiedenen Richtungen aufnehmen. Die Videodateien der einzelnen Kameras können dann hinterher zu einem großen, zylindrischen Video zusammengerechnet werden.

Wir sprechen hier allerdings von Kameras, die die gesamte Umgebung (360° horizontal sowie 90° nach oben und 90° nach unten) in einer einzigen Videodatei aufnehmen. Man spricht hierbei von Kugel- oder sphärischen Panoramen. Diese werden üblicherweise in einem Bildformat 2:1 gespeichert. Die Bilddaten werden für die Speicherung in eine aquirektanguläre Projektion umgerechnet. Das sieht dann ähnlich aus wie eine Weltkarte im Erdkundeunterricht: In der Mitte einigermaßen normal, zu den Polen aber drastisch verzerrt.

Die Bildbreite einer solchen Datei entspricht den horizontalen 360° der Aufnahme. Wird so ein Videobild in 4K aufgezeichnet, so stehen am Horizont für 1 Grad Bildwinkel 3.840 / 360 = 10,6 Pixel zur Verfügung.

Nun schaut sich aber niemand diese Datei so, wie sie ist, an. Stattdessen bedient man sich eines Software-Video- Players, der einen Ausschnitt in gewohnter Fluchtpunktperspektive und in einem gewohnten Blickwinkel darstellt. Den Ausschnitt kann man dann interaktiv selbst verändern. Auch YouTube oder Facebook können entsprechend kodierte 360°-Videos interaktiv anzeigen. Mit dem „gewohnten Blickwinkel“ ist allerdings nicht der ca. 170° umfassende Blickwinkel unseres peripheren Sehens gemeint, sondern der approximierte Bildwinkel innerhalb dessen räumliches Sehen möglich ist. Dieser Bildwinkel entspricht dem eines Objektivs mit einer Brennweite zwischen 35 mm und 50 mm einer Kleinbildkamera. Das wären horizontal ca. 50°.

Barco Rigiflex – State of the Art der Projektion
Museum of the Future: Barco Rigiflex – State of the Art der Projektion (Bild: Atelier Brückner Roenneke)

Oftmals betrachtet man 360°-Videos auch mit VR-Brillen (Virtual Reality). Hierbei wird der oben beschriebene Ausschnitt beiden Augen gleichzeitig angeboten. Wurde das Video in 4K gedreht, so hat der Ausschnitt dennoch nur 50° / 360° * 3.840 Pixel = 533 Pixel. Damit hat das Bild nur noch die Qualität eines VHS-Videorekorders. Und wer etwas alter ist, weiß: Das war nach heutigen Maßstäben nicht so toll.

Eine Speicherung des 360°-Videos in 8K hingegen bietet dem Auge horizontal immerhin 1.066 Pixel.

Wollte man in der VR-Brille jedoch ein schönes Full-HD-Bild sehen (1.980 Pixel Bildbreite), musste das Ausgangsbild eine Breite von 14.256 Pixeln haben. Dafür brauchte man fast schon 16K. Für ein 4K-Bild des gewohnten Blickwinkels wären sogar fast 32K nötig – ca. 30.000 Pixel Bildbreite.

Halten wir fest: 360°-Video freut sich über jedes Pixel mehr, das es kriegen kann!

>> zurück zur Übersicht

Digital Signage, Bühnenhintergründe, Videowände

Und was bringen uns 8K für Digital Signage oder Videowände?

Stellen Sie sich vor, Sie gehen zu Ihrem Fotohandler oder Drogeriemarkt und lassen sich Abzuge von ihren schönsten Fotos machen. Wissen Sie, in welcher Auflösung Sie diese Fotos dann in der Hand haben? Es sind 300 dpi. 300 Bildpunkte pro Inch (188 Bildpunkte pro cm). Sie verlassen den Drogeriemarkt und sehen an einer Hauswand ein Werbeplakat, auch Großflächenplakat genannt. Der Klassiker heißt 18/1 (Sprich „Achtzehn Eintel“) und ist 3,56 × 2,52 m groß. Welche Auflösung hat wohl dieses Plakat? Es sind keine 300 dpi. Es sind nur noch 60 dpi. 23 Punkte pro cm. Wenn Sie auf das Foto in ihrer Hand schauen und dann auf das Plakat, werden sie wahrscheinlich keinen Unterschied sehen. Es ist alles eine Frage des Betrachtungsabstands. Wurde man ein Großflächenplakat mit 300 dpi drucken … niemand wurde den Unterschied sehen.

Digital Signage sind die Reklameplakate von heute. Auch zu ihnen hat man in der Regel ordentlich Abstand. Je größer die LED-Displays, desto weiter ist man in der Regel von ihnen entfernt. Demnach gilt dasselbe, was für Ihr Heimkino gilt: Mehr Bildauflösung als Full-HD oder eventuell noch 4K ist wegen des Betrachtungsabstandes praktisch nie nötig.

Auch hier gibt es Ausnahmen: Manche Zeitungshäuser ersetzen heute ihre Zeitungsaushange durch interaktive digitale Displays. Eine Zeitungsseite aber enthält viel kleingedruckten Text. Für die Darstellung einer solchen Zeitungsseite, die ja auch aus einer Armlange heraus betrachtet wird, sorgen nur höhere Auflösungen als Full-HD für ein scharfes Schriftbild.

>> zurück zur Übersicht

Bühnentechnik

Die Frage des Betrachtungsabstands stellt sich auch bei Videowänden, die als Hintergrund für Live-Events wie Konzerte eingesetzt werden.

Die derzeit wohl anspruchsvollste und technisch weit in die Zukunft weisende Buhnentechnik kann man seit dem 27. Mai 2022 in London bewundern: Im Olympiapark von 2012 hat die schwedische Popgruppe ABBA eine Arena errichtet, in der jeden Tag rund 3.000 Zuschauer eine Buhnenshow vom Feinsten geboten bekommen, bei der die Pop-Titanen sich von CGI-generierten Avataren vertreten lassen. Ziel ist es natürlich, dass das Publikum nicht erkennen können soll, ob es sich bei den Akteuren auf der Bühne um echte Menschen oder computergenerierte Avatare handelt.

Hinter einer Bühne, auf der tatsachlich auch echte Musiker spielen, erhebt sich eine 55 m breite und 9,5 m hohe Videowand, auf der die Illusion einer Live- Performance von Björn, Benny, Anni-Frid und Agnetha erzeugt wird. Die Module haben einen Pixel-Pitch von 2,8 mm, das entspricht 3.344 Pixel in der Bildhöhe. Das ist von der Bildhöhe her im Bereich von 6K. Einzelne Pixel sind aus dem Saal heraus nicht zu erkennen.

Also auch hier: Mehr als 4K als Ausgangmaterial durfte bei Konzerten und Events nie notwendig sein. Wiedergabeseitig werden die Signale sowieso aufgesplittet. Die Abba- Videowand besteht aus über 2.000 einzelnen quadratischen LED-Displays mit je 176 × 176 Pixeln.

>> zurück zur Übersicht

Showrooms, Museen, Messestände

Wo immer große Flächen in kleinen Raumen bespielt werden, kann eine 8K-Auflösung hingegen sinnvoll sein. Einige Museen präsentieren Kunst rahmenlos auf ganze Wände und ermöglichen dadurch eine immersive Wahrnehmung von Kunst. Messestande sind meist eng, Betrachtungsabstande kurz. Dasselbe gilt für Showrooms und Ladenlokale. Je nach Produkt kann hier eine qualitativ hochwertige Präsentation auf 8K-Bildschirmen sinnvoll sein.

>> zurück zur Übersicht

Kontrollräume, Bilder von Überwachungskameras

In Kontrollraumen müssen oft große Datenmengen gleichzeitig angezeigt werden: Texte, Grafiken, Karten. Hier sitzt das Personal in der richtigen Entfernung und kann alle dargestellten Details ohne Hilfsmittel erfassen.

Hochauflösende Überwachungskameras könnten Bilder von großen Platzen übertragen. Eine hochauflösende Wiedergabe auf großen Monitoren erlaubt die Erfassung der Lage, ohne einzoomen zu müssen. Oft müssen sehr komplexe Schaltplane oder Fahrwege angezeigt werden, wofür 8K bestens geeignet ist.

LED-Wand in Kontrollzentrum
LED-Wand in Kontrollzentrum: Hochaufgelöste LED-Wand in 8K auf der Integrated Systems Europe 2023 (Bild: Atelier Brückner Giovanni-Emilio-Galanello)

>> zurück zur Übersicht

Medizinische Anwendungen

Neueste endoskopische Kameras können Bilder aus dem Innern eines Körpers in 8K übertragen. Üblich sind bisher noch 2K-Kameras. Doch eine niedrigere Auflösung bedeutet, dass die Kamera nahe an das aufzunehmende Objekt herangeführt werden muss. Dort jedoch stört sie oftmals den Chirurgen, der ja zusätzlich zur Kamera noch Bewegungsspielraum für seine ganzen chirurgischen Werkzeuge benötigt, und das meist auf engstem Raum. Durch die höhere Auflösung von 8K kann die Kamera die Szene von weiter weg erfassen, einen besseren Überblick vermitteln und so die Operation sicherer machen.

Darüber hinaus ermöglichen hochaufgelöste Systeme die Identifikation von sehr feinen Blutgefäßen oder Nervenstrangen. Beispielsweise Bypass-Operationen oder das Verbinden kleinster Gefäße oder Nervenstrange können mit einer höheren Genauigkeit ausgeführt werden.

Auch die Unterscheidung zwischen gesundem Gewebe und Krebszellen wird durch eine hohe Bildauflösung einfacher.

Eine Herausforderung für die Hersteller von endoskopischen 8K-Kameras bleibt jedoch die Tatsache, dass die Kameras sehr kompakt und gleichzeitig möglichst lichtempfindlich sein müssen. Die Entwicklung geeigneter Sensoren und Optiken für diesen besonderen Anwendungsfall steckt noch in den Kinderschuhen.

Photogrammetrie
Photogrammetrie: Optische Messungen sparen bis zu 90 % der Messzeit im Vergleich zu konventionellen taktilen Messungen. (Bild: SEAT S.A. Communications)

>> zurück zur Übersicht

Industrielle Anwendungen

In der Industrie gibt es häufig die Situation, Objekte untersuchen bzw. ausmessen zu müssen, ohne sie zu berühren, häufig in Bewegung (auf dem Fließband). So werden beispielsweise in der Automobilindustrie Karosserieteile bei ihrer Fertigung auf Abweichungen von Toleranzen untersucht. Neben Laserscans werden hierbei heute vermehrt Aufnahmen mit hochauflösenden Digitalkameras verwendet. Das Verfahren nennt sich Photogrammetrie. Ein Objekt wird von mehreren Seiten aufgenommen. Markierungen am Objekt ermöglichen es einer Software, aus den Bildern ein 3D-Modell vom Bauteil zu errechnen, welches in der Folge automatisch ausgemessen werden kann. Höhere Auflösungen ermöglichen hier eine höhere Genauigkeit.

>> zurück zur Übersicht

Desktop-Anwendungen

Wer wie die meisten Computernutzer ca. 50 cm vor seinem Bildschirm sitzt, sähe natürlich einen Unterschied zwischen 8K und 4K (vorausgesetzt der Bildschirm wäre entsprechend groß). Die Vorteile hier liegen auf der Hand: Es können mehr Fenster nebeneinander dargestellt, mehr Informationen auf einen Blick erfasst werden. Besonders sinnvoll wären hohe Auflösungen für Kreative: z. B. Fotografen, Grafiker oder Videoproduzenten. Auf einem 8KMonitor konnten Fotografen ein Bild auch hochformatig noch in guter Auflösung betrachten. Anwender von Videoschnitt- Programmen konnten sich das Schnittfenster, diverse Paletten und verschiedene Programmansichten (Quelle, Master) gleichzeitig anzeigen lassen. Der Konjunktiv in obigen Ausführungen ist allerdings der Tatsache geschuldet, dass Stand heute 8K-Monitore und Grafikkarten, die 8K unterstutzen, noch verhältnismäßig rar und teuer sind. Einige Monitore sind extrem breit und bieten eine Auflösung in der Breite von 8K, in der Hohe aber nur 4K (2.160 Zeilen). Meist verwenden Kreative aber heute einfach noch mehrere Full-HD oder 4K-Monitore nebeneinander, so dass echte 8K auch hier nicht zwingend notwendig sind.

>> zurück zur Übersicht

Computerspiele

Der Betrachtungsabstand bei Computerspielern wäre ebenfalls ausreichend gering für 8K. Allerdings erinnern wir uns an die weiter oben beschriebene Tatsache, dass 8K für schnelle Bewegungen wenig bringt. Eine 4K-Auflosung mit einer Framerate von 120 fps ist für Gamer allemal sinnvoller als eine 8K-Auflosung mit 60 oder gar nur 30 fps.

>> zurück zur Übersicht

Hochauflösende LED-Wände als Alternative zu Green- oder Bluescreen-Hintergründen

Schon in der Anfangszeit des Films wurden Darsteller im Studio platziert und bewegte Hintergrunde per Ruckprojektion hinzugefugt. Ruckprojektion bedeutete, dass hinter den Schauspielern eine halbtransparente Leinwand aufgebaut wurde, auf deren Ruckseite die Hintergrundszenen mittels eines Filmprojektors projiziert wurden. Alfred Hitchcock galt bereits als Meister dieser Technik.

In jüngerer Zeit wurde die Ruckprojektion durch Green- oder Bluescreens ersetzt. Die jeweilige Farbe der Hintergrunde konnte dann in der Postproduktion ausgestanzt und durch beliebiges Filmmaterial getauscht werden.

Aber auch in der Filmindustrie hat die Zukunft bereits Einzug gehalten, in Form von riesigen LED-Wänden, vor denen Requisiten und Schauspieler platziert werden. Auf die Wände können per Mausklick beliebige Inhalte gezaubert werden, so dass verschiedene Einstellung ohne Location-Wechsel hintereinander abgedreht werden können, was natürlich die Effizienz deutlich erhöht und die Aufwande in der Postproduktion verringert.

Meist ist das so gedrehte Filmmaterial bereits „fertig“. Allerdings reduzieren sich die Möglichkeiten nachfolgender Korrekturen. Hinterher den Hintergrund nochmal auszutauschen, das geht nicht mehr.

Mit den LEDcave-Studios in Mannheim, Berlin und Erftstadt bei Köln sind Europas größte LED-Studios entstanden.

LEDcave-Studio Berlin mit LED-Wand und Decke als Hintergrund für Filmproduktionen
LEDcave-Studio Berlin: LED-Wand und Decke als Hintergrund für Filmproduktionen (Bild: LEDcave)

Je nach Standort variiert die Bildbreite der Studios zwischen 32 und 45 m mit einer Hohe von imposanten 6,5 bis 7,5 m. Während im Studio in Erftstadt mit variablen LED-Deckenelementen gearbeitet wird, ist am Standort in Berlin eine komplette hochauflösende LED-Decke mit 22 m Breite und 14 m Tiefe fest installiert.

Gesamt stehen mehr als 700 m² LED-Material mit einem Pixel Pitch von 2,6 mm an den drei Standorten zur Verfügung. Die Pixel können eine Farbtiefe von bis zu 10 bit darstellen bei einer maximalen Helligkeit von 1.200 nits.

Alle technischen Komponenten sind miteinander per Genlock verknüpft. Uber ein Tracking-System wird die Kameraposition in die virtuellen und in Echtzeit berechneten Hintergrunde übertragen. Die sogenannte Parallaxe, also die Tiefenverschiebung im Raum, stimmt dabei immer mit der Kameraposition in der „echten“ Welt überein.

>> zurück zur Übersicht

Fazit

Wir haben gesehen: 8K ist nur in wenigen Bereichen wirklich sinnvoll, wird sich aber in den beschriebenen Nischen durchsetzen. Ansonsten gilt auch hier das Gesetz vom abnehmenden Grenznutzen: Einer Erhöhung der Bildauflösung steht ein immer geringerer Nutzen gegenüber.

Daher wird es eine allgemeine Verbreitung von 8K, wie die, die der PAL-Standard (576 sichtbare Zeilen) bei uns über Jahrzehnte innehatte, wohl nicht geben.

>> Lesen Sie auch: Ist 8K-Auflösung sinnvoll?

>> zurück zur Übersicht


// [15336]

Anzeige

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.