HEVC 8 Bit oder 10 Bit

easy1977 schrieb am 02.03.2019 um 11:31 Uhr

Hallo,

ich filme mit der "Go Pro 5 black", der "Go Pro 7 black", der "Sony AX53" und der "Sony Alpha 6500" und möchte den fertigen Film in HEVC ausgeben. Nun gibt es in Video Pro X die Wahl zwischen 8 Bit und 10 Bit. Mir ist unklar, was ich dort einstellen soll, weil ich nicht weiß, in wie viel Bit das Quellmaterial vorliegt. Das geht aus den Handbüchern nicht hervor. Was sollte ich einstellen?

LG

Isabel

Kommentare

maedschik schrieb am 02.03.2019 um 11:33 Uhr

weil ich nicht weiß, in wie viel Bit das Quellmaterial vorliegt

Hallo!

Lade Dir einmal......MediaInfo.......runter und überprüfe damit das Material.

Gruß m

ASRock Z170 Extreme4+ / i7 6700K / 16 GB RAM / Nvidia GTX1060 / Intel HD 530 / SSD 500GB / SSD 1TB / SSHD 1TB /Win 10 Home/ /Aspire A715-71G i5-7300HQ Quad Core 2,5 GHz 8GB GTX 1050 HD 630 Win 10 / Panasonic Fz 1000 / Power Shot G5 X / Panasonic Tz71 /Sony HDR-PJ780VE

easy1977 schrieb am 02.03.2019 um 12:21 Uhr

Danke. Wenn unter "BitDepth/String: 8 bits" steht sind diese damit gemeint, oder?

easy1977 schrieb am 02.03.2019 um 12:55 Uhr

Die Videos der anderen Kameras werde ich noch überprüfen, wenn ich sie nutze. Ich füge in meinen Film auch jpegs ein, die eine Bittiefe von 24 Bit haben. Macht es dann Sinn, bei HEVCs wenigstens auf 10 Bit zu gehen, auch wenn die Videos nur 8 Bit haben?

Ehemaliger User schrieb am 02.03.2019 um 18:07 Uhr

Ich würde bezweifeln wollen, dass es jpgs mit einer Bittiefe von 24 Bit Farbinformationen gibt.

Abgesehen davon bringen dir die 10 Bit nur etwas, wenn das Abspielgerät dies auch wiedergeben kann.

einige Displays können das theoretisch, allerdings gibt es praktisch kaum einen wahrnehmbaren Unterschied, solange man nicht von Studiotechnik spricht.

Daher würde ich mit 8 bit exportieren, da der Vorteil der besseren Kompatibilität den theoretischen bildvorteil überwiegt.

Irra schrieb am 02.03.2019 um 18:41 Uhr

Digitalfotos besitzen üblicherweise eine Farbtiefe von 24 Bit.

Gerade hier gelesen: https://de.wikipedia.org/wiki/Farbtiefe_(Computergrafik)

Zuletzt geändert von Irra am 02.03.2019, 18:42, insgesamt 1-mal geändert.

"Es ist schon alles gesagt, nur noch nicht von allen."(Karl Valentin)

Dell i9-12900HK, Intel IrisXE, NvidiaGeforceRTX3050Ti, Windows 11 Home, VDL 2016, VDL 2025, VPX16, Foto & Grafik Designer 19, Panasonic Lumix Tz101, Lumix FZ 1000, Sony Alpha 6300, IPhone 14 Pro

easy1977 schrieb am 03.03.2019 um 10:18 Uhr

Möglich, dass es jpegs mit weniger Bits gibt, aber meine haben auch 24Bit. Hier wird einem mal wieder bewusst, dass man seine eigenen Fotos noch nie in voller Auflösung (weder Pixel, noch Bit) sehen konnte, weil Anzeigegeräte das, bislang, nicht darstellen können. 4K ist da schon ein Gewinn gegenüber Full HD, aber 4K Videos mit einer Auflösung von 3840 × 2160 zeigen trotzdem "nur" gut 8 Millionen Pixel der 24 Millionen meiner Alpha 6500.

Ehemaliger User schrieb am 03.03.2019 um 11:14 Uhr

Digitalfotos besitzen üblicherweise eine Farbtiefe von 24 Bit.

Gerade hier gelesen: https://de.wikipedia.org/wiki/Farbtiefe_(Computergrafik)

Der Artikel hat Recht. Damit ist allerdings eine Farbtiefe pro Kanal von 8 Bit gemeint. Somit meint die Bezeichnung HEVC mit 8 Bit eben genau diese Encodierung. 10 Bit wären hier also Unsinn. Übrigens steht ebenfalls in dem Artikel, dass die meisten Monitore eh nur 8 bit darstellen können.

Beherrscht ein Monitor 10 Bit, bedeutet das lediglich, dass er das Signal verarbeiten kann. Das Panel des Monitors ist dann aber physikalisch nicht in der Lage das darzustellen.

Diese Panels gibt es zwar, allerdings nicht in der Unterhaltungsbranche, sprich teuer (Studiotechnik) und nicht weit verbreitet.

Siehe auch hier die erste Tabelle mit den gelben Hervorhebungen.

Manche RAW - Bildformate beherrschen 10 Bit und sogar mehr. Daher wird ja auch empfohlen, dieses Format zu wählen, wenn man nachbearbeiten möchte. Zwar wird der Monitor wie gesagt keinen unterschied darstellen, wenn man aber nachbearbeitet, treten weniger häufig Störungen (Artefakte, Abrisse) auf, aufgrund der vorhandenen geringeren Abstufungen.

Meiner Meinung nach bleibt es bei der Empfehlung mit HEVC 8 Bit zu rendern, man wird keinen Unterschied zu 10 bit sehen, verliert aber an Kompatibilität an vielen Geräten

Ehemaliger User schrieb am 03.03.2019 um 11:18 Uhr

Möglich, dass es jpegs mit weniger Bits gibt, aber meine haben auch 24Bit. Hier wird einem mal wieder bewusst, dass man seine eigenen Fotos noch nie in voller Auflösung (weder Pixel, noch Bit) sehen konnte, weil Anzeigegeräte das, bislang, nicht darstellen können. 4K ist da schon ein Gewinn gegenüber Full HD, aber 4K Videos mit einer Auflösung von 3840 × 2160 zeigen trotzdem "nur" gut 8 Millionen Pixel der 24 Millionen meiner Alpha 6500.

Hier verwechselst du Auflösung mit Farbtiefe. Die Bezeichnung 8 Bit bezieht sich auf die Menge der darstellbaren Farben innerhalb des vorgegebenen Farbraums, also nicht mehr Farben, sondern feiner abgestuft. Das hat nichts mit der Auflösung des Bildes zu tun. Die beschreibt lediglich aus wie vielen Bildpunkten das Bild besteht.

Der Farbraum bestimmt dann, welche Farben pro Bildpunkt darstellbar sind.

Die Bittiefe bestimmt dann, wie fein die Farbunterschiede innerhalb des Farbraumes sein können.

Der Monitor muss dann in der Lage sein, diese Nuancen darzustellen, was aktuelle Panels in der Regel nicht können.

easy1977 schrieb am 03.03.2019 um 11:26 Uhr

Danke für den Hinweis. Ich habe auch überprüft, dass meine Kameras alle "nur" in 8 Bit filmen. Wie sieht es denn aus, wenn ich Farben und Kontrast bearbeite: Würde da eine Ausgabe von 10 Bit etwas zum positiven verändern (Farbabstufungen bei Videoausgabe?), oder bleibt auch da 8 Bit sinnvoller? Dass mein TV die 10 Bit darstellen sollte leuchtet ein. Ich möchte mir einen OLED TV von Sony, mit 10 Bit zulegen.

Hier gibt es einen Artikel, der sich mit 16 Bit Bearbeitung in Magix Video Pro X befasst: http://magazine.magix.com/de/16-bit-deep-color/

Welche Schlüsse ich daraus ziehen soll, leuchtet mir noch nicht ganz ein...

easy1977 schrieb am 03.03.2019 um 11:30 Uhr

Hier verechselst du Auflösung mit Farbtiefe. Die Bezeichnung 8 Bit bezieht sich auf die Menge der darstellbaren Farben innerhalb des vorgegebenen Farbraums, also nicht mehr Farben, sondern feiner abgestuft. Das hat nichts mit der Auflösung des Bildes zu tun. Die beschreibt lediglich aus wie vielen Bildpunkten das Bild besteht.

Dass das 2 Paar Schuhe sind, hatte ich verstanden. Es ging mir tatsächlich darum, dass wohl weder Farbumfang (BIT), noch die tatsächlichen Megapixel der Auflösung in vollem Umfang angezeigt werden.

Ehemaliger User schrieb am 03.03.2019 um 13:36 Uhr

Würde da eine Ausgabe von 10 Bit etwas zum positiven verändern

Nein, da das Ausgangsmaterial nur 8 Bit hat wirst Du bei 10 Bit Export keine Verbesserung feststellen. Und auch die Bearbeitung des Materials kann nur auf das vorhandene Ausgangsmaterial zugreifen.

Was die Bearbeitung mit beispielsweise 16 bit Material angeht: das Ausgangsmaterial hat mehr Informationen gespeichert, welches mehr Spielraum bei der Bearbeitung lässt. D.h. man kann mehr bearbeiten, ohne dass Störungen auftreten.

Letztlich würde man solches Ausgangsmaterial nach der Bearbeitung aber ebenfalls sinnvollerweise nur mit 8 Bit rendern.

Der beschriebene Fernseher kann 10 bit Material bearbeiten und gibt diese Informationen auch an das OLED - Panel weiter. die aktuellen Fernseher können aber nicht den gesamten Farbraum darstellen. Theoretisch gibt es bei 10 Bit weniger Farbabrisse in homogenen Flächen wie zum Beispiel bei Nebel oder klarem Himmel, allerdings muss dann auch das Ausgangsmaterial 10 bit oder mehr haben (wenn es bearbeitet wird, eher mehr).

Wenn ich aber davon ausgehe, welche Möglichkeiten wir Otto Normalverbraucher haben, so werden wir kaum auch wenn solches Material vorhanden ist die Möglichkeit haben, Bearbeitungen auf solch hohem Niveau durchzuführen.

So werden beispielsweise Profimonitore, die mehrere 10 T Euro kosten mindestens wöchentlich kalibriert.

Also meiner Meinung nach sollte man sich um 10 Bit keine Gedanken machen, außer man geht professionell damit um, d.h. man hat das Equipment und die Ausbildung. Dann wird man aber kaum dieses Forum brauchen.

Mach dir nicht alzuviele sorgen um dieses Thema.

Ehemaliger User schrieb am 03.03.2019 um 23:03 Uhr

Ich glaube ihr verwechselt hier etwas:

https://de.wikipedia.org/wiki/Farbtiefe_(Computergrafik)

Ihr bezieht Euch da sicher nur auf die linke Tabelle, die soweit auch richtig ist. Richtig wäre aber die Tabelle für die Kodierung. Und da sind die 24Bit Farbtiefe schon wieder mal 8Bit Aufzeichnung (Quassi Standart) Moderne Video Kameras verwenden mit HEVC 10Bit, ich nutze 2 Kameras die zeichnen in RAW 14Bit oder ProRes 12Bit auf.

Und das hier: http://magazine.magix.com/de/16-bit-deep-color/ ist fürs Marketing nett geschrieben, aber 16Bit DeepColor hat eine Farbtiefe von 48Bit, das entspricht 281.474.976.710.656 möglichen Farben.

Wer hat so eine Cam?

easy1977 schrieb am 04.03.2019 um 09:40 Uhr

Ich danke Euch für die umfassenden Erklärungen. In meinem Fall bleibe ich bei 8 Bit!

ponerowi schrieb am 06.03.2019 um 13:51 Uhr

Nö, das sehe ich inzwischen anders.

Sowohl 4k /HDR Bildschirme als auch Monitore in 4k/HDR sind in bezahlbare Bereiche gekommen.

Hier macht es durchaus Sinn den größeren Farbraum zu benutzen.

 

Operating System 1
    Windows 11 Pro 64-bit / VPX13
CPU
    Intel Core i9 9900K @ 3.60GHz    36 °C
    Coffee Lake 14nm Technology
RAM
    32,0GB Dual-Channel Unknown @ 1500MHz (16-18-18-38)
Motherboard
    Micro-Star International Co. Ltd. MPG Z390 GAMING PRO CARBON (MS-7B17) (U3E1) 
Graphics
    LG HDR 4K (3840x2160@60Hz)
    LG ULTRAWIDE (2560x1080@60Hz)
    Intel UHD Graphics 630 (MSI)
    4095MB NVIDIA GeForce GTX 1080 (Gigabyte)    49 °C
    SLI Disabled
Storage
    2794GB OOS3000G (SATA ) 
    465GB NVMe Samsung SSD 970 SCSI Disk Device
Optical Drives
    PIONEER BD-RW BDR-209D

Operating System 2

  Windows 10 21.H2 Pro 64-bit

/VPX12

CPU

Intel Core i7 3770 @3.40 GHz RAM

16 GB Dual-Channel DDR3

Motherboard

PEGATRON 2AD5

Graphics

LG ULTRAWIDE

NVIDIA Geforce GTX 660

Storage

232 GB Samsung SSD

1863 GB Seagate

Optical Drive

HL-DT-ST BD-RE BH10LS30

 

 

geschi schrieb am 06.03.2019 um 15:06 Uhr

Ja, nur die meisten davon, rechnen intern mit 8Bit und schwindeln 2Bit dazu, mit FrameRateControll.

https://de.wikipedia.org/wiki/Frame_Rate_Control

Ehemaliger User schrieb am 06.03.2019 um 17:19 Uhr

Nö, das sehe ich inzwischen anders.

Sowohl 4k /HDR Bildschirme als auch Monitore in 4k/HDR sind in bezahlbare Bereiche gekommen.

Hier macht es durchaus Sinn den größeren Farbraum zu benutzen.

 

Der Farbraum hat nichts mit der Bittiefe zu tun. Die Geräte, die @easy1977 nutzt, haben meines Wissens nach nicht den BT2020. Aber wie gesagt, es ging hier um die Bittiefe

ponerowi schrieb am 08.03.2019 um 17:33 Uhr

Teilweise füge ich auch Bilder im RAW Format ein und verändere auch Farbverläufe. Hier wähle ich immer 10 Bit und habe damit gute Ergebnisse.

Dieser Artikel ist vielleicht auch hilfreich:

https://ytforum.de/lexicon/index.php/Entry/106-Farbtiefe-Bit-Tiefe/

 

Operating System 1
    Windows 11 Pro 64-bit / VPX13
CPU
    Intel Core i9 9900K @ 3.60GHz    36 °C
    Coffee Lake 14nm Technology
RAM
    32,0GB Dual-Channel Unknown @ 1500MHz (16-18-18-38)
Motherboard
    Micro-Star International Co. Ltd. MPG Z390 GAMING PRO CARBON (MS-7B17) (U3E1) 
Graphics
    LG HDR 4K (3840x2160@60Hz)
    LG ULTRAWIDE (2560x1080@60Hz)
    Intel UHD Graphics 630 (MSI)
    4095MB NVIDIA GeForce GTX 1080 (Gigabyte)    49 °C
    SLI Disabled
Storage
    2794GB OOS3000G (SATA ) 
    465GB NVMe Samsung SSD 970 SCSI Disk Device
Optical Drives
    PIONEER BD-RW BDR-209D

Operating System 2

  Windows 10 21.H2 Pro 64-bit

/VPX12

CPU

Intel Core i7 3770 @3.40 GHz RAM

16 GB Dual-Channel DDR3

Motherboard

PEGATRON 2AD5

Graphics

LG ULTRAWIDE

NVIDIA Geforce GTX 660

Storage

232 GB Samsung SSD

1863 GB Seagate

Optical Drive

HL-DT-ST BD-RE BH10LS30

 

 

famoss schrieb am 10.03.2019 um 11:53 Uhr

Wie bereits genannt, kannst Du für Filme sehr gut das Tool Mediainfo verwenden, um Details zu deinem Film abzurufen.
Ich besitze die Alpha 6300 und nutze sie auch und sehr gerne zum Filmen. Die Alpha Kameras können bislang kein 10 Bit Aufnahme. Wenn Du also 8 Bit Rohmaterial auf 10 Bit exportierst, dann bringt dir das nichts.
Beide Alphas filmen im Bt.709 Farbraum. Zwar unterstützt Bt.709 10 Bit, soweit ich weiß wird er aber für die Anzeige auf 8 Bit heruntergerechnet. Somit hast Du im HEVC Export auch hier keinen Vorteil.
Speziell für die Alpha 6500 hätte ich aber einen Tipp. Filme im SLog3 Gamma und entsprechend im SLog3 Gamut. Gamma und Gamut sind für die Produktion von echten HDR Filmen geeignet (bei Sony nachlesbar) und sind "Wide"- Gamma/Gamuts und sogar dem Bt.2100 Farbraum überlegen. Das entsprechende Rohmaterial exportierst Du dann als HEVC 10 Bit Bt.2020 Film. Das Resultat ist ein HDR10 (PQ) Film, der auf entsprechenden HDR fähigen Fernsehern klasse aussieht. Hier ist 10 Bit wichtig. Beim Export in 8 Bit erscheinen unschöne Raster Effekte im Film, bei 10 Bit nicht. Hast Du keinen HDR Fernseher, dann ist dieser Tipp uninteressant.

easy1977 schrieb am 12.03.2019 um 08:02 Uhr

Das ist ein guter Hinweis. Ich habe mal ein Kameraprofil mit SLog3 Gamma und SLog3 Gamut erstellt. Das kann ich schnell aktivieren, bzw deaktivieren. Mein aktueller Fernseher kann noch kein HDR, aber im Sommer soll einer her. Leider ist auch mein Monitor nur Full HD. Ich kann die Filme daran also, aktuell, nicht sinnvoll bearbeiten. Die mit SLog3 erstellten Filme wirken darauf recht farblos und kontrastarm. Ich denke, wenn ich es so bearbeite, dass es darauf gut aussieht, ist bei einem HDR Gerät die Sättigung viel zu hoch. Es ist aber eine gute Option, wenn ich einen geeigneten Monitor + TV habe. ;-)

famoss schrieb am 12.03.2019 um 20:11 Uhr

Kein Problem, gerne. Dieses Thema ist anscheinend irgendwie unbekannt, dabei bietet SLog3 die perfekte Grundlage für das Erstellen von hochwertigen HDR Filmen. Mit den entsprechenden Log Einstellungen bei Panasonic und Co sollte das auch gehen.
Ich habe auf Youtube ein Demo hochgeladen, es wurde beim Upload auch als HDR erkannt:

Das Video habe ich mit VPX erstellt. Das funktioniert seltsamerweise nur mit SLog3. Mit SLog2 oder HLG (Bt.2020) wird der HDR Export auf meinem HDR Fernseher übertrieben bunt und kontrastreich.

Mit einer LUT kannst Du aber auch ohne HDR einen guten Kontrast im herkömmlichen HDTV Bt.709 Standard erstellen. In VPX gibt es vordefinierte LUTs aller möglichen Log Verfahren, die entweder von Hand oder automatisch für das entsprechende Kameramodell oder Herstellerverfahren angewendet werden kann.

Log Aufzeichnungen enthalten als Wide Gamut Farben, die auf unseren Fernsehern, Monitoren nicht darstellbar sind. Daher erscheint das Bild grau. Außerdem sieht man im Histogramm, daß Schwarz- und Weißpunkt zur Mitte verschoben sind, was das Bild ebenfalls grau erscheinen läßt.

Das ist ein riesiges Thema, vielleicht sollte ich auf YouTube mal was dazu erstellen. 😄

famoss schrieb am 12.03.2019 um 20:24 Uhr

Noch eine Anmerkung zu dem Video. Nur auf einem HDR Fernseher/Monitor bekommt man einen wirklichen Eindruck von dem Video. Im letzten Teil gegen die Sonne z. B. sind in der HDR Version die Details der Wolken erhalten, in der Version für normale Fernseher sind die Wolken teilweise ausgebrannt.

Das Demo Video habe ich mit VPX erstellt mit SLog3 8Bit Rohmaterial und als Bt.2020 HEVC 10 Bit exportiert.

Hansi_von_NRW schrieb am 21.03.2019 um 10:49 Uhr

Meine Efahrung,

  • Import NLE 8 bit >>> Export 10 bit bringt nichts,
  • Import NLE 10 bit >>> Export 8 bit schon eher (gerade beim graden in der Post-Produktion sind die 10bit Farbtiefe wirklich eine große Reserve), ich sehe da einen positiven Unterschied.
famoss schrieb am 25.03.2019 um 10:02 Uhr

Der Export als 10bit HEVC in guter HDR Qualität funktioniert nur mit Sony SLog3 Rohmaterial. Außer bei den Profimodellen zeichnet Sony nur in 8 Bit auf.
Der Export der 8 Bit SLog3 Datei in 8 Bit HEVC erzeugt eine HDR Datei, die Rasterung und Banding aufweist.
Der Export derselben 8 Bit SLog3 Datei in 10 Bit HEVC erzeugt eine HDR Datei, die keine Rasterung und Banding aufweist.

SLog ist das Verfahren, welches Sony für die Erstellung von HDR Videos empfiehlt und Wide Gamma und Gamuts sind. Daß VPX daraus also ein Bt.2020 HDR Video erstellen kann, wundert mich nicht.
Ich vermute, daß VPX beim Rendern als 10 Bit Datei ein feineres Ton-Mapping durchführt, als beim 8 Bit Export.

Wenn man eine normale Bt.709 Datei (heutiger HDTV Standard) auf 10 Bit exportiert, dann bringt das tatsächlich gar nichts.