Was passiert bei Kodierqualität

Burglinster schrieb am 28.10.2021 um 14:39 Uhr

Hallo

wenn ich einen Film rendere, kann ich Mitte Rechts auf den Knopf "erweitert" klicken. Dann kommen verschiedene Optionen zum Rendern. Links unten kann man die Kodierqualität einstellen. Schnellste, Schneller, Schnell, Ausgewogen, Gut, Besser, Beste.

Was passiert da genau? Im Film sehe ich nachher keinen Unterschied, aber irgendeinen Unterschied muss es doch machen.

Auch darüber den Level von 4.0 bis 6.2 verstehe ich nicht. Von welchem Level ist da die Rede?

Danke im voraus

Gruss

Berthold

 

Kommentare

vdl-user-v19 schrieb am 28.10.2021 um 15:15 Uhr

Level bei z.B. bei H.264 und HEVC sind gewissermaßen Standards/Definitionen für die Codecs.

Zitat von Wikipedia:

"Profile und Level sollen die Zusammenarbeit der verschiedenen Implementierungen der Hersteller unterstützen. Die Profile fassen bestimmte Merkmale zusammen, die unterstützt werden müssen. Ein Level setzt Beschränkungen auf die Variablen eines Datenstroms, wie etwa die maximale Auflösung oder Bitrate."

"Die Level definieren die Anforderungen für einen entsprechenden De- und Encoder, also welche maximale Auflösung und Bildwiederholungsrate dieser de- bzw. encodieren kann."

Die Tabellen hier:

https://de.wikipedia.org/wiki/H.264

https://de.wikipedia.org/wiki/High_Efficiency_Video_Coding#Ebenen_(Tiers)_und_Levels

stellen dies dar.

 

Je höher die Kodierqualität gewählt wird, desto länger dauert der Rendervorgang.

Genaueres (ob da z.B. von CPU und GPU noch genauer, detaillierter gerechnet wird) ist mir leider auch nicht bekannt.

geschi schrieb am 28.10.2021 um 18:50 Uhr

Hallo

......Schnellste, Schneller, Schnell, Ausgewogen, Gut, Besser, Beste.

Der Unterschied ist die Encodierzeit, je besser, desto länger die Zeit, die der Codec zur Berechnung benötigt.

Burglinster schrieb am 29.10.2021 um 15:31 Uhr

Hallo, so ganz zufrieden mit den Antworten bin ich leider noch nicht.

Das mit den Levels habe ich ungefähr kapiert, reicht für meinen untechnischen Verstand.

Aber die Kodierqualität: ja, je länger die Encodierzeit, desto besser. Aber inwiefern genau ist es denn besser? Darüber schweigt auch das Handbuch. Sehen kann ich keinen Unterschied.

Weiss jemand mehr?

 

Zuletzt geändert von Burglinster am 29.10.2021, 15:31, insgesamt 1-mal geändert.

Desktop: Windows 11 Pro, Intel i7 13700 2.10 GHz, RAM 48 GB, NVIDIA RTX 4060
Software: Magix Pro X16, Vasco Da Gama 16 HDPro
Kamera: Sony AX700, iPhone 15 Max, DJI Pocket 3, Insta360 x4, DJI Air 2, GoPro hero 6
Filme auf Vimeo: https://vimeo.com/befe

vdl-user-v19 schrieb am 29.10.2021 um 16:24 Uhr

Hallo @Burglinster

eine kleine Info habe ich hier:

https://www.magix.com/de/videos-bearbeiten/mp4-video-komprimieren/

noch gefunden.

"Für das MP4-Verkleinern sind vor allem die Bitraten-Einstellungen wichtig. Aber auch die Kodierqualität ist bedeutsam. Wenn Sie genügend Zeit haben, empfiehlt sich, hier die höchstmögliche Einstellung "Beste" zu verwenden."

Daraus schließe ich, dass der Encoder bei "Bester Kodierqualität" dann evtl. auch kleinere MP4-Dateien produziert ...

Müsste man direkt mal ausprobieren/vergleichen, ob sich das lohnt bzw. ob wirklich merklich kleinere Dateien ausgegeben werden.

Burglinster schrieb am 29.10.2021 um 16:28 Uhr

Danke, das habe ich gestern schon getestet. Mit alle 7 Möglichkeiten. Alle mp4 Dateien sind gleich gross.......

newpapa schrieb am 29.10.2021 um 16:56 Uhr

Hallo,

die Kodierqualität zu beurteilen ist schwierig, weil ja die Kodierexperten mit allen Tricks arbeiten, damit der Nutzer von der Datenkompression möglichst nichts / wenig merkt. Es sind zwei Probleme zu meistern: Die Detailfülle und die Dynamik der Szene. In beiden Fällen muss mehr oder weniger "geschwindelt" werden. Überprüft man eine dynamische Szene mit unterschiedlichen Kodierqualitäten, stellt man z.B. fest, dass die Bilder keineswegs überall 100%-tig deckungsgleich sind, weil bei geringerer Qualität Bildteile nicht mehr so ganz genau positioniert werden. Insgesamt geht das auf Kosten der ursprünglichen Bildqualität. Im beigefügten Shot kann man natürlich leider nur die Detailtreue beurteilen, wobei die Dynamik wichtiger wäre.

Links wurde mit bester Qualität und rechts mit schlechtester Qualität kodiert. Mit gutem Willen erkennt man im Bereich des Wegstreifens / Wiese mehr Details. Wobei das wiederum auch etwas schwierig ist, weil dadurch die Unschärfen (aus dem Original) stärker bemerkt werden. Deshalb werden Bilder häufig "glattgezogen" weil das besser aussieht, aber letztlich auf Kosten der Details geht. Um überhaupt etwas sichtbar zu machen, wurde das Video für den Screenshot um 400% vergrößert.

Ehemaliger User schrieb am 29.10.2021 um 20:41 Uhr

Ich hatte in der Vergangenheit dazu einige Testreihen gemacht. Exportiert wird in meinem Fall in Full HD H264/AVC. Ob ich beste oder schnellste Qualität einstelle, ändert erstens bei mir nichts an der Encodierzeit, zweitens auch bis auf paar bytes nichts an der Größe(immer Hardwareencoding über Intel QS). Ich hoffe, die Schalter dienen nicht nur als Platzhalter. Bei der Bitrate hingegen merkt man sehr wohl deutliche Unterschiede, wie meine Vorredner auch geschrieben haben. Bei Schwenks, und auch wenn dazu noch feine Details ins Spiel kommen, dazu eventuell eine wechselnde Szene, also wo sich sehr viele Details ändern, hoher Dynamikunfang,da merkt man deutlich die höhere Bitrate. Auch bei (bestimmten)ruhigen Szenen. Ich hatte mal eine Szene mit feinen Kieselsteinen bzw. leicht gekräuselte Wellen auf dem Wasser. Bei zu niedriger Bitrate sieht man auch ohne Lupe kleine Klötzchen/Unschärfe. Mit anderen Worten, Kompressionsartefakte. Also die Bitrate hoch genug ist wohl der mit Abstand wichtigste Parameter. Wobei hoch nicht utopisch hoch sein muss,kommt auch auf das Ausgangsmaterial an. Bei mir meist 4K mit mindestens 60mbit. Bei AVC/H264 Export in Full HD reichen mir 12-20mbit (Durchschnittliche Bitrate) als Wert. Höher mag noch was bringen, aber nur wenn man mit Lupe vor einem riesen TV sitzt. Das kommt vielleicht auch auf den persönlichen Anspruch und den Filminhalt an, und bei HEVC kann man eh nochmal deutlich die Bitrate reduzieren.

Peter2003 schrieb am 29.10.2021 um 23:37 Uhr

Hallo Berthold,

ich habe über Deine Frage nachgedacht.

Eigentlich würde ich sagen, dass die Qualität insbesondere von der Datenrate abhängt. Die sollte eigentlich aussagen, wieviel Information also Qualität in einem „Stream“ enthalten ist.

Jedoch, erinnere ich mich auch, dass man früher beim Rendern von Single-Pass und Dual-Pass gesprochen hat. Also ob ein Frame nur einfach einmal abgearbeitet wurde oder zweimal oder mehrmals unter unterschiedlichen technischen Aspekten. Das ist jetzt natürlich sehr dilettantisch formuliert. Könnte jedoch die Antwort auf Deine und auch meine Frage in diesem Zusammenhang sein. Denn, damit könnte sich unabhängig von der Datenrate ein qualitativer Unterschied begründen.

Gruß Peter

Zuletzt geändert von Peter2003 am 29.10.2021, 23:39, insgesamt 2-mal geändert.

Desktop: Win 11, VPX 16 Version  22.1.219, i9-9900k, 32 GB, Geforce GTX1660, angeschlossen: 3 Monitore HP M27 1920X1080, 1 Monitor 3840*2160, 1 TV 27 Zoll. Grafikkartentreiber wie von Magix empfohlen.

Laptop: WIN11; VPX 16 Version  22.1.219; Lenovo i5-1135G7; Intel Iris Xe; 8GB Arbeitsspeicher


Kameras: Panasonic GH5, DJI Pocket3, Canon HF-M46, Canon HF-M506, Canon EOS 80D.
Mikrofon: rode stereo videomic pro, verwende aber dennoch meist die in den Kameras eingebauten Mikros

Ehemaliger User schrieb am 30.10.2021 um 00:35 Uhr

https://de.m.wikipedia.org/wiki/Two-pass_encoding

Hier wird ziemlich gut erklärt, warum es das gibt/gab und warum das in den Hintergrund getreten ist, dabei spielt mittlerweile auch eine Rolle, dass kaum noch jemand heutzutage auf den Festplattenplatz achten muss, der sollte reichlich vorhanden sein mittlerweile, ebenso die neuen hocheffizienten Codecs in Verbindung mit immer stärkerer Hardware. Aber wer eine CD bzw. DVD brennt und eine möglichst kleine Datei mit möglichst guter Qualität braucht, für den könnte es immer noch interessant sein, weil da auch noch die alten Codecs zum Einsatz kommen. Für den Rest gilt wie gesagt:Bitrate vernünftig gewählt und gut.Dann wird eben die Datei 200 MB größer.....

Burglinster schrieb am 30.10.2021 um 08:00 Uhr

Interessant. Welche Bitrate würdest du denn bei HEVC empfehlen?

Ehemaliger User schrieb am 30.10.2021 um 09:45 Uhr

Eine solche Frage lässt sich nicht pauschal beantworten, schon gar nicht wie sie gestellt wurde.Ich meine welche Auflösung, Filminhalt, Rohmaterial. Ich habe wie gesagt 4k Rohmaterial, exportiere in Full HD avc und MIR reicht eine Bitrate je nachdem zwischen 12 und 20mbit (durchschnittlich). Würde ich das Gleiche in HEVC exportieren, dann mit 50- 70% dieser Bitrate. Jedenfalls bei Magix.

kow123 schrieb am 30.10.2021 um 10:10 Uhr

...ich habe wie gesagt 4k Rohmaterial......

Hallo, hast du auch schon mal in 4K HEVC exportiert? In welcher Bitrate?

Ehemaliger User schrieb am 30.10.2021 um 10:41 Uhr

Nein,alle Aussagen beziehen sich auf Full HD. Das bleibt auch noch eine Weile so, auch aufgrund meiner Geräte im Heimnetz und in der Familie . Außerdem spielen auch andere Überlegungen da mit hinein. So bin ich aufgrund fehlender eigener Testreihen nicht wirklich aussagefähig bei 4k Export. Aber ich denke, vom Prinzip kann man einiges übertragen.

newpapa schrieb am 30.10.2021 um 11:00 Uhr

Hallo,

Exportiert wird in meinem Fall in Full HD H264/AVC. Ob ich beste oder schnellste Qualität einstelle, ändert erstens bei mir nichts an der Encodierzeit,

Um nur die Grafikkodierung zu fordern, habe ich ein Testvideo (2 Minuten) ohne Effekte und Blenden gewählt.

Die Ergebnisse sehen so aus

Schnellste: 0:23 mit HwB; 0:50 ohne HwB

Beste: 0:28 mit HwB; 9:00 (!) ohne HwB **) (HwB = Hardwarebeschleunigung)

**) Ich habe mich schon immer etwas über astronomische Exportzeiten gewundert. Es gibt offensichtlich erhebliche Unterschiede im Handling der Grafikdaten.

Getestet wurde bei deaktivierter NVIDIA-Grafikkarte nur mit dem Intel-Prozessor / UHD 630.

Ehemaliger User schrieb am 30.10.2021 um 11:13 Uhr

Da aber kaum ein Film ohne Effekte auskommt, und wenn es nur Blenden sind, vervielfacht sich auch bei HW-Encoding die Renderzeit. Was wiederum die Frage aufwirft, warum auch hier ausgerechnet Magix solch riesen Probleme selbst auf neuester Hardware hat, wenn Effekte ins Spiel kommen, und wenn es nur paar simple Blenden sind, ganz zu schweigen von Color Grading usw., was ja gerade in der Pro X immer wieder gerne beworben wird als Kaufargument. Dazu gibt es zuhauf anschauliche Videos auf Youtube.

Burglinster schrieb am 30.10.2021 um 14:25 Uhr

Ich habe wie gesagt 4k Rohmaterial, exportiere in Full HD avc und MIR reicht eine Bitrate je nachdem zwischen 12 und 20mbit (durchschnittlich). Würde ich das Gleiche in HEVC exportieren, dann mit 50- 70% dieser Bitrate.

Habe auch nur 4K Material, rendere immer in Full HD (Für 4K habe ich auch nicht das Equipment). Allerdings rendere ich immer in HEVC.

Das ist meine Einstellung:

Das ist etwas höher als die Voreinstellung. Soll ich das noch etwas höher stellen?

Danke

Berthold

 

Zuletzt geändert von Burglinster am 30.10.2021, 14:25, insgesamt 1-mal geändert.

Desktop: Windows 11 Pro, Intel i7 13700 2.10 GHz, RAM 48 GB, NVIDIA RTX 4060
Software: Magix Pro X16, Vasco Da Gama 16 HDPro
Kamera: Sony AX700, iPhone 15 Max, DJI Pocket 3, Insta360 x4, DJI Air 2, GoPro hero 6
Filme auf Vimeo: https://vimeo.com/befe

Ehemaliger User schrieb am 30.10.2021 um 15:38 Uhr

Ich denke die Einstellungen sehen gut aus, probier einfach mal und wenn du mit dem Ergebnis zufrieden bist hast du eine gute Basis gefunden. Im Netz kann man überall lesen, hevc braucht etwa die halbe Bitrate gegenüber AVC bei gleicher Qualität. Hierin liegt ja der Vorteil, die effektivere Kompression. Gib im Zweifel einfach noch wie du es auch gemacht hast ein bisschen dazu, und du wirst einen guten Kompromiss aus Dateigröße und Qualität gefunden haben. Am Ende kann eine noch so hohe Bitrate fehlende Informationen auch nicht ersetzen, sondern bestenfalls das wiedergeben, was im Originalclip vorhanden ist.