This forum uses cookies
This forum makes use of cookies to store your login information if you are registered, and your last visit if you are not. Cookies are small text documents stored on your computer; the cookies set by this forum can only be used on this website and pose no security risk. Cookies on this forum also track the specific topics you have read and when you last read them. Please confirm whether you accept or reject these cookies being set.

A cookie will be stored in your browser regardless of choice to prevent you being asked this question again. You will be able to change your cookie settings at any time using the link in the footer.

[BUG] NVEnc Features werden trotz gpu support nicht unterstützt
#33
(31.12.2022, 11:47)Selur Wrote:
Quote:Ist es nicht so, dass der Hardware-Decoder in der Karte streiken sollte, wenn da nicht zum profile/level/tier passende vbv Werte eingestellt werden, also NVEncC nicht entsprechend eingeschränkt hat?
Die meisten Decoder, die mir so in den Sinn kommen unterstützen, alles bis zu einem bestimmten Profile/Level/Tier, aber wenn sie z.B. High@Level 6.2 unterstützen laufen sie, auch wenn das Material Main@Level1 geflagged ist, aber  High@Level 6.2 VBV Werte verwendet. Wink

Problem ist halt, mit der aktuellen Dokumentation sehe ich nicht ein da was zu Implementieren und mich dann mit Userbeschwerden rumzuschlagen.

Cu Selur

Wenn das nunmal hier in einem aktuellen Dokument von NVidia ausdrücklich so empfohlen wird, kannst die Schuld auf Rigaya abschieben, wenn da irgendwas nicht Profil konform eingeschränkt wird Big Grin
Muss ja nicht per default aktiv sein, wer das bewusst von "Auto" auf benutzerdefiniert umstellt steht selbst in der Verantwortung.

Aber vielleicht finden sich ja doch noch irgendwo brauchbare Hinweise. Wäre halt traurig, wenn das Auto Handling von NVEncC für Qualitätsdefizite verantwortlich ist. Das hauptsächliche Marketingargument für NVEnc ist imho nach wie vor Streaming, und dann könnte es natürlich auch sein, das solche settings per default darauf getrimmt sind...

Bei x265 gibt's ein "custom command line addition" Feld. Wäre natürlich auch eine Möglichkeit um mit derartigen Optionen erstmal etwas rumzuspielen und Erfahrungen zu sammeln ob/was etwas bringt und was eher ein Problem verursacht. Der allgemeine Erfahrungsschatz scheint mir ja eher dünn zu sein, was NVEnc angeht. In dem Fall kann dann auch hinterher keiner rummeckern, dass irgendwas nicht passt an dem, was er da encoded hat.

h265 10 bit mit b-frames scheint sich jedenfalls zu lohnen, da spart man über den Daumen gepeilt 30% Bitrate im Vergleich zu h264 8 bit ein, bei (laut VMAF/SSIM/PSNR) vergleichbarer Qualität. Damit fährt man auf den ersten Blick mindestens so gut, wenn nicht besser, wie mit x264 10 bit preset medium, was ja traurigerweise leider eh kein Decoder unterstützt.
Und der Encoding Speed liegt natürlich um Welten auseinander.
Unbrauchbar ist NVEncC jedenfalls nicht, wenn man 10 bit encoded. Ist halt nur die Frage, ob da nicht sowohl bei h264 als auch bei h265 noch Luft nach oben ist durch Anpassung vbv-buf und auch anderer mir möglicherweise noch nicht bekannten settings.
Reply


Messages In This Thread
RE: NVEnc Features werden trotz gpu support nicht unterstützt - by mogobime - 31.12.2022, 13:10

Forum Jump:


Users browsing this thread: 2 Guest(s)