This forum uses cookies
This forum makes use of cookies to store your login information if you are registered, and your last visit if you are not. Cookies are small text documents stored on your computer; the cookies set by this forum can only be used on this website and pose no security risk. Cookies on this forum also track the specific topics you have read and when you last read them. Please confirm whether you accept or reject these cookies being set.

A cookie will be stored in your browser regardless of choice to prevent you being asked this question again. You will be able to change your cookie settings at any time using the link in the footer.

[BUG] NVEnc Features werden trotz gpu support nicht unterstützt
#31
Quote:Die max. VBV Werte müssen dann durch die Level, Profile&Co Auswahl beschränkt werden.
Ist also etwas umständlicher.
Zu klären wäre auch:
  • Das letzte Mal als ich die Dokumentation gelesen hatte stand da auch öfters mal, dass sie nicht sicher VBV konform sind, was VBV etwas unsinnig macht. Ist dies immer noch der Fall?

  • Wenn Profile, Level (Tier) gesetzt sind, schränkt der Encoder die VBV Werte korrekt ein?

  • Quote: Wrote:Hybrid verwendet aber immer "auto" bzw. definiert den Wert nicht, wodurch laut report file auto gesetzt wird
    Wie sind die vbv Werte bei 'auto' eingeschränkt? (sollten sie nicht auf die Profile/Level/Tier Maxima gestellt sein?)
    Bzgl. der 4 Sekunden Empfehlung: Macht es nicht mehr Sinn da den maximal erlaubten Wert zu nehmen?

  • Wie reagiert der Encoder, wenn man nicht legale Werte verwendet?


Bis jetzt habe ich da auch nichts gescheites gefunden. Ist es nicht so, dass der Hardware-Decoder in der Karte streiken sollte, wenn da nicht zum profile/level/tier passende vbv Werte eingestellt werden, also NVEncC nicht entsprechend eingeschränkt hat? Dann könnte man das ja mal experimentell aktivieren und schauen, ob das Ergebnis von der Hardware oder CPU decoded wird. Kann man ja in GPU-Z sehen, ob die Video Engine Load >0% zeigt oder nicht, also die CPU decoded.
Es besteht halt das Risiko, dass NVEncC per default VBV für Low Latency Verwendungszwecke einstellt, was dann wohl average frame size statt 4*Bitrate ist und die Qualität von I-Frames einschränken kann.
Hab ich allerdings nur in dieser ziemlich veralteten Dokumentation von 2014 unter Punkt 7.1.1 was dazu gelesen:
https://developer.download.nvidia.com/co...gGuide.pdf
Kann natürlich auch gut sein, dass das z.B. bei Verwendung von b-frames seitens NVEncC ausgeschlossen ist und höhere Werte verwendet werden... Huh 
Seltsamerweise fehlt in der Doku von 2016 das komplette Kapitel Low Latency encoding:
https://developer.download.nvidia.com/designworks/video-codec-sdk/secure/7.1/01/NVENC_VideoEncoder_API_ProgGuide.pdf?tmqul5FwgC3nTRZtoGKKD1_3biKcCVJQdZW21904kMvPCz5jrMQL6q9SHREIu4ymmZxpEIVaEhFxZk3Hw4YfTlfEEmNI2R0W3jv6qQjZa3Ub6DgcRd2AKtljKyrnNxpuYAPVYhGcxpQlbESvpVZRrwcltNuRi4J_tSKmbbt80MU4XZX4rv2vRiKuxZ5Z&t=eyJscyI6IndlYnNpdGUiLCJsc2QiOiJkZXZlbG9wZXIubnZpZGlhLmNvbS9yZXN0cmljdGVkP2ZpbGVuYW1lPTQwMy5odG1sIn0=
Und eine neuere hab ich nicht gefunden...
Reply


Messages In This Thread
RE: NVEnc Features werden trotz gpu support nicht unterstützt - by mogobime - 31.12.2022, 11:41

Forum Jump:


Users browsing this thread: 2 Guest(s)