This forum uses cookies
This forum makes use of cookies to store your login information if you are registered, and your last visit if you are not. Cookies are small text documents stored on your computer; the cookies set by this forum can only be used on this website and pose no security risk. Cookies on this forum also track the specific topics you have read and when you last read them. Please confirm whether you accept or reject these cookies being set.

A cookie will be stored in your browser regardless of choice to prevent you being asked this question again. You will be able to change your cookie settings at any time using the link in the footer.

[BUG] NVEnc Features werden trotz gpu support nicht unterstützt
#11
Gibt's nicht, bei mir wird jetzt AQ auch gesetzt. Ich könnte schwören, dass ich in der GUI mehrfach bei beiden Codecs draufgeklickt bzw. an / ausgeschaltet hab, und sich nichts im cli Fenster geändert hat. War wohl ein temporärer Bug, bin mal gespannt, ob der nochmal irgendwann auftaucht...
Reply
#12
Wenn Du es reproduzierbar nicht geht kann ich versuchen es zu fixen.

Cu Selur
Reply
#13
Zitat von deinem Wikipedia Link:

Quote:Sixth generation, Turing TU10x/TU116

Sixth generation NVENC implements HEVC 8K encoding at 30 FPS, HEVC B-frames and HEVC B-frames as reference (with support for each and middle modes[13]) and Alpha HEVC[14] support and provides up to 25% bitrate savings for HEVC and up to 15% bitrate savings for H.264. The initial launch of the Nvidia GeForce GTX 1650 was exempt from this generation however, as it used Volta NVENC instead of Turing. Nvidia updated the NVENC encoder of the GTX 1650 cards in 2020 to also use the Turing engine.[15] The GTX 1650 Super uses the Turing NVENC engine as it is based on the TU116 rather than the TU117 used in the original GTX 1650.[16]

Die ersten GTX 1650 Karten konnten das wohl nicht. Meine Karte hat den tu106 chipsatz, der ist eigentlich neuer als tu117 der anderen GTX 1650 Karten. Meine KFA2 GTX 1650 kam wie alle anderen TU106 Karten erst Sept. 2020 oder später auf den Markt. Die TU117 Karten gab's schon im April.

In dem anderen Wikipedia Link, den ich oben schonmal gepostet hatte, ist das ja ebenfalls so dargestellt, dass die TU106 Karten b-frames können.

Deswegen frage ich mich echt, ob NVEnc irgendwie meine Karte fälschlicherweise als eine ältere GTX 1650 identifiziert, man sieht ja auch keine genauen Angaben zum Chipsatz bei der --check-features Abfrage.
Ob ich es riskieren sollte, da mal das BIOS eines anderen Herstellers draufzuflashen?  Rolleyes
Reply
#14
Quote:Ob ich es riskieren sollte, da mal das BIOS eines anderen Herstellers draufzuflashen? 
Nur wenn Du im Zweifelsfrei bereit bist ne neue Karte zu kaufen. Wink

Cu Selur

Ps.: Hatte ne dev Version per Pm geschickt Smile
Reply
#15
Oder mal rigaya bei github damit konfrontieren, bevor die Karte im Orkus landet...

Ups das mit der pm hab ich nicht gemerkt, da ich das Thema abonniert habe und die ganze Zeit irgendwelche pms kommen, werd ich gleich mal wieder abstellen...
Reply
#16
So, mach mich mal ins Bettchen. Smile

n8
Reply
#17
So, das Rätsel hat sich gelöst. Meine KFA2 Karte ist trotz Release in Sept. 20 und der Kategorisierung bei geizhals als TU106 Karte in Wahrheit so eine 1st Gen TU117 Karte. Hab genau in dieser Kategorie über geizhals die Karte bestellt, es gibt dort auch keine zweite TU117 Karte von dem Hersteller.
Laut Techpowerup gibt es aber anscheinend eine KFA2 GTX 1650 EX PLUS (1-Click OC) GDDR6 und eine KFA2 GTX 1650 EX 1-Click OC GDDR6.
Ich hab die ohne Plus bekommen...
Hätte ich das bloß mal nach dem Kauf gleich mit GPU-Z kontrolliert Angry
Reply
#18
Mein Beileid. Sad
Reply
#19
Gestorben sind nur meine Wunschvorstellungen Smile 

Die stromsparende 70W Alternative wäre evtl. eine gebrauchte RTX A2000 - da müssen aber die Preise noch etwas fallen (weiß man, ob's in diesen Zeiten überhaupt passiert?)
Oder halt die günstigere Mainstream Karte mit leider 120W TDP, GTX 1660 Ti - interessanterweise hat die leistungsstärkere Ti Version eine 5W niedrigere TDP als die GTX 1660 Super und dieselbe wie die normale GTX 1660. Die GTX 1660 Ti wäre ca. 80% schneller bei FP16, FP32 und FP64.

Oder die TU116 basierte GTX 1650 Super mit 100W - die wäre knapp 50% schneller als meine TU117 basierte Karte. 

Aber richtig stromsparende Karten mit gibt's im Mainstreamsektor anscheinend nicht - selbst die neuere TU106 basierte GTX 1650 mit vollem h.265 Support braucht 90W im Vergleich zu meiner TU117 basierten mit 75W. Und das obwohl die ältere Version in der theoretical performance um die 5% besser abschneidet. Seltsam - normalerweise steigt ja eher die Leistung pro Watt bei neueren Generationen.

Aber jetzt zurück zu Hybrid.

Leider ist der adaptive quantization bug wieder da und geht auch nicht mehr weg. Ich schalte in der GUI an, aber die Option wird nicht der cli hinzugefügt. Einen zufriedenstellenden Debug dazu kann ich leider auch nicht liefern, es passiert nämlich im Debug exakt gar nichts wenn ich AQ an/ausschalte oder die strength verändere. Hab trotzdem mal einen ab öffnen der Datei hochgeladen.
Auch multilevel ref lässt sich bei mir unter h.265 anschalten, obwohl die Karte es nicht supportet - weiß nicht ob du's bewusst so gelassen hast.
Hab mal einen Screenshot erstellt, auf dem man die Einstellungen sieht und die fehlende Option in der cli.

Dann ist mir beim öffnen des IMAX Trailers (vorher hab ich die ganze Zeit das Sony Video verwendet) noch eine "Unknown Mastering display color primaries" Fehlermeldung aufgeploppt, hab davon einen zweiten Debug erstellt.

Alles hier:
https://mega.nz/folder/MgxATIRI#F6gCOCD1pibNUD0FfMwoow
Reply
#20
Quote: Ich schalte in der GUI an, aber die Option wird nicht der cli hinzugefügt.
Du nutzt 'constant quantizer' -> da wird adaptive quantizer ignoriert (weil man ja einen konstanten Quantizer will), der Bug ist, dass es in der GUI nicht deaktiviert ist.
Ich pass Hybrid so an, dass man da auch adaptive quantizer setzen kann.

Cu Selur
Reply


Forum Jump:


Users browsing this thread: 2 Guest(s)