16.05.2022, 21:32
(15.05.2022, 20:01)Selur Wrote: Nebenbei: DGDecNV gibt bei >8bit immer 16bit aus.
-> könntest mal testen ob das bei libav auch ist wenn Hardware decoding verwendet wird.
Cu Selur
Ist dir eigentlich irgend eine Hardware Decoding Methode bekannt, die mit AMD GPUs kompatibel ist?
Hab festgestellt, dass das Playback von diesem 4k 10bit video meine CPU zu 75% auslastet Da würde HW Decoding vermutlich wirklich was bringen...
Mir ist außerdem bezüglich der mauen fft3dgpu Performance bei 10 bit Quellen ein Licht aufgegangen. Da wird intern immer precision=2 genutzt, da wird meine angestaubte GPU dann vermutlich selbst im mode 0 langsam zum bottleneck.
Changelog von Avisynth.nl:
Quote:Changelog
Version Date Changes
v0.8.6 2021/01/04 - Support 10-32 bit formats. Parameter ranges (smin, smax, sigmas) are the same for all bit depths.
- For 10-32 bit clips parameter "precision" is ignored and is set to 2: always use 32 bit float internally
- Note: for 8 bits "precision" default is 0: calculation is done in 16 bit floating point type (s10m5) internally