The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для формата видео AV1, opennews (??), 15-Мрт-24, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


36. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (36), 15-Мрт-24, 17:36 
>Для использования SVT-AV1 необходим процессор x86_64 с поддержкой инструкций AVX2. Для кодирования 10-битовых потоков AV1 с качеством 4K требуется 48 Гб ОЗУ, 1080p - 16 Гб, 720p - 8 Гб, 480p - 4 Гб

Да, как уже отписались, это устаревшая информация, с avx2 быстрее и он рекомендуется, но не требуется
и по памяти за это время было много оптимизаций и теперь 16 Гб вполне хватает для кодирования 4K на типичном десктопном процессоре, для серверных с кучей ядер или для самых медленных пресетов типа 0 или -1, может нужно и больше

>Из-за усложнения применяемых в AV1 алгоритмов, для кодирования данного формата требуется существенно больше ресурсов, чем для других форматов, что не позволяет применять штатный кодировщик AV1 для перекодирования в реальном времени. Например, штатный кодировщик от проекта AV1 требует в 5721, 5869 и 658 раз больше вычислений по сравнению с кодировщиками x264 (профиль "main"), x264 (профиль "high") и libvpx-vp9.

Но эта информация не имеет отношения к svt-av1, да и само по себе такое сравнение несет мало смысла, потому что это одна из первых версий референсного кодировщика с максимальными настройками качества (что в приоритете на начальных этапах, чтобы проверить потолок эффективности) с уже зрелыми оптимизированными кодировщиками с типичными настройками, да и подобным сравнениям уже больше 6 лет
Сейчас же svt-av1 вполне подходит для кодирования в реальном времени (на более быстрых пресетах), да и libaom встроен в браузеры и используется для webrtc (в том числе на смартфонах, для более низких разрешений)
А при достаточном количестве ядер svt-av1 даже обгоняет все прошлые поколения кодеков по скорости/эффективности (хотя по личному опыту это не всегда так, очень зависит от битрейта и контента, да и x26x все еще более стабильны по среднему качеству и имеют лучше настроенную психовизуалку)

Ответить | Правка | К родителю #2 | Наверх | Cообщить модератору

54. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (4), 15-Мрт-24, 20:06 
В libvpx качество серьёзно просаживается, если больше чем в полтора потока кодировать и ограничения достаточно жёсткие. На 4к можно удвоить и это рекомендации гугла. Отчасти это решили в современных проприетарных кодеках (некоторые операции можно запараллелить), лично оценить степень деградации на av1 пока не было возможности.
Ответить | Правка | Наверх | Cообщить модератору

59. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (-), 15-Мрт-24, 20:20 
> гугла. Отчасти это решили в современных проприетарных кодеках (некоторые операции можно
> запараллелить), лично оценить степень деградации на av1 пока не было возможности.

Это и в открытых решили, которые давно уже могут дать мастеркласс любой проприетари. Можно tiles юзать но это рушит битрейт-качество. Особенно на мелких видео. На 4K - урон меньше.

Но есть идеи лучше. Скажем  на Doom9 есть забавная прога на хрусте которая пилит видео на сегменты, пинает ffmpeg на каждом сегменте отдельно, потом сводит все сегменты в один файл. Так можно прогрузить 100500 ядер если они есть, ничего особо не теряя в качестве. Но это больше тул для bulk-encoders которые вот реально EPYC'ов понабрали под задачу.


Ответить | Правка | Наверх | Cообщить модератору

63. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (36), 15-Мрт-24, 20:38 
По умолчанию SVT-AV1 может до 16 потоков полностью загружать для 1080p без какого либо изменения качества, но если использовать пресет не медленней 4, на самых медленных мультипоточность похуже.
С тайлами можно совсем на сотни потоков нагрузку распределять, но они уже влияют на качество, хотя очень незначительно, меньше процента в среднем для 2+1 тайлов, да и от их использования есть дополнительные плюсы в виде более быстрого декодирования и seeking-е
Хотя не для стриминга поточность не настолько важна, потому что можно использовать какие то дополнительные тулзы типа av1an, которые будут разбивать видео на куски и кодировать их параллельно
Ответить | Правка | К родителю #54 | Наверх | Cообщить модератору

70. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (-), 15-Мрт-24, 20:53 
> влияют на качество, хотя очень незначительно, меньше процента в среднем для
> 2+1 тайлов, да и от их использования есть дополнительные плюсы в
> виде более быстрого декодирования и seeking-е

Но битрейт-качество все же довольно круто проседает. То что 1-2% по качеству - по битрейту может быть и 30% какие. Т.е. можно было урезать файло на треть при той же картинке. Инверсная зависимость весьма крутая.

> Хотя не для стриминга поточность не настолько важна, потому что можно использовать
> какие то дополнительные тулзы типа av1an, которые будут разбивать видео на
> куски и кодировать их параллельно

Ну вот этот - даже EPYC прогрузить может. Ему пофиг, он на сегменты режет, пускает ffmpeg'ов пачку, кодирует сегменты параллельно, сводит. Так любой суперсервер можно озадачить - если есть чем.

Ответить | Правка | Наверх | Cообщить модератору

75. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (36), 15-Мрт-24, 21:20 
>Но битрейт-качество все же довольно круто проседает. То что 1-2% по качеству - по битрейту может быть и 30% какие. Т.е. можно было урезать файло на треть при той же картинке. Инверсная зависимость весьма крутая.

Нет, я имел ввиду при том же битрейте (можно и нагулить много тестов и я сам это проверял), если речь про SVT-AV1, ну или проще сказать что общая эффективность падает на эти пару процентов, на самом деле сильнее это влияет на самые медленные пресеты, на быстрых использование парочки тайлов может даже частенько улучшить эффективность (видимо они по какой то причине лучше работают локально, из-за более упрощенных алгоритмов)


Ответить | Правка | Наверх | Cообщить модератору

78. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (-), 15-Мрт-24, 21:55 
> Нет, я имел ввиду при том же битрейте (можно и нагулить много
> тестов и я сам это проверял),

Падение на 1-2% при том же битрейте - не очень информативно, в том смысле что инверсный маппинг "на сколько можно снизить битрейт при достижения все той же картинки" таки и интереснее, и информативнее.

То-есть, если кодек X делает файло на 30% меньше чем кодек Y при визуальном отсутствии разницы, мы за это кодек X и любим. Даже если на битрейте Z формальная разница визуальных метрик "всего" 1-2% - это не отменяет вон ту крутизну инверсной зависимости. И пыхтим мы чтобы при визуально идеальной по возможности картинке - скостить битрейт до уровня пока картинка все еще трудноотличима от оригинала.

> если речь про SVT-AV1, ну или проще сказать что общая эффективность падает на
> эти пару процентов,

Эти пару процентов оттранслированые в инверсный топик, как то - "какой битрейт надо для визуально такой же картинки" выгдядят куда пессимистичнее. Там довольно крутая зависимость, и в одной из прошлых новостей кто-то показывал этот фокус, просто расчертив графики, маппинг осей битрейта-качества. То что 1-2% на одной - довольно дохрена битрейта на другой так то.

> на самом деле сильнее это влияет на самые медленные пресеты, на
> быстрых использование парочки тайлов может даже частенько улучшить эффективность

Это в целом плохой способ увеличения эффективности, особенно если это менее 1080p размером. На 1080p - можно, но не рекомендуется. На 4К уже вариант. Если вдруг все ядра еще и так не сожраны (у вас там что, реально EPYC последний?). Еще от числа тайлов зависит. С 2 потери меньше чем с 4 например. Но и параллелизм хуже.

> (видимо они по какой то причине лучше работают локально, из-за более упрощенных
> алгоритмов)

Таки это несколько неоптимально - реюз инфо на границах и проч хромает. И в целом битрейт-качество теряется. И это довольно заметный шаг назад, его рекомендуют только как last resort. Другие варианты могут быть дать приемлимый эффект при меньших потерях.

Ответить | Правка | Наверх | Cообщить модератору

79. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (36), 15-Мрт-24, 22:49 
>Падение на 1-2% при том же битрейте - не очень информативно, в том смысле что инверсный маппинг "на сколько можно снизить битрейт при достижения все той же картинки" таки и интереснее, и информативнее.

Обычно выстраиваются графики с BD Rate (Bjontegaard delta rate) с кодированием в разные битрейты и сравнением каких то настроек, в данном случае тайлов и затем все это измеряется разными метриками или MOS (Mean opinion score), для обычных людей проще использовать метрики и взять или написать какой то скрипт для вычисления метрик и построения таких графиков, метрики не идеальны, но если будут какие то заметные изменения, то они это покажут, ну и вот на тайлах эти изменения минимальны, если с ними не перебарщивать.
Можно также и визуально сравнить, но разницу с использованием парочки тайлов я думаю мало кто заметит, av1 достаточно эффективно работает с ними.
Если не хочется строить графики, можно просто сделать кодирования с тайлами и без в одинаковый битрейт (с 3 или сейчас с 2-проходами) и сравнивать, тут не будет такого разброса битрейта, пару тайлов даже и для однопроходного crf то не особо на битрейт влияют, так что это достаточно простой способ.

>Это в целом плохой способ увеличения эффективности, особенно если это менее 1080p размером. На 1080p - можно, но не рекомендуется. На 4К уже вариант. Если вдруг все ядра еще и так не сожраны (у вас там что, реально EPYC последний?). Еще от числа тайлов зависит. С 2 потери меньше чем с 4 например. Но и параллелизм хуже.

Для архивного качества, когда нужно выжать максимум с самыми медленными настройками может и да, тайлы не лучший выбор, ну и особенно если нет больше 16 потоков, но в остальном, как я уже написал, они не так сильно влияют на качество.
Ютуб к примеру для своих av1 транскодирований разбивает на тайлы аж на каждые 400-480 пикселей по стороне, потому что это существенно помогает софтварному декодированию, ну и перемотке на нужный кадр, так что тут еще зависит как этот контент будут потреблять и на чем.
Не обязательно делать как Ютуб, можно лишь парочку добавить (для кодировщиков значения считаются как log2), ну и сравнить декодирование через ffmpeg/mpv бенчмарки, оно практически линейно растет, хотя для av1 есть и frame parallel threading, но оно менее эффективное, да и даже при его использовании скорость декодирования приумножается вместе с тайловым, поэтому тайлы бывают полезны не только для кодирования и вреда от них на деле не так много, если использовать с умом

Ответить | Правка | Наверх | Cообщить модератору

87. "Выпуск кодировщика SVT-AV1 2.0 и декодировщика dav1d 1.4 для..."  +/
Сообщение от Аноним (-), 16-Мрт-24, 00:45 
> не идеальны, но если будут какие то заметные изменения, то они
> это покажут, ну и вот на тайлах эти изменения минимальны, если
> с ними не перебарщивать.

Они минимальны в процентах метрики. Но если инвертировать вопрос и задаться вопросом "на сколько отличается битрейт при равном качестве картинки" (одинаковый SSIM/VMAF/визуальное качество/wahtever) - разница более заметная. Точно не 1% по битрейту. Тут на опеннете кто-то чертил в прошлой новости, просто 2 линии до пересечения с кривой, маппинг 2 точек с 1 стороны в 2 точки с другой. И с другой стороны вовсе не 1% будет.

> Можно также и визуально сравнить, но разницу с использованием парочки тайлов я
> думаю мало кто заметит, av1 достаточно эффективно работает с ними.

А таки - не рекомендуют использовать кроме как last resort фичу когда скорость кодирования была важнее чем битрейт-качество, а контент был 1080p, а лучше 4K. На более мелком рушит битрейт-качество сильнее (негде разогнаться особо) и за это считается неважным tradeoff.

> без в одинаковый битрейт (с 3 или сейчас с 2-проходами) и сравнивать,

Мне вообще нравится в сабже как он q-mode делает. В 1-проходном режиме почти как 2-проходный libaom по битрейт-качество. Собссно в q-mode априорное знание того что дальше не так уж много что дает - ведь constraints на битрейт все равно нет, только на качество, можно накинуть столько битов сколько надо для вот этого уровня качества, а оптимизация сводится к достижению этого уровня качества с минимальным числом битов (подбор наиболее эффективного кодирования).

> тут не будет такого разброса битрейта, пару тайлов даже и
> для однопроходного crf то не особо на битрейт влияют, так что
> это достаточно простой способ.

Таки - влияют. При равном CRF будет меняться - размер файла. И чем эффективнее сжатие тем он меньше, соответственно. Вон то соответственно накинет явно более 1% к размеру файла.

> Для архивного качества, когда нужно выжать максимум с самыми медленными настройками может
> и да, тайлы не лучший выбор, ну и особенно если нет больше 16 потоков, но в остальном,
> как я уже написал, они не так сильно влияют на качество.

Для тяжелого кодека где мы убиваемся за битрейт-качество это таки - важный фактор, иначе зачем мы проц грели вообще?! Утяжеление на идентичном crf файла будет не 1% а уже несколько, может даже десяток. Ибо инверсный маппинг точек на кривой - довольно крут, и "небольшое" изменение транслированое в битрейт становится ощутимым.

> Ютуб к примеру для своих av1 транскодирований разбивает на тайлы аж на
> каждые 400-480 пикселей по стороне, потому что это существенно помогает софтварному
> декодированию, ну и перемотке на нужный кадр,

А это как определялось? Памятуя как меня тут жестко наели с свойствами САБЖА, что по требуемому CPU, что по RAM, думаю что вы поймете мой скепсис и желание верифицировать данные.

> считаются как log2), ну и сравнить декодирование через ffmpeg/mpv бенчмарки, оно
> практически линейно растет, хотя для av1 есть и frame parallel threading,

Я пробовал, но мне не понравилось увеличение файлов для равного качества. И вон то не мои идеи, а выжимка doom9 и гайдов по кодированию сабжем. Для кодека этого класса не особо удачный tradeoff, в том смысле что на относительно домашнем применении можно скорость подразогнать и другими способами, возможно более удачными по соотношениям. А это last resort на случай когда дофига ядер - есть недогруз - и скорость кодирования ваше все. Тайлы размером 480 это не дофига если что.

> но оно менее эффективное, да и даже при его использовании скорость
> декодирования приумножается вместе с тайловым,

Это опять же актуально только для большого кадра и жирного битрейта опять. Т.е. >= 1080p. А на допустим 720p оно и так справится, особенно с свежим dav1d каким (как раз в тему в новости) и проч.

> поэтому тайлы бывают полезны не только для кодирования и вреда от них на деле не так много,
> если использовать с умом

Да, но опять же - актульно для >= 1080p и высокого битрейта имхо. Иначе не особо удачный маневр по соотношениям. На <= 720p совсем не рекомендуется - на мелком тайле негде разогнаться и урон растет. И чем больше тайлов тем хуже. Т.к. 2 тайла на 1080 или 4 на 4K еще куда ни шло. Но в целом достаточно чреватая штука. А так есть еще frame-parallel MT и проч, несколько ядер декодер и так жрать сможет. А подразумевать EPYC для декодирования все же слегка перебор :)

Ответить | Правка | Наверх | Cообщить модератору

103. " "  +/
Сообщение от Аноним (36), 16-Мрт-24, 04:40 
>Они минимальны в процентах метрики. Но если инвертировать вопрос и задаться вопросом "на сколько отличается битрейт при равном качестве картинки" (одинаковый SSIM/VMAF/визуальное качество/wahtever) - разница более заметная. Точно не 1% по битрейту. Тут на опеннете кто-то чертил в прошлой новости, просто 2 линии до пересечения с кривой, маппинг 2 точек с 1 стороны в 2 точки с другой. И с другой стороны вовсе не 1% будет.

Конечно тут сильно зависит от контента и от пресета, если не путаю на P4 тестировали (один из оптимальных пресетов, дальше там все уменьшающаяся эффективность за очень большой рост времени кодирования) и он в среднем был около 1% или даже чуть меньше для двух тайлов, это среднее для десятка разных видео сэмплов по BD-Rate, т.е. на каких то может быть чуть больше, на каких то использование тайлов может давать даже лучшие оценки метрик, но если использовать еще больше тайлов, то там да, в основном результаты ухудшаются.
Суть в том что это может немного влиять на качество, но очень незначительно и если нет задачи выжать самый возможный максимум от кодировщика и когда время кодирования не имеет значения, то вполне себе можно их использовать, ну или если это просто для личного использования и скорости декодирования и так хватает.
А так разница между пресетами или даже многими другими опциями будет намного больше, с тайлами нет раздутия битрейта для такого же качества на 30%, да или даже 10%, если их не накидывать до предела.

>Для тяжелого кодека где мы убиваемся за битрейт-качество это таки - важный фактор, иначе зачем мы проц грели вообще?! Утяжеление на идентичном crf файла будет не 1% а уже несколько, может даже десяток. Ибо инверсный маппинг точек на кривой - довольно крут, и "небольшое" изменение транслированое в битрейт становится ощутимым.

Ну с SVT-AV1 тяжесть очень расплывчата, у него выбор пресетов от -3 (в форке, т.е. -3, -2, -1, 0, 1 и т.п.) до 13 и на быстрых пресетах он подходит для стриминга и даже при достаточном количестве потоков обгоняет более старые кодеки по скорости (может за исключением уж самых быстрых пресетов), при обычно лучшем качестве.
Не всегда и не всем нужно максимально возможное качество от av1, бывает что важнее лучшее соотношение скорости и качества, можно глянуть старые слайды от интела где они показывают как svt-av1 всех уделывает по скорости/качеству (кроме может vvc на медленных режимах)
https://user-images.githubusercontent.com/12956286/183626151...
Да и тем более для архивного и визуально lossless кодирования av1 все еще недозрел, он все еще очень уж много мелких деталей отбрасывает и не важно какой из открытых кодировщиков использовать, хотя ситуация немного улучшается и даже комьюнити помогает патчами уменьшить это смазывание и эффект пластиковости, но до x26x еще далеко, а вот для низких битрейтов с приемлемой картинкой av1 хорош.

>А это как определялось? Памятуя как меня тут жестко наели с свойствами САБЖА, что по требуемому CPU, что по RAM, думаю что вы поймете мой скепсис и желание верифицировать данные.

Определялось что, количество тайлов у Ютуба или скорость декодирования?
С Ютуба можно просто скачать случайное av1 видео и посмотреть в аналайзерах, кстати там обычно даже для 360p и 480p используется два тайла, для 720p четыре (2x2), для 1080p - 8 (4x2), для 4к - 32 (8x4) и т.п., но иногда по какому то принципу используется только вертикальное деление, для HDR в основном замечал, ну и еще Ютуб не использует CDEF (один из тяжелых фильтров, который хорошо подчищает и блочность и артефакты на краях, но кодирование и особенно декодирование ощутимо замедляет)
А по скорости декодирования, проще ffmpeg использовать с опциями `-benchmark -stream_loop -1` с выводом в NUL/null, там покажет fps или еще общее время декодирования, если без `-stream_loop -1`

>Я пробовал, но мне не понравилось увеличение файлов для равного качества. И вон то не мои идеи, а выжимка doom9 и гайдов по кодированию сабжем.

При кодировании и просто добавлением тайлов размеры обычно очень близкие, как минимум для свежих aomenc и svt-av1 это должно быть так, ну про метрики я уже писал. А про doom9, это не лучшее место с информацией по av1, большинство гайдов переносится из других комьюнити и различных каналов дискорда и много чего там неактуально или не совсем верно, да и подано достаточно скудно, насколько помню там только Блюсворд более подробно по параметрам отписывался, часть там нормальной информации, часть додумок или неверной или уже на данный момент устаревшей.

>А так есть еще frame-parallel MT и проч, несколько ядер декодер и так жрать сможет. А подразумевать EPYC для декодирования все же слегка перебор :)

В основном это очень влияет на декодирование в браузерах, особенно для стримов, например Twitch недавно начал тестировать av1 и вот там у очень многих людей даже на 1080p60 av1 без тайлов были постоянные дропы при софтверном кодировании в Chrome и на остальных браузерах на основе Chromium, особенно почему то страдают Райзены первых поколений (Zen/Zen2), даже восьмиядерные, не говоря про 1440p+, ну и мы потом делали свои тесты и тайлы тут сильно помогают (с дополнительным fast-decode совсем проблем нет, но он тоже не бесплатен для качества, да и для hw кодировщиков подобное не включить одним кликом), на Firefox дело почему то получше, видимо там максимальный приоритет и больше ресурсов отдается декодированию.

Ответить | Правка | Наверх | Cообщить модератору

130. " "  +/
Сообщение от Аноним (-), 17-Мрт-24, 03:38 
> эффективность за очень большой рост времени кодирования) и он в среднем
> был около 1% или даже чуть меньше для двух тайлов,

Оно от много чего зависит. А мой пойнт в том что этот же вопрос при его трансляции в термины битрейта/размера файлов выглядит интереснее и в терминах битрейта теряется таки - больше.

Вполне валидно юзать этот тул. Но имхо >=1080p, и с минимумом тайлов диктуемым практическими соображениями. Во всяком случае "для себя" если с прицелом все же в хорошее качество при минимальном размере.

> давать даже лучшие оценки метрик, но если использовать еще больше тайлов,
> то там да, в основном результаты ухудшаются.

Он почти всегда от тайлов ухучшается, и в терминах битрейта - неприятно. Поэтому их и не рекомендуют без острой необходимости (т.е. >=1080p какой, ну может 720 если очень охота). И даже если в метриках это "всего" 1% то в битрейте заметно хуже, в сильных кодеках и не за такое то рубилово идет, и легко дарить эн процентов битрейта при энном качестве... ну такое себе, хотя на hi-res это актуально еще и для скорости декодирования.

> Суть в том что это может немного влиять на качество, но очень незначительно

Я не согласен с "очень незначительно" - в терминах битрейта при равном качестве ощутимо может быть. За что и не рекомендуют при кодировании "для себя".

> и если нет задачи выжать самый возможный максимум от кодировщика
> и когда время кодирования не имеет значения, то вполне себе можно их использовать,

Сабж 8-16 ядер и так спокойно жрет - так что актуально в основном владельцам EPYC'ов и подобного. Мне именно VoD-овские кейсы не интересны, я как максимум могу эн своих мувиков для других выложить но это не VoD и т.п. все же.

> ну или если это просто для личного использования и скорости декодирования и так хватает.

Я больше про кодирование "для себя" как раз. SVT в этом плане довольно дружелюбная штука ибо позволяет закодировать плотно - и довольно быстро в общем то. Из реальных конкурентов libaom но он в целом медленнее.

> А так разница между пресетами или даже многими другими опциями будет намного больше,

Тоже не мировая константа. Скажем 2 и 3 не так уж сильно отличаются, как и 3 и 4. Когда качество при минимальном размере мое все это 2, а если тороплюсь то 4. Ну а 3 некий компромисс.

> с тайлами нет раздутия битрейта для такого же качества на 30%, да или даже 10%,
> если их не накидывать до предела.

Ну 30% и даже 10% это все же уже слегка экстрим, только совсем уж дурацкое что-то сделать, но несколько процентов потерять может вполне, и это сравнимо в вон тем переключением пресетов иди даже превосходит это. Хотя на высоком разрешении и эффект меньше и смысла больше.

> он подходит для стриминга и даже при достаточном количестве потоков обгоняет более
> старые кодеки по скорости (может за исключением уж самых быстрых пресетов),

Ну вот он этим и забавен. Хотя если стримить в реалтайме - то и чудес по битрейт-качество не будет. Я для себя решил что мне для многих кейсов скорость 2..4 с хорошими настройками уже вполне нормуль, сжатие получается плотное, время кодирования для всяких клипов с камер и проч вполне обозримое, а что-то реально длинное - я могу и "на ночь" пнуть, это ж не я пашу а комп.

> от интела где они показывают как svt-av1 всех уделывает по скорости/качеству

С тех пор он в общем то стал еще лучше. И таки редкий случай когда это не гнилой пиар - а вполне честные данные. Реально шустрая для своей плотности сжатия штука. И это был повод заагриться на некорректную новость рассказывающую небылицы про AVX2, 48 гиг оперативы и проч.

> Да и тем более для архивного и визуально lossless кодирования av1 все
> еще недозрел, он все еще очень уж много мелких деталей отбрасывает

У меня несколько нежатых "raw" последовательностей есть - я иногда балуюсь тестами открытых кодеков для себя. И могу сказать что с вон тем зацитированым куском командлайна напрягаюсь уже отличить сжатое от оригинала. И не, никакие мелкие детали он не грохает. Даже чат с фонтом с субпиксельным сглаживанием - норм вроде, от оригинала так сразу не отличишь.

> пластиковости, но до x26x еще далеко, а вот для низких битрейтов
> с приемлемой картинкой av1 хорош.

Я бы сказал что картинка оооочень близка к идеалу. Более того - на примерно 500 кбит в среднем для вон того BBB оно смогло почти идеально титры в конце оформить. Они там сложные для кодирования, и требуют либо зверский битрейт либо артефактов много. Но нет, вот этот - отлично их сделал. А x265 при попытке втиснуть клип в 500 кбит среднего (даже как CRF и проч) там закатит полную жесть. Ему битрейт надо здорово задирать для того же качества картинки, особенно на титрах в конце - они очень неудобные для кодирования, думаю что AV1 там глобальной компенсацией движения отигрывает, или типа того. У H.265 этого на уровне потока - нет.

> Определялось что, количество тайлов у Ютуба или скорость декодирования?

Тайлы.

> С Ютуба можно просто скачать случайное av1 видео и посмотреть в аналайзерах,

Все же было бы неплохо конкретику.

> кстати там обычно даже для 360p и 480p используется два тайла,

Интересно нафига? Чтоб смартфоны всякие в софте на относительно хилом но многоядерном проце жевали?

> но иногда по какому то принципу используется только вертикальное деление,

С гугли станется и ML воткнуть на выбор параметров для кодирования энного мувика.

> подчищает и блочность и артефакты на краях, но кодирование и особенно
> декодирование ощутимо замедляет)

Он да, тяжелая штука. Но визуально картинку здорово окультуривает, особенно на низком битрейте.

> -1` с выводом в NUL/null, там покажет fps или еще общее
> время декодирования, если без `-stream_loop -1`

Я просто пинаю кодирование реалистичного потока - с лимитом числа фреймов. Дает понимание ballpark и соотношений.

> При кодировании и просто добавлением тайлов размеры обычно очень близкие, как минимум
> для свежих aomenc и svt-av1 это должно быть так, ну про метрики я уже писал.

Ну я попробовал - размер таки при равном crf рос. Хотя на >=1080 оно имеет смысл, и по соображениям скорости декодирования тоже. Как я понимаю урон тем хуже чем меньше размер тайла. С большими тайлами - урон небольшой. Так что настаивать что фичу совсем ни-ни, даже на 1080 и выше - ну не. Можно, а порой и нужно.

> А про doom9, это не лучшее место с информацией по av1,

Да. Но даже там есть некоторое количество дельных мыслей.

> большинство гайдов переносится из других комьюнити и различных каналов дискорда

Я не пользуюсь дискордом и мне похрен на него. Но на кодирование сабжем в CRF дельный материалец попадался, я на нем и забазировался.

> многих людей даже на 1080p60 av1 без тайлов были постоянные дропы
> при софтверном кодировании в Chrome

Вот это - запросто, при стриме битрейт относительно высокий (реалтайм кодирование же, соотношение битрейт-качетсво плохое!), а 60FPS еще больше подгружают это дело. Оно и зашьется. Для вот чего-то такого и жирнее - тайлы получают свой пойнт.

> не говоря про 1440p+, ну и мы потом делали свои тесты
> и тайлы тут сильно помогают (с дополнительным fast-decode совсем проблем нет,
> но он тоже не бесплатен для качества,

Ну вот да, для hi-res контента тайлы - штука вполне полезная. И там это оправдано и даже нужно. Видимо идею стоит сформулировать так: если тайл мелкий, это ведет к неудачным соотношениям. С крупными и без фанатизма - соотношения заметно лучше.

> да и для hw кодировщиков подобное не включить одним кликом), на Firefox дело почему то
> получше, видимо там максимальный приоритет и больше ресурсов отдается декодированию.

Может там декодер другой юзается? Ну скажем ffmpeg'овский dav1d? А в хроме гугл какую-то свою либу двигал. Может поленились оптимизить на асме столько же как вон те?

Ответить | Правка | Наверх | Cообщить модератору

131. " "  +/
Сообщение от Аноним (36), 17-Мрт-24, 06:08 
>Я не согласен с "очень незначительно" - в терминах битрейта при равном качестве ощутимо может быть. За что и не рекомендуют при кодировании "для себя".

Для себя можно и не использовать (если более быстрый seeking не нужен, потому что тайлы и его ускоряют), но это именно очень незначительно, что опять же не очень сложно и проверить любому кто минимально знаком как считать метрики и кодировать, для примера взял один из сэмплов, 1080p пресет 4:
Размер ---    VMAF --  MS-SSIM - Тайлы (columns|rows log2)
33984647  89.963493  0.996456   1 0 (всего 2)
33983309  89.960426  0.996454   0 0 (нет тайлов)
33972823  89.919441  0.996441   1 2 (2x4, всего 8)
Как можно заметить размеры файлов практически одинаковые (и соответственно битрейт), разброс минимальный, оценки метрик тоже очень близкие и опять 2 тайла дало чуть лучший результат, но это скорее погрешность, потому что и размер чуть больше, по покадровым графикам метрики можно сказать сливаются, никаких просадок на каких то определенных кадрах не замечено, визуально невозможно определить где использовались тайлы, а где нет, даже если попиксельно рассматривать каждый кадр (какая то разница есть, но сказать где хуже или лучше невозможно), притом это и для 8 тайлов не заметить, где чуть большая просадка, не то что для 2.
Для более медленных пресетов может и будет чуть больше разница и когда нужно выжать максимум и тайлы не важны совсем, то их можно не использовать, но их влияние на качество минимальное, большинство других параметров кодирования и то дадут большую разницу, тайлы для определенных форматов могут быть вредными или очень заметными, например для HEVC с хардварным кодированием на смартфонах можно даже временами эти линии и разрывы с тайлами увидеть, но у AV1 их реализация намного лучше и я подобного не замечал.

>С тех пор он в общем то стал еще лучше. И таки редкий случай когда это не гнилой пиар - а вполне честные данные. Реально шустрая для своей плотности сжатия штука.

Все же есть некоторая маркетинговость графиков, там во первых среднее из всех метрик, что очень не рекомендуется делать для нормальных результатов, используется 96 ядерный процессор, ну а большинство других кодеров столько не могут загрузить, x264 к примеру после 12 потоков практически не параллелится, ну и понятно откуда тут взялась такая разница в скорости.
Да и по соотношению качества пресетов несоответствия, особенно быстрых, svt-av1 с первых версий имел баг с блочностью на сложных кадрах или когда какие то резкие движения и он особенно часто проявляется на p7 и быстрее, просто на случайных кадрах есть выпавшие очень заметные блоки, притом даже x264 на этих же кадрах такого не позволяет, хотя может общее среднее качество и будет чуть похуже.
Ну и вот на этот баг уже десятки репортов висит и так ничего не исправляется, а уже годы прошли и притом это может случайно вылезти даже на самых медленных пресетах и там подобное не сразу и не заметить, если прямо по кадрам не сравнивать, но штука неприятная если это видео например для распространения будет или как архивное.

>Я не пользуюсь дискордом и мне похрен на него. Но на кодирование сабжем в CRF дельный материалец попадался, я на нем и забазировался.

Дискорд неудобен что он закрыт от поиска извне и если в определенных конфах не сидеть, то информация оттуда никуда и не выходит, ну а там сейчас большинство обсуждений, доработок и ресерчей происходит и многие разработчики кодеков также сидят.
Doom9 же почти вымирающий, а по av1 туда минимум какой то информации попадает, вот Блюсворд тут временами просыпается из годовой спячки и бывает что-то публикует, но все это часто через короткий промежуток становится уже не совсем актуальным, да и из того что публикуется не все там правильно или было проверено.

>У меня несколько нежатых "raw" последовательностей есть - я иногда балуюсь тестами открытых кодеков для себя. И могу сказать что с вон тем зацитированым куском командлайна напрягаюсь уже отличить сжатое от оригинала. И не, никакие мелкие детали он не грохает. Даже чат с фонтом с субпиксельным сглаживанием - норм вроде, от оригинала так сразу не отличишь.

Тут зависит от битрейта, для средне-низких или для чистого/плоского контента, как я уже написал, то av1 неплох, но вот если есть очень качественный исходник с кучей мелких деталей и нужно добиться архивного качества, то пока что любой av1 кодировщик тут не готов, даже на самых медленных пресетах, я и на -3 кодировал и с 0 для aom, при обычном просмотре это может и не заметить, но при покадровом это очень явно, ну а чтобы какой то film grain сохранить оригинальный или шум, речи совсем не идет, тут разве что синтезированный может помочь, но у него куча своих недостатков и что паттерны бывают достаточно заметны и что его трудно подобрать под исходник, да и вместе с зерном там и прочие детали отфильтровываются, а вот x26x подобное вполне могут, если знать что крутить и если это не низкобитрейтное кодирование.

>Интересно нафига? Чтоб смартфоны всякие в софте на относительно хилом но многоядерном проце жевали?

У Ютуба очень облегченный для декодирования профиль av1, все что тяжелое практически не используется, ну и да, чтобы максимально широко было доступно декодирование на любой микроволновке, а кодируется там хардварно, асиками, так что скорее и дальше надолго подобные настройки останутся, до каких то следующих поколений и обновлений этих кодировщиков.
А по скачиванию, ну любым даунлоадером или yt-dlp, тут все обычно.

>Может там декодер другой юзается? Ну скажем ffmpeg'овский dav1d? А в хроме гугл какую-то свою либу двигал

В Chrome и остальных браузерах практически сразу dav1d и был, это в андройде свой использовался gav1, но сейчас в новых версиях тоже на dav1d меняют, скорее всего какой то режим экономии энергии или что-то подобное, а для десктопов чтобы декодер не весь процессор отжирал его как то ограничивают

Ответить | Правка | Наверх | Cообщить модератору

134. " "  +/
Сообщение от Аноним (-), 17-Мрт-24, 22:04 
> Для себя можно и не использовать (если более быстрый seeking не нужен,
> потому что тайлы и его ускоряют), но это именно очень незначительно,

Я для контролируемого времени seeking нечто типа -g 300 подгоняю или около того (в терминах ffmpeg. Время seek контролируемое получается. Тоже конечно немного битрейта теряет.

> 33984647  89.963493  0.996456   1 0 (всего 2)
> 33983309  89.960426  0.996454   0 0 (нет тайлов)
> 33972823  89.919441  0.996441   1 2 (2x4, всего 8)

Прикольный подход к делу. И как я вижу 2 тайла вообще ничего не портят, 8 просело но реально мизер. Еще вроде кто-то упоминал потенциал для артефактов на границе стыковки тайлов.

> использовались тайлы, а где нет, даже если попиксельно рассматривать каждый кадр
> (какая то разница есть, но сказать где хуже или лучше невозможно),

Где-то народ писал что стыковка тайлов в каких-то случаях может быть не идеальная и это как бы known issue. И да, на >=1080p тайлы в умеренном количестве ничем не плохи. На более мелком - ну вот хз, если то что вы пишете верно то гугл или жестит в пользу "времени появления видео в AV1" сделав это приоритетным, или все же смог в какой-то момент подрихтовать алго уменьшив потери до приемлимых. Что libaom что сабж - moving target, живые и эволюционирующие проекты, знания могут и устареть - так что спасибо за измерения.

> притом это и для 8 тайлов не заметить, где чуть большая просадка, не то что для 2.

Ну я в конечном итоге предпочитаю доверять больше всего - глазам. Придирчиво рассмотрев что накодилось. В этом смысле CRF=30..32 в сабже почти гарантированно идеальный, даже на стопкадре артефактов не видно. Для большинства видео можно CRF до 36-40 затянуть без особых последствий. Если что у сабжа идеи на тему CRF отличаются от x26x и некоторых других, это про именно сабж.

> не использовать, но их влияние на качество минимальное, большинство других параметров
> кодирования и то дадут большую разницу,

Раньше довольно заметную разницу давали на <=720p, откуда и та идея. На >=1080p они скорее полезны из-за распараллеливания процесса - при мизерном уроне.

> на смартфонах можно даже временами эти линии и разрывы с тайлами
> увидеть, но у AV1 их реализация намного лучше и я подобного не замечал.

Ну вот народ утверждает что в принципе стыковка тайлов _может_ быть не идеальной и заметной и с AV1. Хотя лично я этот эффект в заметном объеме на сабже не видел, даже зная что искать. Тут такое дело что не весь контент одинаковый, и на каком-то те или иные артефакты (не)заметнее. Скажем "ringing" и нестыковка границ с которой CDEF борется не палится на фильмообразном контенте, но на "скринкасте" - это все все гораздо критичнее.

> Все же есть некоторая маркетинговость графиков, там во первых среднее из всех
> метрик, что очень не рекомендуется делать для нормальных результатов, используется 96
> ядерный процессор, ну а большинство других кодеров столько не могут загрузить,

Тем не менее, САБЖ оказался довольно резвый и в более скромных конфигах, при том делая весьма приятную картинку. Про AVX2 и 48 гигов было нагнано с три короба! Мне сабж весьма понравился по сочетанию свойств.

> x264 к примеру после 12 потоков практически не параллелится,

Да оно ему с его сложностью процессинга не очень то и надо, имхо. Тем более с риском потери битрейт-качество, которое у него и так ни о чем по современным меркам. Он же даже VP9 не побьет, на вашей же кривой видно что VP9 и x265 примерно равны по силе в challenging условиях.

> Да и по соотношению качества пресетов несоответствия, особенно быстрых, svt-av1 с первых
> версий имел баг с блочностью на сложных кадрах или когда какие
> то резкие движения и он особенно часто проявляется на p7 и быстрее,

Ну я с настолько быстрыми не экспериментировал, мне фоновый транскод для себя более интересен, а это 2..4 в общем случае.

> штука неприятная если это видео например для распространения будет или как архивное.

Кто ж архивное то видео на 7 пресете жмет? Там самый край - 4й. Более высокие используют довольно жесткие tradeoff вносящие приличный урон в битрейт-качество.

> а там сейчас большинство обсуждений, доработок и ресерчей происходит и многие
> разработчики кодеков также сидят.

Они и много где еще сидят, особенно нормальные, опенсорсные, а не нубы-хайпонашки с аниме и чем там еще (мне такой кейс не интересен).

> Doom9 же почти вымирающий, а по av1 туда минимум какой то информации попадает,

Просто он больше о транскоде DVD и народец там довольно проприетарный. Но ряд дельных идей по сабжу там все же есть, в относительно концентрированом виде и сравнительно валидное. А разработчики с дискордом могут идти куда подальше имхо. Псевдоопенсорс с закрытым знанием и лизом проприетарных ботинок - нахрен не упал.

> не совсем актуальным, да и из того что публикуется не все
> там правильно или было проверено.

Ну как бы сабж довольно таки moving target - но ряд идей все же достаточно базовые и остаются.

> Тут зависит от битрейта, для средне-низких или для чистого/плоского контента, как я
> уже написал, то av1 неплох, но вот если есть очень качественный исходник с кучей
> мелких деталей и нужно добиться архивного качества,

У меня есть и несколько скринкастов, с мелким текстом и проч. Который кроме всего прочего жутко чувствителен к subsampling например. Там мелкие детали так критичны что одно время libvpx делал libaom с ffmpeg! Ибо тот еще не умел в ffmpeg RGB/HBD/444 и проч а как yuv420 мклкие детали типа текста портятся by design и это видно. В актуальных версиях починено.

Не могу сказать ничего плохого о сабже с разумными пресетами (2..4) на таком контенте, с CRF в районе 30-36 или типа того. Опять же отличить от оригинала довольно сложно.

> покадровом это очень явно,

Не замечал такой эффект на моем контенте. Но как бы контента много и разного и на глобальных выводах настаивать не буду.

> ну а чтобы какой то film grain сохранить оригинальный или шум, речи совсем не идет,

Я честно говоря не понимаю зачем все это извращение надо - я совершенно не ностальгирую по техническим дефектам. Но таки CRF в районе <=30 и это вроде более-менее делает, просто битрейта будет больше. У AV1 есть синтез film grain но я с этим не развлекался. Мне технические дефекты на видео не вперлись.

> вот x26x подобное вполне могут, если знать что крутить и если
> это не низкобитрейтное кодирование.

Хызы, я немного крутил x265 и он мне совсем не понравился. Не понимаю что такого крутого в этой штуке варезники находят. И зачем мне все это знание на патентованый формат который даже в вебе потом хрен выложишь. Вот x264 по своим временам крутая штука был. Но реально в более-менее challenging ситуациях он не побьет даже VP9 непатентованый.

> У Ютуба очень облегченный для декодирования профиль av1, все что тяжелое практически
> не используется, ну и да, чтобы максимально широко было доступно декодирование

За это их видимо и лю. Пока у всех икает и лагает, у них как раз очень разумный набор компромиссов под real world с всеми его заскоками.

> на любой микроволновке, а кодируется там хардварно, асиками, так что скорее
> и дальше надолго подобные настройки останутся,

А откуда эти сведения про асики? Судя по тому сколько времени занимает транскод - они это в софте делали и бэклог немеряный. А асику душно будет столько памяти выделять на всякие реф-фреймы и проч, под реалтайм кодеры очень урезаные. У гугли в libaom есть rtc варинат и как я понимаю они его сразу в ASIC и отливают high-level synthesys'ом прямо из того сорца. Но это реалтаймный пресет, он многим жертвует ради скорости.

> А по скачиванию, ну любым даунлоадером или yt-dlp, тут все обычно.

Мне скорее интересно было кто разблюдовку на тайлы кажет и при том не очень монструозный по зависимостям и сложности сборки.

> В Chrome и остальных браузерах практически сразу dav1d и был, это в
> андройде свой использовался gav1, но сейчас в новых версиях тоже на dav1d меняют,

Во всяком случае у гугли есть своя либа декодирования av1, и вроде ее не списали в утиль? Или таки - списывают в пользу dav1d?

> подобное, а для десктопов чтобы декодер не весь процессор отжирал его
> как то ограничивают

Ну как бы чудес не бывает и что с атомом малохольным в нетбуке не делай а 4K в AV1 он все же не сжует. Особенно 32 бит которые.

Ответить | Правка | Наверх | Cообщить модератору

135. " "  +/
Сообщение от Аноним (36), 17-Мрт-24, 23:59 
>Где-то народ писал что стыковка тайлов в каких-то случаях может быть не идеальная и это как бы known issue

Теоретически возможно, но я не замечал, хотя кодировал и экспериментировал с av1 очень много (еще до финализации стандарта) и на всех доступных реализациях.
На хардварных кодировщиках или в других форматах такое уже встречалось, например на видеокартах с av1/hevc кодировщиками, когда очень тяжелая игра с rtx и gpu загружен по полной, то может быть смещения в местах тайлов, видимо синхронизация сбивается и какой то тайл позже обрабатывается и подобное происходит.

>Кто ж архивное то видео на 7 пресете жмет? Там самый край - 4й. Более высокие используют довольно жесткие tradeoff вносящие приличный урон в битрейт-качество.

А это и на медленных пресетах может проявляться, про что я и написал, просто намного реже, но от этого это еще труднее отследить, метрики подобное практически не замечают, а глазами каждый кадр просматривать времени не хватит, на это есть репорты на гитлабе, но они так и висят годами.

>У AV1 есть синтез film grain но я с этим не развлекался. Мне технические дефекты на видео не вперлись.

Ну это уже давно не технические дефекты, это скажем так видение создателя, когда и камера подбирается и стиль fg в них настраиваемый или даже специально на посте потом добавляется, хороший кодек не должен сам что-то фильтровать, он должен максимально сохранять оригинал, если нужна фильтрация, то для этого есть другие инструменты.
Да и убрать fg идеально невозможно, всегда удаляются также и некоторые другие данные, есть алгоритмы и фильтры которые это лучше делают, но они очень медленные, есть которые хуже, но быстрее (вот в кодировщиках фильтрация обычно работает если включен fgs, но и то, со временем поняли что это не очень хорошо и в недавних апдейтах это в svt-av1 отключили)

>У меня есть и несколько скринкастов, с мелким текстом и проч. Который кроме всего прочего жутко чувствителен к subsampling например. Там мелкие детали так критичны что одно время libvpx делал libaom с ffmpeg! Ибо тот еще не умел в ffmpeg RGB/HBD/444 и проч а как yuv420 мклкие детали типа текста портятся by design и это видно. В актуальных версиях починено.

Кстати, в svt-av1 все еще максимальны 10-бит и 420, поэтому если нужно что-то выше, то его не используют, хотя в планах добавление 422/444 у них висело еще с первых версий, но как то со временем про это совсем забыли.

>Просто он больше о транскоде DVD и народец там довольно проприетарный. Но ряд дельных идей по сабжу там все же есть, в относительно концентрированом виде и сравнительно валидное.

Да, но в основном для других форматов и по большей части старых, ну и про vvc и прочие mpeg стандарты некоторые новости индустрии, хотя и многие старички из разработчиков оттуда тоже поуходили, по av1 там очень мало, вот опять же выдернутые куски с дискорда/реддита и прочих ресурсов,  может попинают людей и они напишут скоро про psy форк подробнее и в целом какие изменения у av1 кодировщиков за это время произошли.
Например вот недавнее сравнение с этим форком в одном из issues:
https://gitlab.com/AOMediaCodec/SVT-AV1/-/issues/1920#note_1...
Со скриншотом насколько большая может быть разница, притом видео закодированное svt-av1-psy даже немного меньше размером
https://gitlab.com/AOMediaCodec/SVT-AV1/uploads/c0fae4cdd466...
Хотя это и не означает что для любого контента будут такие же улучшения, но, как минимум форк дает более гибкие настройки для того чтоб что-то подправить.

>Хызы, я немного крутил x265 и он мне совсем не понравился. Не понимаю что такого крутого в этой штуке варезники находят. И зачем мне все это знание на патентованый формат который даже в вебе потом хрен выложишь. Вот x264 по своим временам крутая штука был. Но реально в более-менее challenging ситуациях он не побьет даже VP9 непатентованый.

А потому что x26x все еще хороши для более высокого битрейта, да и декодирование поддерживается очень широко на любых устройствах, даже для hevc по сути каждый tv или телефон, года так с 2015, с av1 же пока только последние поколения начали добавлять, ну а для vp9 хороших не коммерческих кодировщиков так и не появилось.
А про патентные отчисления, то они сейчас в основном с девайсов собираются и каких то услуг по облачному кодированию или продаж на физических носителях, даже у hevc с определенного момента убрали отчисления за стриминг и прочее нефизическое распространение, так что для обычных пользователей разницы нет, ну кроме того что они и так заплатили стоимость этих патентов как часть цены устройства, допустим своего смартфона, видеокарты или тв.
У av1 все хорошо на низких или средних битрейтах, в принципе для чего он в первую очередь и создавался, для стриминг качества, но вот для высоких, после какого то порога у него наступает предел и дальше сколько битрейта не накидывай и какие фильтры не отключай, он все равно не может сохранить прямо все детали, а с x26x это возможно, если понимать что и где тюнить.

>А откуда эти сведения про асики? Судя по тому сколько времени занимает транскод - они это в софте делали и бэклог немеряный. А асику душно будет столько памяти выделять на всякие реф-фреймы и проч, под реалтайм кодеры очень урезаные.

А невозможно было бы на cpu столько видео обрабатывать, точнее возможно, но экономически это были бы просто огромнейшие затраты, на Ютуб заливаются миллиарды видео каждый день по статистике и это количество растет с каждым годом, притом среди них есть и очень длинные видео и стримы по 30 часов и т.п. и все это нужно кодировать в разные форматы, качества и разрешения, понятно что av1 не для всех кодируется, но процент av1 уже достаточно большой и постоянно увеличивается, даже ролики с парой тысяч просмотров последнее время замечаю что бывает.
Асики намного экономичней и Ютуб их еще со времен VP9 начал использовать, у них собственная разработка Argos и они его поколения обновляют периодически и если взять для примера из каких-то подобных современных решений, то там потребление 1w на одно кодирование и до 256 параллельных кодирований на сервер, с очень большой скоростью, хоть и качество не будет как при софтварном  кодировании на самых медленных пресетах, но все равно достаточно высокое и для Ютуб-подобных кейсов вполне подходит
https://blog.youtube/inside-youtube/new-era-video-infrastruc.../
Еще и учитывая что у Ютуба все видео выше 1080p идет только в vp9, а в 8к разрешении только в av1, для любых пользователей, ну и все нижние разрешение и прочие кодеки тоже нужно дополнительно для этого видео кодировать.

>Мне скорее интересно было кто разблюдовку на тайлы кажет и при том не очень монструозный по зависимостям и сложности сборки.

Можно погуглить что-то типа av1 analyzer, помню точно видел был даже онлайновый вариант, ну а я коммерческие тулзы использую для этого, которых скорее всего нет в свободном доступе, ну или максимум какие то древние ломанные версии, скорее всего без av1

>Во всяком случае у гугли есть своя либа декодирования av1, и вроде ее не списали в утиль? Или таки - списывают в пользу dav1d?

Вот в новых версиях заменяют, потому что dav1d намного быстрее, они хотели из нее сделать более экономичный декодер, который бы использовал gpu шейдеры, это не быстрее, но потребление меньше, но как то у них не особо чего вышло и видимо совсем бросили попытки, потому что приходит время полноценных hw декодеров.

Ответить | Правка | К родителю #134 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру