background top icon
background center wave icon
background filled rhombus icon
background two lines icon
background stroke rhombus icon

Скачать "Deep Learning: 1. Слои глубоких сверточных сетей"

input logo icon
Обложка аудиозаписи
Подождите немного, мы готовим ссылки для удобного просмотра видео без рекламы и его скачивания.
console placeholder icon
Теги видео
|

Теги видео

Matlab
Mathworks
Simulink
матлаб
симулинк
глубокое обучение
архитектуры глубоких сверточных сетей
глубокие сверточные сети
глубокие нейронные сети
нейронные сети
глубокие сети
свертка
конволюция
deep learning
детектирование изображений
классификация образов
слои глубоких сетей
matlab
глубокое_обучение
сверточные_сети
ai
deep_learning
Субтитры
|

Субтитры

subtitles menu arrow
  • enАнглийский
Скачать
00:00:02
переживает бурное развитие появляются
00:00:04
новые интересные архитектуры которые
00:00:06
позволяют решать многие задачи
00:00:08
превосходящие человеческие возможности в
00:00:11
частности распознавание образов
00:00:13
распознавания речи знаменитый пример
00:00:15
игра в г
00:00:16
которым благодаря глубоким сетям
00:00:18
алгоритма удалось обыграть одного из
00:00:20
лучших игроков в мире можно привести еще
00:00:23
множество примеров несомненным остается
00:00:26
факт что глубокие сети
00:00:28
меняют мир и делает нашу
00:00:29
действительность гораздо интереснее если
00:00:31
раньше архитектуры нейронных сетей
00:00:33
рисовали виде кружочков
00:00:35
идущих к ним линий то сейчас как правило
00:00:37
они рисуются виде соединенных друг с
00:00:39
другом блоков который называется в
00:00:41
слоями это связано с тем что сложность
00:00:44
архитектур значительно выросло и
00:00:46
оказалось что блочное представление
00:00:48
гораздо удобнее и нагляднее схемы могут
00:00:51
соединять блоки последовательно одним за
00:00:54
другим или иметь структуру направленного
00:00:56
а циклического графа
00:00:58
матлабе очень удобно собирать или
00:01:01
редактировать уже готовые сети с помощью
00:01:03
инструмента did not work дизайнер здесь
00:01:07
мы видим что все доступные сети
00:01:10
собранных грубым первая группа слоев это
00:01:13
группа им буду первый слой им пута и
00:01:16
michelin под layer это входной слой для
00:01:19
свёрточная сети
00:01:21
второй слой секунд input player это слой
00:01:25
необходимой для рекуррентности
00:01:27
любая архитектура начинается входного
00:01:29
слоя задача этого слоя заключается в
00:01:32
проверке соответствия входного
00:01:34
изображения необходимому размеру
00:01:36
через всего этот размер равен 224 на 224
00:01:40
пиксель фиксация размера необходимо
00:01:42
поскольку дальнейшее свои будут
00:01:43
опираться на заданный размер при
00:01:45
расчетах конечно при работе с
00:01:47
изображениями мы часто будем
00:01:49
сталкиваться ситуации когда изображение
00:01:52
имеет отличный от заданного сетью размер
00:01:54
и к тому же многие изображения будут
00:01:57
разного размера в этом случае надо
00:01:59
просто преобразовать размер к заданному
00:02:01
вспомогательные функции примеру мы клоню
00:02:04
эта функция решаясь за таким размер
00:02:08
входного изображения 224 на 224
00:02:11
на
00:02:12
три как мы можем видеть это можно
00:02:13
сделать в свойствах инструментов третий
00:02:16
параметр 3 означает что мы будем
00:02:18
работать с трехмерным изображением
00:02:22
следующая группа слоев обучаем гордуму
00:02:25
то есть те слои параметры которых
00:02:27
настраивается в результате обучения
00:02:29
это наиболее важная группа среди этой
00:02:31
группы пожалуй самое важным является
00:02:33
слой свертки ведь не зря же
00:02:35
сети называются свертывать добавим слой
00:02:37
в нашу сеть мы можем видеть множество
00:02:39
параметров этого слоя и сейчас мы эти
00:02:42
параметры разберем итак давайте
00:02:45
предположим что мы имеем изображения
00:02:47
размера 4 на 4 и хотим применить к этому
00:02:51
изображению операции свёртка в данном
00:02:53
случаем мы применяем фильтр к
00:02:55
изображению размера 2 на 2
00:02:57
но на самом деле нам никто бы не помешал
00:03:00
применить фильтр размера 3 на 3 или 2 на
00:03:04
1 или 1 на 2
00:03:06
таким образом мы имеем один из
00:03:09
параметров это размер нашего свёрточная
00:03:11
с фильтром свойствах этот это свойство
00:03:15
обозначена как фильтр says размер фейгт
00:03:18
можем задать его например размером 5 на
00:03:20
5 и как же непосредственно делается сама
00:03:23
свёртка так у нас есть фильтр у нас есть
00:03:26
входное изображение дальше делает
00:03:28
следующий шаг мы берем подводим наш
00:03:31
фильтр первому элементу самого изображения
00:03:34
пусть это будет левый верхний угол и
00:03:36
затем делается по элементной умножение и
00:03:39
сложение всех
00:03:40
элемент в результате записываются выход
00:03:43
у нас получилось 8 далее делается shop
00:03:45
на какое-то количество элементов данном
00:03:49
случае на один элемент это также
00:03:51
выдается в свойствах слова и таким
00:03:53
образом процедуру повторяют до тех пор
00:03:54
пока не пройдутся по всему изображению
00:03:57
таким важным параметром сверхточного
00:03:59
слой является количество фильтров слой
00:04:01
на слайде изображена 5 фильтров обход
00:04:05
слоя мы подаем одну матрицу на выходе
00:04:07
слоя будем иметь пять матриц как
00:04:09
результат соответствующих сверток таким
00:04:11
образом образуется 5 каналов по которым
00:04:14
течет сигнал через сеть каждый канал
00:04:16
будет отключать за какую-то свою
00:04:18
уникальную характеристику конечном счете
00:04:20
задача сети состоит том чтобы настроить
00:04:23
параметры фильтров таким образ
00:04:24
чтобы максимально хорошо вытащить
00:04:26
уникальные характеристики
00:04:28
из изображения чтобы продемонстрировать
00:04:30
работу съемки давайте предположим что
00:04:33
модифицируем кошечку у нас сети есть
00:04:35
фильтр который научился или еще говорят
00:04:37
активируются на голове
00:04:39
кошки и вот мы обижаем фильтром по
00:04:41
изображению и момент когда он встретится
00:04:44
головой он будет максимально
00:04:47
активировать то есть на выходе мы
00:04:48
получим относительно большое число
00:04:50
конечном итоге это повысит вероятность
00:04:52
того что на изображении не что иное как
00:04:55
кошта есть для фильтра не имеет значения
00:04:57
в каком месте на изображение находится
00:04:59
голова главное что в выходном сигнале
00:05:01
появится большое число которое говорит о
00:05:04
присутствии то или иные характеристики изображение
00:05:07
данном случае головы
00:05:09
вернемся к инструменту did not work
00:05:11
дизайнер мы разобрали параметр
00:05:13
размер фильтра по умолчанию этот размер
00:05:16
the track из 96 фильтров это понимает
00:05:18
что чем больше мы хотим извлечь
00:05:20
признаков тем больше фильтром мы должны
00:05:22
задействовать в сети
00:05:23
другой стороны это может привести его
00:05:25
первых переобучению во вторых более
00:05:27
долгому обучению так как мы увеличим
00:05:30
количество параметр я наконец некоторые
00:05:32
фильтры будут извлекать
00:05:33
очень избыточные характеристики другой
00:05:35
стороны малое количество может быть
00:05:37
недостаточным для уверенной
00:05:39
классификации и проектирование сетей как
00:05:41
и во многих других занятиях необходимо
00:05:42
искать золотую середину
00:05:44
следующий фактор который мы упомянули
00:05:47
это straight и лишь от сети шаг свёртки
00:05:49
два параметра отвечает за размер шага по
00:05:52
каждой оси двухмерной матрицы если мы
00:05:54
делаем трехмерную отвертку или более
00:05:56
необходимо указать шаг по каждому
00:05:58
измерение наиболее часто используя маша
00:06:01
единицы еще два параметра которые мы
00:06:04
можете видеть здесь это делись фактор и
00:06:07
поди лучше посмотрите к справке и мы
00:06:09
сейчас это сделаем перед тем как туда
00:06:11
отправиться несколько слов о последних
00:06:13
четырех параметров в эйд-мер рейд фактор
00:06:16
и ps лена rain фактор это параметры
00:06:20
которая отвечает за
00:06:21
скорость обучения относительно общей
00:06:24
скорости сети если скорость 3 единицы
00:06:27
значит эти веса будут visas йорке будут
00:06:30
обучаться такой же скоростью как и все
00:06:31
те целым и еще два параметра этого ис-2
00:06:35
фактор и без r2 фактор это параметры
00:06:39
регуляризация
00:06:40
как я уже говорил delay шин фактор и
00:06:42
padding лучше посмотреть в папку справки
00:06:46
deeply in the box выбирая здесь
00:06:49
declining весь с изображениями
00:06:51
внизу есть вкладочка создать нового
00:06:54
глубокую сеть здесь назначение слоев
00:06:58
здесь хорошие рисунки
00:07:00
здесь показано как работает свёртка как
00:07:04
работает свёртка шагом 1 шагом 2 видим
00:07:08
что первом случае у нас изображение 4 на
00:07:11
4 мы делаем сверху 3 на 3 у нас
00:07:13
получается выход 2 на 2 здесь же из и из
00:07:17
изображений опять из матрица 5 на 5 мы
00:07:19
делаем так же сверху 3 на 3 но шагом 2 у
00:07:22
нас получается меньше изображение а вот
00:07:25
что такое direction фактор смысл смысл
00:07:28
его заключается в том что мы можем
00:07:30
извлечь более большие характеристики
00:07:33
изображения при этом используя небольшое
00:07:36
количество параметров то есть мы взяли
00:07:38
вроде бы сверху три на три
00:07:40
но в итоге охватываем им изображение 9
00:07:44
на 9 и таким образом пусть это
00:07:47
изображение будет разряжен а то есть мы
00:07:49
вроде бы не все изображение захватываем
00:07:51
и передаем его дальше но зато мы
00:07:54
схватываем большую характеристику
00:07:56
изображение и вот вот этот прием он
00:07:59
позволяет уменьшить количество
00:08:00
параметров при том что у нас будут
00:08:03
характеристики извлекаться
00:08:05
вот что касается по 1 га в данном случае
00:08:08
мы можем взять изображение еще какой я
00:08:11
его дополнительно написать примеру 0 и
00:08:14
тогда у нас видим что вход у нас матрица
00:08:17
5 на 5 и выход у нас тоже матрица на 5 5
00:08:21
на 5 то есть у нас размер выхода
00:08:23
соответствуют размеру входа
00:08:25
но при этом должны понимать что вот с
00:08:28
края выходной матрицы характеристики
00:08:31
этих краев они немного искажены потому
00:08:34
что мы добавили 0 и на края и таким
00:08:37
образом мы извлекаем не все
00:08:39
характеристику а частично как бы ее
00:08:41
исказив следующая группа слоев своей
00:08:45
активации если раньше использовались различные
00:08:47
функции активации например 7 отели кипра
00:08:49
болельщики тангенс то в глубоких сетях
00:08:52
используются функции ректификации ее
00:08:55
модификации она гораздо эффективнее в
00:08:57
частности ее использование вместо 7 до
00:08:59
увеличивает скорость обучения почти на
00:09:02
порядок
00:09:03
математика ректификации очень просто
00:09:06
поскольку нас интересуют те участки в
00:09:09
которых фильтр активировался максимально
00:09:11
сильно давайте мы будем отбрасывать
00:09:12
отрицательные значения полагая что в
00:09:14
этих участках фильтры не нашел вообще
00:09:16
никакой полезной для себя информации
00:09:18
таким образом мы отбрасываем шум и
00:09:20
пропускаем только полезный сигнал еще
00:09:23
одна группа слоев твои полинга
00:09:26
или подвыборки чаще всего используется
00:09:28
слой макс pulling у этого слова есть
00:09:31
параметры смысл этих параметры очень
00:09:34
простой значение полюса из это размер
00:09:37
или от но с которым будет выполняться
00:09:39
операция полингом straight to шаг это та
00:09:42
же конструкция которая выполняется то
00:09:45
тоже смысл который выполняется при
00:09:47
операции свертки то есть этаж а по
00:09:48
каждому направлению и budding он также
00:09:52
имеет и тот же смысл
00:09:53
как и в операции свертки заполняем ли мы
00:09:56
здесь ногами края или не заполняем итак
00:09:59
предположим что мы получили на выходе
00:10:01
слоя матрицу 4 на 4 и применяем к ней
00:10:05
операцию макс по лимбо причем операция
00:10:08
размер самого полинга размер фильтра 2
00:10:11
на 2 и шаг также будет она с 2 по каждой
00:10:14
оси
00:10:15
8 берем
00:10:16
вы кусок находим максимальное значение и
00:10:18
записываем это значение в результирующем
00:10:21
от дальше делаем шаг по сетке
00:10:23
шагом 2 опять же находим максимальное
00:10:26
значение и записываем нова в
00:10:28
результирующей модель так идем по всем
00:10:31
по всем нашим значениям какой смысл в
00:10:33
этой операции полинга мы видим что
00:10:35
во-первых
00:10:36
изображением матрица которую мы получили
00:10:39
она сжалась она сжалась данном случае 4
00:10:42
раза то есть мы сжимаем изображений и
00:10:44
отбрасываем те значения которые не
00:10:47
сильно есть отбрасываем шум то есть мы
00:10:49
выделяем из матрицы максимально
00:10:51
активированные значением эти значения на
00:10:54
которых фильтр свертки активировался
00:10:56
максимально нами применяет операцию
00:10:59
веришь pulling в этом случае городне
00:11:01
максимальное значение а среднее значение
00:11:03
и из блока
00:11:05
нашем случае среднее значение получится
00:11:08
единичка выход 1 ученику мы записываем
00:11:10
значение 1
00:11:11
есть еще два слоя в блоке буллинга это
00:11:15
слой ампуле на то есть операции которые
00:11:17
обратный пули нгу и применяется в
00:11:19
частности в операции сегментации
00:11:21
изображения еще один важный слой который
00:11:25
является прародителем современных
00:11:27
нейронных сетей полна связность потом
00:11:29
слоя каждый сигнал выходного слоя
00:11:31
соединён со всеми с сигналами или еще
00:11:33
говорят нейронами входного хлоя
00:11:35
сняли описаны весами которая
00:11:37
настраивается в процессе обучения этот
00:11:39
слой находится в группе обучаемых слоев
00:11:42
полна светлый слой добавим его
00:11:45
вот нашу сеть а по умолчанию выход слоя
00:11:48
равняется 10 нейронам оставим по
00:11:51
умолчанию 10 нейронов количество входных
00:11:53
слоев будет считаться автоматически это
00:11:56
факт и это по факту количество тех слоев
00:11:58
которые количество нейронов которые
00:12:00
выйдут из слоя макс полинга если пола
00:12:03
связанные слой находится в конце сети
00:12:05
перед слоями классификации
00:12:07
то количество нейрона выходного слоя
00:12:09
обозначает количество классов нашей сети
00:12:12
наконец есть еще два слоя который в
00:12:14
обязательно порядке присутствуют задачи
00:12:16
классификации
00:12:17
эти слои подводят итог работы сетей
00:12:19
place of parks преобразует полученный
00:12:21
сигнал к вероятности классов по формуле
00:12:24
которая представлена на слайд таким
00:12:26
образом сумма всех значений выходов
00:12:28
нет равняться единице также все значения
00:12:31
выхода будут лежать в интервале от 0 до
00:12:33
единицы the poems of max твой в нашу
00:12:37
сеть у этого слоя нет параметров
00:12:41
это слой преобразуют выходы полна
00:12:44
связного слоя к вероятностям класса и
00:12:46
завершает всего
00:12:48
все классификацию слой классификации
00:12:51
этот слой то и соответствие меткам
00:12:53
классов их вероятности которые получены
00:12:56
и слой асов макс в итоге мы получили
00:12:59
сеть которая может пользоваться
00:13:01
классификатор простых объектов типа
00:13:03
рукописных цифр есть еще два раздела
00:13:06
блок в которые мы не рассмотрели один из
00:13:08
них это блок нормировки а нормировка
00:13:11
позволяет улучшить качество идти и
00:13:13
предотвращает переобучение здесь мы
00:13:16
видим три слоя это батч нормировка
00:13:19
крутанул нормировка и dropout техника
00:13:23
drop out a выключается в том там и на
00:13:25
каждой итерации отбрасываем часть связи
00:13:27
каким образом сеть обучается только на
00:13:30
части связи которая осталась и в итоге
00:13:33
мы получим аналог ансамбля обучений что
00:13:37
повысит предсказательную способность
00:13:39
слой трупов
00:13:40
используют в паре с полна связным слоем
00:13:44
по умолчанию
00:13:46
вероятность 05 означает что мы
00:13:49
отбрасываем 50 процентов связи в каждая
00:13:52
итерация слой батч нормализация
00:13:54
нормируют данные по пакету
00:13:56
пакет это набора входных данных
00:13:58
предназначенных для одной итерации
00:14:00
обучения как мы видим сначала данные
00:14:03
приводятся к стандартизованным значением
00:14:06
эпсилон знаменателем первой формулы это
00:14:09
маленькое число необходимое для того
00:14:11
чтобы избежать деления на ноль после
00:14:13
приведения к но любому среднему
00:14:15
единичной дисперсии данные
00:14:17
масштабируются и сдвигаются профессионал
00:14:20
нормализации это нормировка по каналам
00:14:22
например изображение чаще всего
00:14:25
представлены во ржи в формате то есть
00:14:27
трехмерной матрицы каждый из которых
00:14:29
отображает интенсивность красного
00:14:31
зеленого и синего цветов соответствия
00:14:33
так вот каждая матрица это один из
00:14:36
каналов через который как через который
00:14:38
сигнал будет дальше двигаться по сети
00:14:41
как видно из формулы зависимость не
00:14:43
линейная здесь к альфа и бета
00:14:47
это параметры window channel says это
00:14:51
количество каналов случай ржб мы будем
00:14:54
иметь три канала и
00:14:55
с это сумма квадратов соответствующих
00:14:59
элементов по которым делается нормировка
00:15:03
сделаем еще один шаг для того чтобы наша
00:15:06
сеть заработала пока мы имеем набор
00:15:09
блоков которая никак между собой не
00:15:11
связаны самом деле осталось только эти
00:15:13
блоки соединить и мы получим уже готовую
00:15:16
сеть есть еще два блока от которой мы не
00:15:21
рассматривали это свои комбинации они
00:15:24
должны до того этих случаев когда мы
00:15:27
собираем не последовать наносит а сеть
00:15:29
видео о циклическом графов например
00:15:32
можно сделать конструкция добавить
00:15:34
примеру полноцветной слой и мы хотим и
00:15:37
так полна связный слой пустить сигнал
00:15:39
через этот полноцветный слой параллельно
00:15:41
нашей сети для этого добавляем слой
00:15:45
конкатенации далее нам нужно пример вот
00:15:49
отсюда мы запускаем сигнал на
00:15:51
полноцветный слой земли конкатенацию
00:15:53
затем делаем вот такую конструкцию
00:15:59
теперь мы уже имеем имея висеть в виде
00:16:03
направленного циклического графа давайте
00:16:07
обзор на еще пройдемся по всем слоям
00:16:09
имидж финн под слой которого обязательно
00:16:12
должна начинаться дети классификации или
00:16:15
регрессии еще один слой для входа это sequencer
00:16:18
под он предназначен для с рекуррентных
00:16:21
сетей дальше идут обучаемые слои
00:16:23
инволюция transport канва лю шэн это
00:16:26
операция обратной инволюции пома связный
00:16:29
слой слой который объединяет все
00:16:32
предыдущие нейроны с выходными нейронами
00:16:35
здесь еще есть два слоя
00:16:37
они предназначены для сбора рекуррентных
00:16:40
нейронных сетей
00:16:41
о них мы поговорим в следующих роликах
00:16:43
три слоя активации они между собой очень
00:16:46
похоже ректификации и ее модификации
00:16:49
три слоя нормировки слои поле
00:16:53
а два слоя полинга и два слоя on полинга
00:16:56
слои предназначенная для того чтобы
00:16:59
собирать о сложные сети видео циклически графов и
00:17:02
наконец слои выхода
00:17:04
это слове сов макс слой классификации
00:17:07
они в связке идут и в слое регрессии в
00:17:10
тех случаях когда необходимо применять
00:17:12
регрессионную анализ делать некие
00:17:14
предсказания виде чисел
00:17:16
итак мы рассмотрели слоя сверточек
00:17:19
нейронных сетей и их назначение
00:17:21
следующих роликах смотрите описание и
00:17:23
устройство современных сверхточных
00:17:25
нейронных сетей по вопросам и
00:17:28
предложениям пишите нам на mail инфо
00:17:32
экспонента
00:17:33
точка ру либо тех exponet.ru
00:17:36
либо звоните по указанным телефонам

Описание:

Российская платформа математических вычислений и динамического моделирования Engee: сайт: https://clck.ru/37kCz5 Телеграм канал: https://t.me/engee_com ############### Подробнее о глубоком обучении https://exponenta.ru/ai Наш тренинг "Глубокое обучение в MATLAB" https://exponenta.ru/MLDL Deep Learning Toolbox https://exponenta.ru/neural-network-toolbox В этом видео вы узнаете функционал и особенности устройства слоев современных глубоких сверточных сетей. Понимание принципов работы необходимо как для создание новых архитектур, так и для использования уже обученных нейронных сетей, например, в технике передачи обучения. Все видео на тему глубокого обучения и описание https://exponenta.ru/news/deep-learning-video Подписывайтесь на нас: VK ‣ https://vk.com/mathworks Telegram ‣ https://t.me/exponenta_ru

Готовим варианты загрузки

popular icon
Популярные
hd icon
HD видео
audio icon
Только звук
total icon
Все форматы
* — Если видео проигрывается в новой вкладке, перейдите в неё, а затем кликните по видео правой кнопкой мыши и выберите пункт "Сохранить видео как..."
** — Ссылка предназначенная для онлайн воспроизведения в специализированных плеерах

Вопросы о скачивании видео

mobile menu iconКак можно скачать видео "Deep Learning: 1. Слои глубоких сверточных сетей"?mobile menu icon

  • Сайт http://unidownloader.com/ — лучший способ скачать видео или отдельно аудиодорожку, если хочется обойтись без установки программ и расширений. Расширение UDL Helper — удобная кнопка, которая органично встраивается на сайты YouTube, Instagram и OK.ru для быстрого скачивания контента.

  • Программа UDL Client (для Windows) — самое мощное решение, поддерживающее более 900 сайтов, социальных сетей и видеохостингов, а также любое качество видео, которое доступно в источнике.

  • UDL Lite — представляет собой удобный доступ к сайту с мобильного устройства. С его помощью вы можете легко скачивать видео прямо на смартфон.

mobile menu iconКакой формат видео "Deep Learning: 1. Слои глубоких сверточных сетей" выбрать?mobile menu icon

  • Наилучшее качество имеют форматы FullHD (1080p), 2K (1440p), 4K (2160p) и 8K (4320p). Чем больше разрешение вашего экрана, тем выше должно быть качество видео. Однако следует учесть и другие факторы: скорость скачивания, количество свободного места, а также производительность устройства при воспроизведении.

mobile menu iconПочему компьютер зависает при загрузке видео "Deep Learning: 1. Слои глубоких сверточных сетей"?mobile menu icon

  • Полностью зависать браузер/компьютер не должен! Если это произошло, просьба сообщить об этом, указав ссылку на видео. Иногда видео нельзя скачать напрямую в подходящем формате, поэтому мы добавили возможность конвертации файла в нужный формат. В отдельных случаях этот процесс может активно использовать ресурсы компьютера.

mobile menu iconКак скачать видео "Deep Learning: 1. Слои глубоких сверточных сетей" на телефон?mobile menu icon

  • Вы можете скачать видео на свой смартфон с помощью сайта или pwa-приложения UDL Lite. Также есть возможность отправить ссылку на скачивание через QR-код с помощью расширения UDL Helper.

mobile menu iconКак скачать аудиодорожку (музыку) в MP3 "Deep Learning: 1. Слои глубоких сверточных сетей"?mobile menu icon

  • Самый удобный способ — воспользоваться программой UDL Client, которая поддерживает конвертацию видео в формат MP3. В некоторых случаях MP3 можно скачать и через расширение UDL Helper.

mobile menu iconКак сохранить кадр из видео "Deep Learning: 1. Слои глубоких сверточных сетей"?mobile menu icon

  • Эта функция доступна в расширении UDL Helper. Убедитесь, что в настройках отмечен пункт «Отображать кнопку сохранения скриншота из видео». В правом нижнем углу плеера левее иконки «Настройки» должна появиться иконка камеры, по нажатию на которую текущий кадр из видео будет сохранён на ваш компьютер в формате JPEG.

mobile menu iconСколько это всё стоит?mobile menu icon

  • Нисколько. Наши сервисы абсолютно бесплатны для всех пользователей. Здесь нет PRO подписок, нет ограничений на количество или максимальную длину скачиваемого видео.