Сообщество - Видеомонтаж

Видеомонтаж

1 041 пост 5 644 подписчика

Популярные теги в сообществе:

996

Ответ на пост «Пользователь создал скрипт который позволяет создавать DeepFake в один клик. Качество как по мне отличное и превосходит предыдущие решения»9

В поддержку предложения @MorfixProton про авторский контент.

Deepfake в один клик? В комментах писали, что "в один клик" и "установите тут python, там pip, здесь git, ffmpeg, шкуру бумсланга, рог единорога, затем полейте росой, собранной с 05:59 до 06:01 утра счатливой индийской девушкой" – это всё-таки разные вещи. Поэтому я подвёз docker-образ, который сделает всё за вас (пока что только CPU версию).

Да, тоже придётся покликать. Но чуть меньше XD

Ссылка на docker-hub'е: https://hub.docker.com/repository/docker/axmaaa/roop-basic/g....

Использование.

  1. Linux: установите Docker Desktop с официального сайта. Windows: установите Docker Desktop с официального сайта.

  2. Откройте терминал/командную строку, перейдите в директорию с нужным фото и видео, которое хотите обработать.

  3. Выполните: docker run -it --mount type=bind,src=.,dst=/roop_examples axmaaa/roop-basic:1

  4. Можете пока покушать, первый раз будет большо-о-ое скачивание.

  5. Текущая папка будет примонтирована в /roop_examples в контейнере, и там будут ваши фото и видео. То есть в открывшейся консоли вы можете запускать roop, указывая фото и видео через параметры командной строки, например: python3 run.py --face /roop_examples/photo1.jpg --target /roop_examples/video1.mp4 --output /roop_examples/output1.mp4 – соответственно, меняете photo.jpg, video.mp4 и output1.mp4 на нужные вам файлы.

  6. После завершения программы результат должен появиться в вашей текущей папке на компьютере.

Сборка.

OpenSource – великая вещь, поэтому если кто-то не доверяет мне))) хочет собрать образ сам, можно взять Dockerfile с моего репозитория на github.

  1. Вам понадобится inswapper_128.onnx из оригинального поста.

  2. Также нужен архив buffalo_l.zip – его можно скачать с github deepinsight, он нужен, чтобы не скачивать одни и те же 275 МБ каждый раз при запуске контейнера.

  3. Поместите эти файлы в папку с Dockerfile, перейдите туда в терминале, после чего выполните: docker build -t roop-basic:my . -f Dockerfile-basic

  4. Можете пока поспать, сборка будет долгой.

  5. После сборки, по аналогии с предыдущей инструкцией, запускаете командой docker run -it --mount type=bind,src=.,dst=/roop_examples roop-basic:my

Особенности.

  1. Я не гуру docker, вполне мог что-то упустить. Если что заметите – обязательно пишите.

  2. Образ весит 10 ГБ – довольно много. Но ненамного больше, чем весят все python-пакеты, inswapper_128.onnx, модели buffalo, и т. д.

  3. Пока что, как я уже говорил, версия только для CPU. Сейчас работаю над версией для видеокарты NVIDIA.

  4. Проверял работоспособность только под Linux, инструкцию писал из соображений, что под Windows всё должно быть аналогично. Возможно, это не так – в таком случае тоже напишите об этом, пожалуйста.

UPD: по просьбам трудящихся – вот вам для примера Джейсон Меня Не Убить Стэтхем.

Показать полностью 1
8

Продолжаем обрабатывать видео с помощью нейросетей

Обработка сделана с помощью warpfusion (доработанный stable diffusion). Инструмент хороший, но платный. Интересующиеся могут почитать/оплатить на страничке автора на patreon

Если хотите получить представление как с этим работать, можете посмотреть это видео (на англ)
Оригинальный пост на реддите

Нейронки интересная и непростая штука, поэтому если хотите лучше в них разобраться, подписывайтесь на канал, там рассказываю как работать с stable diffusion

Показать полностью
11

Голливудские звёзды поздравляют наших ребят с днём рождения

Есть у меня хобби - на день рождения моих друзей я монтирую видео с голливудскими звёздами, где они типа поздравляют ребят с днём рождения.

Для монтажа использую Балаболку, можете заценить одно из таких видео (отдельных +100 к Вашей карме, если в комментариях дадите обратный отзыв с конструктивной критикой), вроде как неплохо получается:

31

Продолжаем играться с нейронками

Пайплайн такой же как и в прошлом видео:

обработка сделана с помощью runway Gen-1 (stable diffusion), которая может стилизовать видео по текстовому описанию. Также автор использовал reface, чтобы анимацию лица при разговоре не косило.

Озвучка сгенерирована в elevenlabs

Канал автора на ютуб

Нейронки интересная и непростая штука, поэтому если хотите лучше в них разобраться, подписывайтесь на канал, там рассказываю как работать с stable diffusion

Показать полностью
Отличная работа, все прочитано!