Сообщество - Видеомонтаж

Видеомонтаж

1 041 пост 5 644 подписчика

Популярные теги в сообществе:

4

Как проще всего наложить 3D-персонажа на актера в видео?

Дамы и господа видеомонтажёры и видеографы! Я не видеомонтажёр, мой потолок – нарезать и склеить видео, подложить звук – в общем, развлечения второклашки на переменке. Прошу советов или идей у бывалых.

Появилась идея снять серию видео для соцсетей для моего магазинчика, в которых в кадре всё рассказывал бы 3D-персонаж. Рисовать такое видео целиком в Максах-Блендерах – дорого, долго, больно, бессмысленно и беспощадно. Ищу способ наложить персонажа на живого актера в видео. Скажите, пожалуйта, существуют ли какие-то готовые заточенные под это программы или нейронки, какие-то способы, чтобы это работало так же просто, как, например, AR-маски в Snapchat?

Снимается в помещении, статично, актёр просто стоит или сидит за столом.

Картинка, конечно же, для привлечения внимания.

Как проще всего наложить 3D-персонажа на актера в видео?
7

Как я создаю субтитры для документалки в премьере

Законичили мы, наконец, нашу полуторачасовую документалку. И встал вопрос о создании к ней субтитров. Русских. Потому что не у всех героев внятная речь, и потому что фильм планируют выложить в сокращенном виде клипами в соцсети.

С ужасом представила, как придется набирать текст вручную в каком-нибудь Subtitle Edit. Но потом вспомнила, что в премьере появилась вкладка Text и функция распознавания речи. Решила попробовать.

Конечно, распознавание не идеальное. Например, «сварка» превратилась в «сваЛку», «состригать» — в «стрелять», а «безграничные возможности» в «ограниченные»🤪. Но это всё же лучше, чем набирать с нуля.

И продюсер предложил в помощь свою помощницу. Поэтому я создала в премьере автоматические субтитры, сохранила в текстовом файле и отправила ей на сверку с видео 📝.

Конечно, даже после этого мне всё равно приходится разбивать некоторые субтитры на более короткие фразы, изменять длину и тайминг. Да, и с орфографией и пунктуацией, у меня, оказывается, лучше чем у помощницы продюсера 😅

Но всё равно, это не сравнимо с временем, когда субтитры приходилось набирать вручную 🙈.

Здорово, что значительной части рутины теперь можно избежать😊

Показать полностью 2
24

Макс Пэйн (2008), но в главной роли Макс Пэйн

Что если бы в экранизации Макса Пэйна вместо Марка Уолберга сыграл бы Сэм Лэйк, подаривший внешность первому Максу Пэйну?

Сделано при помощи программ: Rope portable, Topaz Video AI

Показать полностью
2

Новое обновление GEN-2 от Runway

"Мы выпустили обновление как для преобразования текста в видео, так и для преобразования изображений в видео с помощью Gen-2, которое значительно улучшило точность и согласованность результатов видеосъемки." - пишут Runway в Твиттере*

На мой взгляд, по сравнению с генерациями на ранних версиях GEN-2, которые были много хуже качеством, эти результаты однозначно впечатляют!(для сравнения прикрепил видео одной из старых версий)

Кажется, теперь у видеомонтажёров и кинооператоров появился конкурент(или крутой инструмент для работы?)

*запрещенная в РФ организация

Больше о нейросетях в источнике - 💫Арт-нейросети от Nerual Dreming

Показать полностью 2
4

Реддитор показал промо-ролик для своего проекта, созданный с помощью нейронки AnimateDiff, вышло динамично и красочно!

Телеграм - 🎥Text2Video

1

Zhiyun CRANE M2S - для чего нужны разные режимы?

Приобрёл стэдикам, но никак не могу понять для чего какие режимы нужны. Руководство с китайского на русский переведено хотя и не промтом, но понятнее от этого не становится.

Zhiyun CRANE M2S - для чего нужны разные режимы?

Удалось сбалансировать и калибровать мотор, вроде ровно стоит и работает.

Есть режимы PF, L, F, POV, V, P, GO.

Где почитать подробно для чего какой использовать? В интернете обрывочные сведения, типа распаковка, обзор, инструкция, балансировка, а вот именно по режимам ничего не нашёл. Так же не нашёл мануала, как пользоваться полноценно - когда какие кнопки жать, джойстик и так далее.

Накидайте ссылок.

Показать полностью 1
38

VideoCrafter1: новый генератор нейровидео с открытым исходным кодом, и он лучше чем Gen-2 от RunWay

Генерация видео с помощью нейросетей все больше привлекает внимание как в академической среде, так и в промышленности. Несмотря на то, что коммерческие инструменты могут создавать правдоподобные видео, доступных открытых моделей для исследователей и инженеров остается немного.

Встречайте две модели для генерации высококачественного видео: Text to Video и Image to Video. Модели T2V создают видео на основе заданного текстового запроса, а модели I2V включают в себя генерацию на основе изображения.

Предложенная модель T2V может генерировать реалистичные видео кинематографического качества с разрешением 1024×576, превосходя другие открытые модели T2V по качеству.

Модель I2V разработана для производства видео, которые строго придерживаются содержания предоставленного эталонного изображения, сохраняя его содержание, структуру и стиль. Эта модель является первой открытой базовой моделью I2V, способной преобразовывать заданное изображение в видеоклип, сохраняя ограничения на сохранение содержания.С точностью можно сказать, что эти открытые модели генерации видео внесут значительный вклад в технологические достижения в сообществе.

Узнать о технологии подробнее:

Исследование

Страница проекта

Код на Гитхаб

Показать полностью

Реддитор заменил лицо Тони Старка в Железном Человеке с помощью нейросети. Как вам?

Больше о нейросетях в источнике - 🎯Нейро-Пушка

Отличная работа, все прочитано!