Midjourney и другие нейросети обработки изображений - страница 551
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Незаконченное логическое самообразование грозит перерасти в незаконченное ИИшное.
Бредогенератор в действии 👆
Было бы до чего
Несут чушь, потом переобуваются на ходу
Первое - безобидное ещё, а вот второе - позорное
Похоже Даннинг с Крюгером лишает некоторых гомопромптусов способности понимать написанное.
Красивое видео (даже два) имеется. Теперь хотелось бы свидетельств, что это реально полученнное от ИИ видео на произвольный промпт, а не рекламная уловка. Китайские пиарщики вполне могут и подогнать обучение к конкретному небольшому набору промптов или даже тупо сфотошопить.
Незаконченное логическое самообразование грозит перерасти в незаконченное ИИшное.
Неадекватов типа "ИИ бесполезен!" пережили и неадекватов типа "ИИ всемогущ!" тем более переживём.
ещё б пережить тех кто нейросети называет ИИ...
Kling AI - китайский достойный аналог Sora по генерации видео.
У меня нет доступа к сервису, но наверное, скоро будет распространяться.
Вот кто-то собрал нарезки видео-генераций клинга.
А вот официальное видео с новыми функциями.
Из видео становится понятно, что лучше всего использовать сервис так:
1. Вставить заранее сгенерированную пикчу или фото
2. С помощью промта описать, что и как должно анимироваться.
P.S. Также недавно Runway Gen3 запустили видео-генерацию от слайда до слайда (первый и конечный кадр). Так что технологии больше ориентируются на управление анимацией и работой с уже готовыми стоп-кадрами, что позволит анимировать любой комикс/раскадровку, которую можно сгенерировать где угодно.
P.P.S. Раньше видео-генерации были слишком дёрганными, т.к. каждый кадр генерировался отдельно, сейчас появилась плавность, но есть артефакты с нелогичными метаморфозами, где-то больше, где-то меньше. Но очевидно, работа кипит, ведь конкуренция нешуточная.
В целом генеративная сеть для видео - это та же сеть для изображений, но с их последовательным выводом. Наверное еще один слой дополнительный в конце, ну и огромные вычислительные ресурсы. Нужно очень много примеров видео и описаний к ним для обучения.
На примере танцующей лапши: берется слой из одного видео, где гимнасты или йоги или кто-то там танцуют и заменяется на слой с лапшой. (В генеративных сетях все важные элементы на видео или картинке разделены по слоям и каждый слой как бы промаркирован, какой признак он содержит). Это происходит попиксельно с гладкими переходами, поэтому в общем создается такой благостный эффект танцующей лапши.
Видно, что количество лапши меняется от кадра к кадру, потому что этой текстурой заполняется недостающее пространство при движении изначальных танцоров. Хорошо видно по волосам и по лежащему на спине танцору. Иногда он одна большая макаронина, а иногда спагетти :)
Еще хорошо видны ошибки аппроксимации последовательности картинок, когда статичный фон все равно блюрит и немного меняется от кадра к кадру. Это именно из-за неидеальной аппроксимации последовательности. Вилка превращается в ложку и т.п.Kling AI - китайский достойный аналог Sora по генерации видео.
У меня нет доступа к сервису, но наверное, скоро будет распространяться.
Вот кто-то собрал нарезки видео-генераций клинга.
А вот официальное видео с новыми функциями.
Из видео становится понятно, что лучше всего использовать сервис так:
1. Вставить заранее сгенерированную пикчу или фото
2. С помощью промта описать, что и как должно анимироваться.
P.S. Также недавно Runway Gen3 запустили видео-генерацию от слайда до слайда (первый и конечный кадр). Так что технологии больше ориентируются на управление анимацией и работой с уже готовыми стоп-кадрами, что позволит анимировать любой комикс/раскадровку, которую можно сгенерировать где угодно.
P.P.S. Раньше видео-генерации были слишком дёрганными, т.к. каждый кадр генерировался отдельно, сейчас появилась плавность, но есть артефакты с нелогичными метаморфозами, где-то больше, где-то меньше. Но очевидно, работа кипит, ведь конкуренция нешуточная.
Похоже, закрытие Голливуда пока откладывается.
Если на форуме трейдеров есть люди, способные вообразить простую трендовую линию развития качества нейросетей, то они всё поймут.
В реале же развитие идёт ещё быстрее. Каждый месяц громкий релиз, каждую неделю интересные события.
С распространением AGI (примерно 2030) будет ещё интереснее.