Midjourney и другие нейросети обработки изображений - страница 551

 
Maxim Dmitrievsky #:
Незаконченное логическое самообразование грозит перерасти в незаконченное ИИшное.

Проблема в том, что если на ранних этапах созревание не случилось, то потом дозреть уже могут не только лишь все.

Бредогенератор в действии 👆

 
Ivan Butko #:

Было бы до чего

Несут чушь, потом переобуваются на ходу

Первое - безобидное ещё, а вот второе - позорное

Похоже Даннинг с Крюгером лишает некоторых гомопромптусов способности понимать написанное.

Красивое видео (даже два) имеется. Теперь хотелось бы свидетельств, что это реально полученнное от ИИ видео на произвольный промпт, а не рекламная уловка. Китайские пиарщики вполне могут и подогнать обучение к конкретному небольшому набору промптов или даже тупо сфотошопить.

 
Maxim Dmitrievsky #:
Незаконченное логическое самообразование грозит перерасти в незаконченное ИИшное.

Проблема в том, что если на ранних этапах созревание не случилось, то потом дозреть уже могут не только лишь все.
Особенно если при дозревании обильно удобряются излияниями всяких непризнанных "гениев")
 
Aleksey Nikolayev #:
Неадекватов типа "ИИ бесполезен!" пережили и неадекватов типа "ИИ всемогущ!" тем более переживём.
ещё б пережить тех кто нейросети называет ИИ...
 
WWolf #:
ещё б пережить тех кто нейросети называет ИИ...
ИИ - это родовое понятие
 

Kling AI - китайский достойный аналог Sora по генерации видео.

У меня нет доступа к сервису, но наверное, скоро будет распространяться.

Вот кто-то собрал нарезки видео-генераций клинга.



А вот официальное видео с новыми функциями.



Из видео становится понятно, что лучше всего использовать сервис так:

1. Вставить заранее сгенерированную пикчу или фото

2. С помощью промта описать, что и как должно анимироваться.


P.S. Также недавно Runway Gen3 запустили видео-генерацию от слайда до слайда (первый и конечный кадр). Так что технологии больше ориентируются на управление анимацией и работой с уже готовыми стоп-кадрами, что позволит анимировать любой комикс/раскадровку, которую можно сгенерировать где угодно.

P.P.S. Раньше видео-генерации были слишком дёрганными, т.к. каждый кадр генерировался отдельно, сейчас появилась плавность, но есть артефакты с нелогичными метаморфозами, где-то больше, где-то меньше. Но очевидно, работа кипит, ведь конкуренция нешуточная.

[Удален]  

В целом генеративная сеть для видео - это та же сеть для изображений, но с их последовательным выводом. Наверное еще один слой дополнительный в конце, ну и огромные вычислительные ресурсы. Нужно очень много примеров видео и описаний к ним для обучения.

На примере танцующей лапши: берется слой из одного видео, где гимнасты или йоги или кто-то там танцуют и заменяется на слой с лапшой. (В генеративных сетях все важные элементы на видео или картинке разделены по слоям и каждый слой как бы промаркирован, какой признак он содержит). Это происходит попиксельно с гладкими переходами, поэтому в общем создается такой благостный эффект танцующей лапши.

[Удален]  

Видно, что количество лапши меняется от кадра к кадру, потому что этой текстурой заполняется недостающее пространство при движении изначальных танцоров. Хорошо видно по волосам и по лежащему на спине танцору. Иногда он одна большая макаронина, а иногда спагетти :)

Еще хорошо видны ошибки аппроксимации последовательности картинок, когда статичный фон все равно блюрит и немного меняется от кадра к кадру. Это именно из-за неидеальной аппроксимации последовательности. Вилка превращается в ложку и т.п.
 
Vitaliy Kuznetsov #:

Kling AI - китайский достойный аналог Sora по генерации видео.

У меня нет доступа к сервису, но наверное, скоро будет распространяться.

Вот кто-то собрал нарезки видео-генераций клинга.



А вот официальное видео с новыми функциями.



Из видео становится понятно, что лучше всего использовать сервис так:

1. Вставить заранее сгенерированную пикчу или фото

2. С помощью промта описать, что и как должно анимироваться.


P.S. Также недавно Runway Gen3 запустили видео-генерацию от слайда до слайда (первый и конечный кадр). Так что технологии больше ориентируются на управление анимацией и работой с уже готовыми стоп-кадрами, что позволит анимировать любой комикс/раскадровку, которую можно сгенерировать где угодно.

P.P.S. Раньше видео-генерации были слишком дёрганными, т.к. каждый кадр генерировался отдельно, сейчас появилась плавность, но есть артефакты с нелогичными метаморфозами, где-то больше, где-то меньше. Но очевидно, работа кипит, ведь конкуренция нешуточная.

Похоже, закрытие Голливуда пока откладывается.

 

Если на форуме трейдеров есть люди, способные вообразить простую трендовую линию развития качества нейросетей, то они всё поймут.

В реале же развитие идёт ещё быстрее. Каждый месяц громкий релиз, каждую неделю интересные события.

С распространением AGI (примерно 2030) будет ещё интереснее.