Midjourney и другие нейросети обработки изображений - страница 895

 

Если говорить про рамки эксперимента по сравнению генераций с некоторыми произведениями, сделанными людьми, то выяснится (и не только здесь):

Человек не способен отличить произведение человека от качественной генерации.

Зачастую генерации могут быть более искусными, но и обратное утверждение тоже верно.


В те времена, когда появлялись художественные произведения - они вызывали бурю эмоций, восхищения, сразу был виден талант.

Возможно это происходило позже, но то особенности культовости автора и ограничения по кол-ву оставшихся произведений.

Сейчас такого восторга нет.


Возможно современные генерации - попса, но есть и серьёзные генерации, когда человек максимально скрупулёзно через ИИ создаёт картинку/идею из своей головы.

Таких тоже совсем не мало. Ведь каждая генерация - это запрос человека увидеть то, что он хочет увидеть.


Ладно, чтобы не длиннопостить.

Человек может восхищаться произведением, но если он узнает, что это сделал ИИ, то при плохом отношении к ИИ он изменит своё мнение на противоположное.

То же самое и с реальными произведениями. Он может посчитать их посредственными генерациями. Но что в итоге. И там и там надо быть мастером или конкуренция вещь жестокая.

 

Разное. Миджорни


 

Арты. Midjourney


 

Разное. Широкоформатное. Миджорни


 
Vitaliy Kuznetsov #:

Заходит, значит какой-нибудь пользователь и видит, ни одной картинки, флуд и затишье.

Ну смешно же, ветка Миджорни, а картинок нет)


Вот есть на форуме некоторые другие темы про ИИ.

И да, в них никто ничего уже не пишет. А почему?

Тут ветка с довольно понятным названием - "Midjourney и другие нейросети обработки изображений".


И как многие другие темы и каналы, здесь есть новости из мира ИИ.

Но чтобы не отходить от смысла и ожиданий вновь зашедших, должна оставаться суть, исходящая из названия.


Ну а поскольку здесь есть движ, посты, т.е. ветка жива, вот она и привлекает пообщаться на околотему многих людей.

И это хорошо. Но если околотема станет сутью, ветка вымрет. Как и все остальные, вымершие по той же причине.

Если я уйду и перестану постить картинки и новости, настанет полная тишина. Я видел это 3 раза, когда отсутствовал по несколько дней.

Начинаю постить - начинается движ.

Цените то, что я делаю, если хотите общаться по теме в живой ветке, а не вымершей, где не будет общения.

Не хотел бы чтобы ветка затихла и хорошо что продолжаете постить. Благодаря жизни этой ветки у многих появляется возможность сформировать отношение к темам и высказать интересное мнение. И это здорово. 

Но это не значит, что все должны думать одинаково и следует чётко разделять эти вещи: отношение к обсуждаемой теме и отношение к чужому мнению. 

Считаю ветка жива только за счёт оригинальных мнений и они здесь самое ценное. Ни картинки, ни новости, ни технические обзоры, а умные и оригинальные взгляды форумчан на текущую ИИ-повестку. Они держат эту тему на плаву. И только поэтому сюда хочеться заходить.

Должен признать, что некоторые мнения бывают резки и безаппеляционны в постановке вопроса или отношении к ИИ-теме. И каждый раз когда их читаю или пишу, возникает мысль: "ну всё, теперь тема точно умрёт!". И каждый раз ошибаюсь. Она, блин, возрождется как птица Феникс! 

Это здорово! Это хорошо. Но также, это заставляет меня понять важную вещь: в итоге не важно кто что пишет, ведь каждый останется со своим естественным интеллектом, и случайно не поумнеет, и не поглупеет, читая чужие посты.

Ветка в безопасности пока в ней пишут свежие мнения и на их почве возникают противоречия. 

Не хочу вешать ярлыки, но в итоге победят инертные, потому что поумневшие обычно уходят первыми. Фантазии об ИИ окончательно восторжествуют. Теперь в этом нисколько не сомневаюсь. 

Победа за вашими взглядами, ТС! :)


 
Maxim Dmitrievsky #:
...
Скажу откровенно: я здесь исключительно чтобы "умнеть". Да, умнеть и понимать сложные вещи. И нет другой цели. 

Картинки... бог с ними. Не развлекают, но и не мешают. Другое дело, новости. С подачи автора они сначала шокируют, а потом, как после громкого хлопка, отпускают, превращаясь в красивый и бессмысленный феерверк. :)

Что касается троллей, так мы ж сами, те еще тролли! И не интересно было бы, без них/нас. :)
[Удален]  
Реter Konow #:
Скажу откровенно: я здесь исключительно чтобы "умнеть". Да, умнеть и понимать сложные вещи. И нет другой цели. 

Картинки... бог с ними. Не развлекают, но и не мешают. Другое дело, новости. С подачи автора они сначала шокируют, а потом, как после громкого хлопка, отпускают, превращаясь в красивый и бессмысленный феерверк. :)

Что касается троллей, так мы ж сами, те еще тролли! И не интересно было бы, без них/нас. :)
Реклама так и работает :)
Не знаю, я не тролль, просто общаюсь на их языке :) А-адаптация
Автор те только занимается копипилизингом, но ещё имеет смелость наезжать на неугодных 
Ценность сих постов нулевая, важны комментаторы 
 
KLING неплохо прокачали. 

Как пример: клоун в перерыве от работы заперся в толчок и пытается найти троллей

 

Проверяю размышляющий режим у Grok3.


Задача - как обучить ИИ на 100 книгах.


Ответ примерно такой. Из 100 книг надо отобрать наиболее лучшие и информативные.

Другой продвинутый ИИ сделает бесконечное кол-во рерайтов и переформулировок.

Получим невероятно огромную базу для обучения. И там ещё много всего по мелочам.


// Этот длиннопост можете дочитать до этой строчки, дальше будет полезно создателям ИИ.


Ответ Grok3 с функцией Think:

Чтобы ИИ уровня, например, Grok2, мог обучаться на меньшем количестве данных, таких как 100 книг, и при этом достигать высокого уровня компетенции, необходимо применить комплексный подход, включающий тщательный отбор данных, оптимизацию архитектуры модели, использование продвинутых техник машинного обучения и регулярные проверки. Ниже приведён подробный план, как это можно реализовать.1. Качество и отбор данныхКачество данных играет решающую роль, особенно когда их объём ограничен.
  • Отбор книг:
    • Выберите 100 книг, которые охватывают широкий спектр тем, жанров, стилей и контекстов. Например, включите научные статьи, художественную литературу, учебники, энциклопедии, исторические тексты и т.д.
    • Убедитесь, что книги содержат разнообразную и репрезентативную информацию, чтобы модель могла обобщать знания.
  • Предварительная обработка данных:
    • Очистите текст от шума: удалите опечатки, нерелевантные разделы (оглавления, сноски, библиографии), нормализуйте текст (приведение к нижнему регистру, удаление лишней пунктуации).
    • Разделите текст на логические блоки (абзацы, главы), чтобы модель могла лучше понимать контекст.
2. Аугментация данныхАугментация помогает искусственно увеличить объём данных, сохраняя их разнообразие.
  • Синтетические данные:
    • Используйте методы перефразирования предложений, замены синонимов или генерации новых примеров с помощью предобученных языковых моделей (например, GPT-3).
    • Применяйте генеративные модели, такие как GANs (Generative Adversarial Networks) или VAEs (Variational Autoencoders), для создания дополнительных текстов.
  • Трансформация данных:
    • Применяйте методы, такие как случайное удаление слов, перестановка предложений или добавление шума, чтобы создать вариации существующих данных.
    • Например, из предложения "ИИ обучается на данных" можно создать:
      • "ИИ учится на информации".
      • "Обучается ИИ на данных".
      • "ИИ обучается на ограниченных данных".
3. Transfer Learning (перенос обучения)Transfer learning позволяет использовать знания из предобученных моделей, что значительно сокращает потребность в данных.
  • Предобученные модели:
    • Используйте предобученные языковые модели, такие как BERT, GPT-3, RoBERTa, которые уже содержат обширные знания, полученные из больших корпусов текстов.
    • Эти модели обучены на миллиардах слов и могут служить основой для вашего ИИ.
  • Fine-tuning (тонкая настройка):
    • Настройте предобученную модель на вашем наборе из 100 книг.
    • Используйте техники, такие как заморозка части слоёв модели, чтобы сохранить общие знания, и обучение только верхних слоёв для адаптации к вашему корпусу.
    • Например, если книги посвящены специфической теме (например, биология), модель может адаптироваться к этой области.
4. Few-Shot Learning (обучение на малом количестве примеров)Few-shot learning позволяет модели эффективно обучаться на ограниченном количестве примеров.
  • Метаобучение:
    • Обучите модель на множестве задач с малым количеством примеров, чтобы она научилась быстро адаптироваться к новым данным.
    • Например, используйте алгоритмы, такие как MAML (Model-Agnostic Meta-Learning).
  • Прототипные сети:
    • Создайте прототипы классов на основе небольшого количества примеров, чтобы модель могла классифицировать новые данные, сравнивая их с этими прототипами.
  • Пример использования:
    • Если модель видит только 5 примеров предложений на определённую тему, она должна научиться обобщать и понимать похожие предложения.
5. Активное обучениеАктивное обучение позволяет модели самой выбирать наиболее информативные примеры для обучения.
  • Выбор информативных примеров:
    • Используйте модель для оценки, какие примеры из вашего набора данных наиболее сложны или неопределённы (например, по энтропии предсказаний).
    • Эти примеры затем используются для дальнейшего обучения.
  • Query by Committee:
    • Обучите несколько моделей и позвольте им "голосовать" за то, какие примеры наиболее полезны для обучения.
  • Пример:
    • Если модель неуверенно классифицирует предложение "ИИ обучается на данных", это предложение добавляется в обучающий набор.
6. Использование знаний экспертовВключение знаний экспертов помогает модели лучше понимать данные.
  • Эвристики и правила:
    • Создайте правила или эвристики, которые направляют обучение модели. Например, "если предложение содержит слово 'ИИ', оно относится к теме машинного обучения".
  • Семантические сети и онтологии:
    • Используйте структурированные знания, такие как онтологии или графы знаний, для улучшения понимания текста.
    • Например, онтология может связывать понятия "ИИ", "машинное обучение" и "нейронные сети".
  • Пример:
    • Если книга содержит термин "нейронная сеть", модель может использовать онтологию, чтобы понять, что это связано с ИИ.
7. Оптимизация архитектуры моделиАрхитектура модели должна быть адаптирована для работы с малыми данными.
  • Модели с меньшим количеством параметров:
    • Используйте компактные модели, такие как DistilBERT или MobileBERT, которые менее склонны к переобучению.
  • Трансформеры с вниманием:
    • Применяйте трансформеры с механизмами внимания, чтобы модель могла фокусироваться на наиболее релевантных частях текста.
    • Например, механизм внимания позволяет модели сосредоточиться на ключевых словах в предложении.
  • Пример:
    • Для предложения "ИИ обучается на данных" модель может выделить слова "ИИ" и "данные" как наиболее важные.
8. РегуляризацияРегуляризация предотвращает переобучение, что особенно важно при ограниченных данных.
  • Dropout:
    • Случайным образом "выключайте" нейроны во время обучения, чтобы модель не зависела от конкретных узлов.
  • Weight Decay:
    • Добавляйте штраф за большие веса в модели, чтобы ограничить её сложность.
  • L2-регуляризация:
    • Применяйте L2-регуляризацию для ограничения нормы весов.
  • Пример:
    • Если модель начинает запоминать конкретные предложения из книг вместо обобщения, dropout поможет снизить этот эффект.
9. Curriculum Learning (обучение по программе)Обучение по программе помогает модели постепенно осваивать информацию.
  • Упорядочивание данных:
    • Начинайте обучение с более простых примеров (например, короткие предложения или базовые темы) и постепенно переходите к более сложным (например, длинные тексты с техническими терминами).
  • Пример:
    • Сначала обучите модель на предложениях типа "ИИ — это компьютерная система", затем на "ИИ обучается на данных с помощью нейронных сетей".
10. Самообучение и обучение без учителяЭти методы позволяют использовать неразмеченные данные.
  • Псевдоразметка:
    • Используйте модель для предсказания меток на неразмеченных данных, затем добавляйте эти данные в обучающий набор.
  • Контрастное обучение:
    • Применяйте контрастное обучение для извлечения представлений из неразмеченных данных. Например, модель может сравнивать похожие и непохожие примеры.
  • Пример:
    • Если у вас есть неразмеченные тексты, модель может предсказать их тему, а затем использовать эти предсказания для обучения.
11. Генеративные моделиГенеративные модели могут создавать дополнительные данные.
  • GANs и VAEs:
    • Используйте GANs или VAEs для генерации новых текстов на основе существующих данных.
  • Пример:
    • Если у вас есть книга о биологии, генеративная модель может создать новые предложения, такие как "Клетки делятся путём митоза", на основе текста книги.
12. Адаптивное обучениеМодель должна быть способна адаптироваться к новым данным.
  • Обратная связь:
    • Включите механизмы обратной связи, чтобы модель могла корректировать свои предсказания на основе взаимодействия с пользователем или экспертом.
  • Пример:
    • Если модель неправильно классифицирует текст, пользователь может указать правильный ответ, и модель обновит свои знания.
13. Комбинирование моделей (ансамбли)Ансамбли улучшают обобщающую способность.
  • Ансамбли моделей:
    • Обучите несколько моделей (например, трансформер, LSTM, CNN) и объедините их предсказания.
  • Пример:
    • Одна модель может быть хороша в понимании структуры текста, другая — в извлечении фактов. Их комбинация улучшит результат.
14. Оптимизация гиперпараметровНастройка гиперпараметров важна для работы с малыми данными.
  • Поиск оптимальной конфигурации:
    • Используйте случайный поиск, поиск по сетке или байесовскую оптимизацию для настройки гиперпараметров, таких как скорость обучения, размер пакета, коэффициент dropout.
  • Пример:
    • Если модель переобучается, увеличьте коэффициент dropout или уменьшите скорость обучения.
15. Использование контекста и памятиМодели с памятью могут лучше использовать ограниченные данные.
  • Модели с памятью:
    • Применяйте модели, такие как Memory-Augmented Neural Networks, которые могут хранить и использовать контекст из предыдущих примеров.
  • Пример:
    • Если модель уже видела определённую тему, она может использовать эту информацию для понимания новых текстов.
ЗаключениеЧтобы ИИ уровня Grok2 мог обучаться на 100 книгах и достигать высокого уровня компетенции, необходимо:
  • Тщательно отобрать и предобработать данные, чтобы они были максимально информативными.
  • Использовать transfer learning с предобученными моделями и fine-tuning на вашем наборе.
  • Применять few-shot learning и активное обучение для оптимизации использования данных.
  • Включать техники аугментации данных, регуляризации, curriculum learning и генеративные модели.
  • Комбинировать несколько моделей (ансамбли) и оптимизировать гиперпараметры.

Такой подход позволит модели извлечь максимум информации из ограниченного набора данных и достичь уровня, близкого к человеческому пониманию. Однако важно помнить, что достижение уровня Grok2 на 100 книгах требует глубокого понимания как данных, так и модели, а также творческого подхода к комбинированию различных техник.

 

Потом я попросил его написать коды по пунктам. Но не буду вставлять сюда.

Заключение Grok3 поправил:

Чтобы обучить ИИ на 100 книгах с высоким уровнем компетенции:
  1. Предобработайте данные — удалите шум и токенизируйте текст.
  2. Аугментируйте данные — создайте перефразировки с T5.
  3. Используйте перенос обучения — дообучите BERT на ваших текстах.
  4. Примените few-shot learning — используйте прототипные сети.
  5. Генерируйте данные — создавайте тексты с GPT-2.
  6. Добавьте регуляризацию — используйте dropout и weight decay.
  7. Оптимизируйте параметры — настройте модель с помощью поиска по сетке.
Эти шаги с примерами кода помогут вам создать эффективный ИИ даже на ограниченном наборе данных!