Midjourney и другие нейросети обработки изображений - страница 895
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Если говорить про рамки эксперимента по сравнению генераций с некоторыми произведениями, сделанными людьми, то выяснится (и не только здесь):
Человек не способен отличить произведение человека от качественной генерации.
Зачастую генерации могут быть более искусными, но и обратное утверждение тоже верно.
В те времена, когда появлялись художественные произведения - они вызывали бурю эмоций, восхищения, сразу был виден талант.
Возможно это происходило позже, но то особенности культовости автора и ограничения по кол-ву оставшихся произведений.
Сейчас такого восторга нет.
Возможно современные генерации - попса, но есть и серьёзные генерации, когда человек максимально скрупулёзно через ИИ создаёт картинку/идею из своей головы.
Таких тоже совсем не мало. Ведь каждая генерация - это запрос человека увидеть то, что он хочет увидеть.
Ладно, чтобы не длиннопостить.
Человек может восхищаться произведением, но если он узнает, что это сделал ИИ, то при плохом отношении к ИИ он изменит своё мнение на противоположное.
То же самое и с реальными произведениями. Он может посчитать их посредственными генерациями. Но что в итоге. И там и там надо быть мастером или конкуренция вещь жестокая.
Разное. Миджорни
Арты. Midjourney
Разное. Широкоформатное. Миджорни
Заходит, значит какой-нибудь пользователь и видит, ни одной картинки, флуд и затишье.
Ну смешно же, ветка Миджорни, а картинок нет)
Вот есть на форуме некоторые другие темы про ИИ.
И да, в них никто ничего уже не пишет. А почему?
Тут ветка с довольно понятным названием - "Midjourney и другие нейросети обработки изображений".
И как многие другие темы и каналы, здесь есть новости из мира ИИ.
Но чтобы не отходить от смысла и ожиданий вновь зашедших, должна оставаться суть, исходящая из названия.
Ну а поскольку здесь есть движ, посты, т.е. ветка жива, вот она и привлекает пообщаться на околотему многих людей.
И это хорошо. Но если околотема станет сутью, ветка вымрет. Как и все остальные, вымершие по той же причине.
Если я уйду и перестану постить картинки и новости, настанет полная тишина. Я видел это 3 раза, когда отсутствовал по несколько дней.
Начинаю постить - начинается движ.
Цените то, что я делаю, если хотите общаться по теме в живой ветке, а не вымершей, где не будет общения.
...
Скажу откровенно: я здесь исключительно чтобы "умнеть". Да, умнеть и понимать сложные вещи. И нет другой цели.
Как пример: клоун в перерыве от работы заперся в толчок и пытается найти троллей
Проверяю размышляющий режим у Grok3.
Задача - как обучить ИИ на 100 книгах.
Ответ примерно такой. Из 100 книг надо отобрать наиболее лучшие и информативные.
Другой продвинутый ИИ сделает бесконечное кол-во рерайтов и переформулировок.
Получим невероятно огромную базу для обучения. И там ещё много всего по мелочам.
// Этот длиннопост можете дочитать до этой строчки, дальше будет полезно создателям ИИ.
Ответ Grok3 с функцией Think:
Чтобы ИИ уровня, например, Grok2, мог обучаться на меньшем количестве данных, таких как 100 книг, и при этом достигать высокого уровня компетенции, необходимо применить комплексный подход, включающий тщательный отбор данных, оптимизацию архитектуры модели, использование продвинутых техник машинного обучения и регулярные проверки. Ниже приведён подробный план, как это можно реализовать.1. Качество и отбор данныхКачество данных играет решающую роль, особенно когда их объём ограничен.- Отбор книг:
- Выберите 100 книг, которые охватывают широкий спектр тем, жанров, стилей и контекстов. Например, включите научные статьи, художественную литературу, учебники, энциклопедии, исторические тексты и т.д.
- Убедитесь, что книги содержат разнообразную и репрезентативную информацию, чтобы модель могла обобщать знания.
- Предварительная обработка данных:
- Очистите текст от шума: удалите опечатки, нерелевантные разделы (оглавления, сноски, библиографии), нормализуйте текст (приведение к нижнему регистру, удаление лишней пунктуации).
- Разделите текст на логические блоки (абзацы, главы), чтобы модель могла лучше понимать контекст.
2. Аугментация данныхАугментация помогает искусственно увеличить объём данных, сохраняя их разнообразие.- Синтетические данные:
- Используйте методы перефразирования предложений, замены синонимов или генерации новых примеров с помощью предобученных языковых моделей (например, GPT-3).
- Применяйте генеративные модели, такие как GANs (Generative Adversarial Networks) или VAEs (Variational Autoencoders), для создания дополнительных текстов.
- Трансформация данных:
- Применяйте методы, такие как случайное удаление слов, перестановка предложений или добавление шума, чтобы создать вариации существующих данных.
- Например, из предложения "ИИ обучается на данных" можно создать:
- "ИИ учится на информации".
- "Обучается ИИ на данных".
- "ИИ обучается на ограниченных данных".
3. Transfer Learning (перенос обучения)Transfer learning позволяет использовать знания из предобученных моделей, что значительно сокращает потребность в данных.- Предобученные модели:
- Используйте предобученные языковые модели, такие как BERT, GPT-3, RoBERTa, которые уже содержат обширные знания, полученные из больших корпусов текстов.
- Эти модели обучены на миллиардах слов и могут служить основой для вашего ИИ.
- Fine-tuning (тонкая настройка):
- Настройте предобученную модель на вашем наборе из 100 книг.
- Используйте техники, такие как заморозка части слоёв модели, чтобы сохранить общие знания, и обучение только верхних слоёв для адаптации к вашему корпусу.
- Например, если книги посвящены специфической теме (например, биология), модель может адаптироваться к этой области.
4. Few-Shot Learning (обучение на малом количестве примеров)Few-shot learning позволяет модели эффективно обучаться на ограниченном количестве примеров.- Метаобучение:
- Обучите модель на множестве задач с малым количеством примеров, чтобы она научилась быстро адаптироваться к новым данным.
- Например, используйте алгоритмы, такие как MAML (Model-Agnostic Meta-Learning).
- Прототипные сети:
- Создайте прототипы классов на основе небольшого количества примеров, чтобы модель могла классифицировать новые данные, сравнивая их с этими прототипами.
- Пример использования:
- Если модель видит только 5 примеров предложений на определённую тему, она должна научиться обобщать и понимать похожие предложения.
5. Активное обучениеАктивное обучение позволяет модели самой выбирать наиболее информативные примеры для обучения.- Выбор информативных примеров:
- Используйте модель для оценки, какие примеры из вашего набора данных наиболее сложны или неопределённы (например, по энтропии предсказаний).
- Эти примеры затем используются для дальнейшего обучения.
- Query by Committee:
- Обучите несколько моделей и позвольте им "голосовать" за то, какие примеры наиболее полезны для обучения.
- Пример:
- Если модель неуверенно классифицирует предложение "ИИ обучается на данных", это предложение добавляется в обучающий набор.
6. Использование знаний экспертовВключение знаний экспертов помогает модели лучше понимать данные.- Эвристики и правила:
- Создайте правила или эвристики, которые направляют обучение модели. Например, "если предложение содержит слово 'ИИ', оно относится к теме машинного обучения".
- Семантические сети и онтологии:
- Используйте структурированные знания, такие как онтологии или графы знаний, для улучшения понимания текста.
- Например, онтология может связывать понятия "ИИ", "машинное обучение" и "нейронные сети".
- Пример:
- Если книга содержит термин "нейронная сеть", модель может использовать онтологию, чтобы понять, что это связано с ИИ.
7. Оптимизация архитектуры моделиАрхитектура модели должна быть адаптирована для работы с малыми данными.- Модели с меньшим количеством параметров:
- Используйте компактные модели, такие как DistilBERT или MobileBERT, которые менее склонны к переобучению.
- Трансформеры с вниманием:
- Применяйте трансформеры с механизмами внимания, чтобы модель могла фокусироваться на наиболее релевантных частях текста.
- Например, механизм внимания позволяет модели сосредоточиться на ключевых словах в предложении.
- Пример:
- Для предложения "ИИ обучается на данных" модель может выделить слова "ИИ" и "данные" как наиболее важные.
8. РегуляризацияРегуляризация предотвращает переобучение, что особенно важно при ограниченных данных.- Dropout:
- Случайным образом "выключайте" нейроны во время обучения, чтобы модель не зависела от конкретных узлов.
- Weight Decay:
- Добавляйте штраф за большие веса в модели, чтобы ограничить её сложность.
- L2-регуляризация:
- Применяйте L2-регуляризацию для ограничения нормы весов.
- Пример:
- Если модель начинает запоминать конкретные предложения из книг вместо обобщения, dropout поможет снизить этот эффект.
9. Curriculum Learning (обучение по программе)Обучение по программе помогает модели постепенно осваивать информацию.- Упорядочивание данных:
- Начинайте обучение с более простых примеров (например, короткие предложения или базовые темы) и постепенно переходите к более сложным (например, длинные тексты с техническими терминами).
- Пример:
- Сначала обучите модель на предложениях типа "ИИ — это компьютерная система", затем на "ИИ обучается на данных с помощью нейронных сетей".
10. Самообучение и обучение без учителяЭти методы позволяют использовать неразмеченные данные.- Псевдоразметка:
- Используйте модель для предсказания меток на неразмеченных данных, затем добавляйте эти данные в обучающий набор.
- Контрастное обучение:
- Применяйте контрастное обучение для извлечения представлений из неразмеченных данных. Например, модель может сравнивать похожие и непохожие примеры.
- Пример:
- Если у вас есть неразмеченные тексты, модель может предсказать их тему, а затем использовать эти предсказания для обучения.
11. Генеративные моделиГенеративные модели могут создавать дополнительные данные.- GANs и VAEs:
- Используйте GANs или VAEs для генерации новых текстов на основе существующих данных.
- Пример:
- Если у вас есть книга о биологии, генеративная модель может создать новые предложения, такие как "Клетки делятся путём митоза", на основе текста книги.
12. Адаптивное обучениеМодель должна быть способна адаптироваться к новым данным.- Обратная связь:
- Включите механизмы обратной связи, чтобы модель могла корректировать свои предсказания на основе взаимодействия с пользователем или экспертом.
- Пример:
- Если модель неправильно классифицирует текст, пользователь может указать правильный ответ, и модель обновит свои знания.
13. Комбинирование моделей (ансамбли)Ансамбли улучшают обобщающую способность.- Ансамбли моделей:
- Обучите несколько моделей (например, трансформер, LSTM, CNN) и объедините их предсказания.
- Пример:
- Одна модель может быть хороша в понимании структуры текста, другая — в извлечении фактов. Их комбинация улучшит результат.
14. Оптимизация гиперпараметровНастройка гиперпараметров важна для работы с малыми данными.- Поиск оптимальной конфигурации:
- Используйте случайный поиск, поиск по сетке или байесовскую оптимизацию для настройки гиперпараметров, таких как скорость обучения, размер пакета, коэффициент dropout.
- Пример:
- Если модель переобучается, увеличьте коэффициент dropout или уменьшите скорость обучения.
15. Использование контекста и памятиМодели с памятью могут лучше использовать ограниченные данные.- Модели с памятью:
- Применяйте модели, такие как Memory-Augmented Neural Networks, которые могут хранить и использовать контекст из предыдущих примеров.
- Пример:
- Если модель уже видела определённую тему, она может использовать эту информацию для понимания новых текстов.
ЗаключениеЧтобы ИИ уровня Grok2 мог обучаться на 100 книгах и достигать высокого уровня компетенции, необходимо:Такой подход позволит модели извлечь максимум информации из ограниченного набора данных и достичь уровня, близкого к человеческому пониманию. Однако важно помнить, что достижение уровня Grok2 на 100 книгах требует глубокого понимания как данных, так и модели, а также творческого подхода к комбинированию различных техник.
Потом я попросил его написать коды по пунктам. Но не буду вставлять сюда.
Заключение Grok3 поправил: