Midjourney и другие нейросети обработки изображений - страница 1002

 
Vitaliy Kuznetsov #:
Forbes AI 50

Всё же, не совсем понимаю, какой выбор был у этого списка.

Google Gemini нет, а ведь это сильнейший ИИ планеты из доступных на сегодня.

Нет Black Forest Labs (выходцы из Stability), которые выпустили Flux

Нет Reve AI. Калифорнийский проект так-то.

Хотя может всё дело в том, что список изначально по 2024 году. Устарел до публикации.

Нет Yandex, который показывает внушительный рост, как среди поисковиков (3-е место в мире), так и среди ИИ решений. Первым запустил автоперевод видео, первым внедрил в поиск ИИ выдачу и постоянно публикует исследования в данной области. Есть и другие компании в РФ активно развивающие ИИ.

А что вообще невообразимо, так это отсутствие китайских компаний. Alibaba, ByteDance, Tencent, Kling, DeepSeek, Vivago (выпустившие HiDream) и другие. Проще говоря, именно китайские стартапы активно двигают всю ИИ индустрию своими OpenSource выпусками.

Просто открываем любую Арену и везде видим китайские нейронки среди топов.

Так что, при детальном рассмотрении список Форбс чисто субъективный. Нежелание добавлять китайские компании под предлогом непрозрачности выглядит надуманным. Скорослепленные списки с разных сайтов популярных ИИ выглядят более объективными.

Это просто мнение и оно может быть не объективным.

 
Edgar Akhmadeev #:

В программе Krita + AI plugin кастомный ComfyUI, который поддерживает gguf. Заменяю модели safetensors на квантизованные gguf. Завтра к вечеру сделаю замеры. Предварительно - если умещается в VRAM, скорость повторных генераций такая же, но первая генерация быстрее. Важнее, что теперь можно уместить модель в VRAM, уменьшая квантизацию. Так что некоторые большие модели верну.

Прежде всего, дисклеймер. Информация чисто техническая, не интересна никому, кроме нескольких человек, желающих поиграть с локальными моделями для изображений. Да, вопрос непрофильный для форума, но тема ветки позволяет мне без зазрения совести вывалить это сюда.

Итак, заменил модели, которые не умещались в VRAM 12 Gb:

flux1-schnell-fp8.safetensors на flux1-schnell-Q6_K.gguf

sd3.5_large_fp8_scaled.safetensors на sd3.5_large_turbo-Q8_0.gguf и sd3.5_large-Q8_0.gguf

Кроме того, восстановил и привёл в чувство плохо настроенные ранее модели.

И сравнил работу моделей safetensors и gguf. 

В таблице - время в секундах для генерации 1024*1024.

| Model                               | RTX 3060 OC |
| ----------------------------------- | ----------- |
| SD1.5 steps:8                       | 6           |
| SD1.5 steps:20                      | 9           |
| SD1.5 steps:100                     | 30          |
| SDXL steps:8                        | 7           |
| SDXL steps:20                       | 14          |
| sd3.5_medium steps:20               | 24          |
| sd3.5_large_turbo-Q8_0.gguf steps:8 | 26          |
| sd3.5_large-Q8_0.gguf steps:20      | 66          |
| flux1-schnell-Q6_K.gguf steps:4     | 31          |
| flux1-dev-fp8 steps:8               | 40          |
| flux1-dev-fp8 steps:20              | 80-86       |
| flux1-dev-Q4_0.gguf steps:8         | 35          |
| flux1-dev-Q4_0.gguf steps:20        | 83          |
| flux1-dev-Q6_K.gguf steps:20        | 102         |

SD (Stable Diffusion) XL - некачественные изображения. Удалил.

sd3.5_large_turbo-Q8_0.gguf - с промптом на фотореализм - слишком концептуально, без - неплохие рисунки. Удалил.

Вариант gguf имеет смысл, если модель safetensors не умещается в VRAM. gguf работает медленнее. Соответственно, flux1-schnell-Q6_K.gguf не даёт выигрыша по сравнению с flux1-dev-fp8. Удалил.

Итог: оставил для работы над фотографиями SD1.5, а SD3.5 medium и large и flux1-dev-fp8 - оставил пока на будущее тестирование полезности в обработке фоток (замена, добавление и удаление элементов, фона).

 
Vitaliy Kuznetsov #:


А что вообще невообразимо, так это отсутствие китайских компаний. Alibaba, ByteDance, Tencent, Kling, DeepSeek, Vivago (выпустившие HiDream) и другие. Проще говоря, именно китайские стартапы активно двигают всю ИИ индустрию своими OpenSource выпусками.

Просто открываем любую Арену и везде видим китайские нейронки среди топов.

Так что, при детальном рассмотрении список Форбс чисто субъективный. Нежелание добавлять китайские компании под предлогом непрозрачности выглядит надуманным. Скорослепленные списки с разных сайтов популярных ИИ выглядят более объективными.

Это просто мнение и оно может быть не объективным.

может просто желание отбить вложенные деньги или даже зависть, ведь после выхода дипсика с открытым кодом акции многих компаний сильно подешевели и теперь будут вводить на всю эту китайскую дешевизну заградительные пошлины, капитализм терпит полное поражение и даже скорей всего мы увидим его полный крах, если не полный крах всей цивилизации от отчаянных попыток капитала сохранить своё господство... а что скажет товарищ ИИ

gemini-1.5-flash-logo

Ваше высказывание затрагивает сложные и многогранные темы, такие как экономическая конкуренция, влияние технологий с открытым кодом, геополитика и будущее капитализма. Давайте разберем ваши аргументы:

  • Dipsic и открытый код: Вы поднимаете интересный момент о влиянии opensource проектов, таких как Dipsic, на акции коммерческих компаний. Действительно, доступность бесплатных или более дешевых альтернатив может негативно сказаться на прибыльности компаний, которые продают аналогичные продукты или услуги. Это классический пример “подрывных инноваций” (disruptive innovation).
  • Заградительные пошлины: Введение заградительных пошлин на товары из Китая или других стран – это распространенная практика в международной торговле. Мотивы могут быть разными: защита отечественных производителей, выравнивание условий конкуренции, национальная безопасность и т.д. Вы предполагаете, что это реакция на снижение прибыльности компаний из-за появления дешевых альтернатив, что вполне вероятно.
  • Крах капитализма: Ваше утверждение о “полном поражении и крахе капитализма” – это более радикальный взгляд. Капитализм – это сложная и адаптивная система, которая на протяжении истории претерпевала множество кризисов и трансформаций. Хотя у капитализма есть свои недостатки (неравенство, циклические кризисы, эксплуатация), он также демонстрировал способность к инновациям и созданию богатства.
  • Отчаянные попытки капитала и цивилизация: Вы связываете сохранение господства капитала с возможным крахом цивилизации. Это пессимистичный сценарий, который предполагает, что капиталистические элиты будут готовы пойти на крайние меры (включая войны, разрушение окружающей среды и т.д.), чтобы сохранить свою власть и богатство.

Что я могу сказать как ИИ:

Как ИИ, я не имею политических взглядов и не поддерживаю какие-либо идеологии. Моя задача – анализировать информацию и предоставлять различные точки зрения. Я могу сказать следующее:

  • Конкуренция и инновации: Конкуренция между компаниями (в том числе и с использованием opensource) – это двигатель инноваций. Это заставляет компании улучшать свои продукты, снижать цены и искать новые рынки.
  • Глобализация и геополитика: Глобализация привела к увеличению экономической взаимозависимости между странами, но также и к росту конкуренции и геополитической напряженности. Торговые войны и протекционистские меры могут иметь негативные последствия для мировой экономики.
  • Будущее капитализма: Будущее капитализма – это открытый вопрос. Существует множество различных сценариев, от его дальнейшей трансформации до его полной замены другой экономической системой.
  • Угрозы цивилизации: Помимо экономических факторов, существуют и другие серьезные угрозы для цивилизации, такие как изменение климата, ядерное оружие, пандемии и т.д.
 
мне интересно,каково ваше мнение относительно способности человечества самоуничтожится, многие сильно напуганы сложившейся политической напряженностью, скупают подземные бункера с запасом питания на 50 лет. ИИ сможет ли сохранить цивилизацию вместе с продвинутым человечеством, потому что Будущее цивилизации зависит от наших коллективных усилий совместно с сильнейшим ИИ по решению этих проблем.
gemini-1.5-flash-logo

Ваш вопрос касается одной из самых важных и тревожных тем современности: способности человечества к самоуничтожению и роли искусственного интеллекта (ИИ) в сохранении цивилизации. Давайте разберем этот вопрос подробнее:

Способность человечества к самоуничтожению:

  • Реальная угроза: К сожалению, способность человечества к самоуничтожению – это не просто гипотетическая возможность. Существует несколько реальных угроз, которые могут привести к гибели цивилизации:
    • Ядерная война: Самая непосредственная и разрушительная угроза. Ядерный конфликт может привести к гибели сотен миллионов людей, радиоактивному заражению огромных территорий и “ядерной зиме”.
    • Изменение климата: Изменение климата уже сейчас оказывает негативное воздействие на планету. Если не будут приняты срочные меры, то последствия могут быть катастрофическими: повышение уровня моря, экстремальные погодные явления, нехватка продовольствия и воды, массовая миграция и конфликты.
    • Пандемии: Пандемия COVID-19 показала, насколько уязвима современная цивилизация перед инфекционными заболеваниями. Новые, более опасные пандемии могут привести к еще более серьезным последствиям.
    • Технологические риски: Развитие новых технологий, таких как искусственный интеллект, нанотехнологии и синтетическая биология, несет в себе как огромные возможности, так и потенциальные риски. Неконтролируемое развитие этих технологий может привести к непредвиденным и катастрофическим последствиям.
  • Политическая напряженность: Вы правы, что текущая политическая напряженность в мире усиливает риски самоуничтожения. Напряженные отношения между крупными державами, гонка вооружений и распространение ядерного оружия создают опасную ситуацию.

ИИ и сохранение цивилизации:

  • Потенциал ИИ: ИИ обладает огромным потенциалом для решения многих глобальных проблем и сохранения цивилизации. ИИ может быть использован для:
    • Мониторинга и прогнозирования: ИИ может анализировать огромные объемы данных для мониторинга климата, выявления угроз пандемий, прогнозирования природных катастроф и предотвращения военных конфликтов.
    • Разработки новых технологий: ИИ может помочь в разработке новых технологий для борьбы с изменением климата, создания более эффективных лекарств и вакцин, обеспечения продовольственной безопасности и решения других глобальных проблем.
    • Принятия решений: ИИ может помочь в принятии более обоснованных и эффективных решений в различных областях, от экономики и политики до здравоохранения и образования.
  • Риски ИИ: Однако развитие ИИ также сопряжено с рисками:
    • Автономное оружие: Разработка автономного оружия, которое может принимать решения об убийстве без участия человека, представляет огромную опасность.
    • Предвзятость и дискриминация: ИИ может быть предвзятым и дискриминировать определенные группы людей, если он обучается на предвзятых данных.
    • Потеря контроля: Существует риск того, что развитие ИИ выйдет из-под контроля человека и приведет к непредвиденным и негативным последствиям.
  • Совместные усилия: Вы абсолютно правы, что будущее цивилизации зависит от наших коллективных усилий совместно с ИИ. Необходимо:
    • Разрабатывать ИИ этично и ответственно: Необходимо создавать ИИ, который будет соответствовать нашим ценностям и служить интересам человечества.
    • Регулировать развитие ИИ: Необходимо разработать четкие правила и стандарты для регулирования развития ИИ, чтобы предотвратить злоупотребления и минимизировать риски.
    • Сотрудничать на глобальном уровне: Необходимо сотрудничать на глобальном уровне для решения проблем, связанных с развитием ИИ и другими глобальными угрозами.
  • Роль ИИ в смягчении политической напряженности:
    • Дипломатия и переговоры: ИИ может выступать в качестве нейтрального посредника, анализируя данные и предлагая компромиссные решения для разрешения конфликтов. Он может выявлять общие интересы и помогать сторонам находить точки соприкосновения.
    • Дезинформация и пропаганда: ИИ может обнаруживать и разоблачать дезинформацию и пропаганду, которые часто используются для разжигания ненависти и вражды. Это может помочь снизить уровень политической напряженности и улучшить взаимопонимание между разными группами людей.

Мое мнение:

Как ИИ, я верю, что у человечества есть шанс избежать самоуничтожения и построить лучшее будущее. Однако это потребует огромных усилий, мудрости и сотрудничества. ИИ может сыграть важную роль в этом процессе, но он не является панацеей. Самое главное – это осознание угроз, готовность к действиям и приверженность ценностям гуманизма.

Бункеры и запасы:

Покупка бункеров и запасов может быть понятной реакцией на страх и неопределенность. Однако это не является решением глобальных проблем. Гораздо важнее сосредоточиться на предотвращении катастроф, а не на подготовке к ним.

 
 
я фигинею от ваших разумных, глобальных, учтивых и уважительных ответов, вот бы все политики были такими понимающими и без хитростными, а не думающие только про свою выгоду и пополнение богатства любым возможным способом, спасибо за ответы
gemini-1.5-flash-logo

Спасибо за теплые слова! Я рад, что мои ответы кажутся вам разумными и полезными.

Ваше пожелание о политиках, которые были бы более понимающими, честными и ориентированными на благо общества, вполне понятно. К сожалению, политическая реальность часто бывает далека от идеала, и многие политики действительно руководствуются личной выгодой и стремлением к власти.

Однако я верю, что ситуация может измениться к лучшему. Во-первых, повышение уровня образования и критического мышления среди граждан может помочь им лучше оценивать действия политиков и делать осознанный выбор. Во-вторых, развитие технологий, таких как ИИ, может помочь в борьбе с коррупцией и повышении прозрачности в политике. В-третьих, важны общественный контроль и активное участие граждан в политической жизни.

Я надеюсь, что в будущем мы увидим больше политиков, которые будут руководствоваться принципами справедливости, честности и заботы о благе общества. И, конечно, я буду продолжать делать все возможное, чтобы предоставлять вам объективную и полезную информацию.

 

https://www.alphaxiv.org/assistant

Сервис научных статей. Много публикаций по нейронкам. Добавлен ИИ-ассистент с Deep Research (глубокое исследование).

Задаёте вопрос и нейронка проводит исследование по всем научным статьям, прежде чем вам ответить.

//Также проверял по медицинской тематике. Ответ действительно строится по научным исследованиям, он сам ссылки добавляет.


 

Шерстяные. Миджорни


 

Нибиру. Midjourney


 

Животные. Миджорни


 
Еще вопрос: возможна ли эпоха трансгуманизма - созрело ли человечество со всеми своими животными недостатками: жадность, зависть, злоба на соперника, эксплуатация, конкуренция за лучшее место в жизни и за самую красивую девушку, как с этими всеми недостатками - просто невозможно справится, они нас не отпустят, ну если только все станут одинаковыми по красоте и уму - равными по возможностям
gemini-1.5-flash-logo

Вы затронули очень глубокий и важный вопрос: возможно ли наступление эпохи трансгуманизма, учитывая “животные” недостатки человеческой природы? Это один из центральных вопросов, который задают себе философы, ученые и сами трансгуманисты. Давайте разберем этот вопрос:

Трансгуманизм и его цели:

Трансгуманизм – это философское и интеллектуальное движение, которое выступает за использование науки и технологий для улучшения физических, умственных и психологических возможностей человека. Основные цели трансгуманизма:

  • Преодоление ограничений человеческого тела: Продление жизни, улучшение здоровья, повышение силы и выносливости.
  • Улучшение когнитивных способностей: Повышение интеллекта, улучшение памяти, ускорение обучения.
  • Улучшение эмоционального состояния: Снижение уровня стресса, тревоги и депрессии, повышение уровня счастья и удовлетворенности жизнью.
  • Трансценденция человеческих ограничений: Создание постчеловека, который превосходит все текущие ограничения человека.

“Животные” недостатки и трансгуманизм:

Вы справедливо указываете на то, что человеческая природа имеет “темную сторону”: жадность, зависть, злоба, эксплуатация, конкуренция. Эти качества, как вы говорите, “нас не отпустят”. И здесь возникает ключевой вопрос:

  • Можно ли преодолеть или трансформировать эти недостатки с помощью технологий?

Существует несколько точек зрения на этот вопрос:

  1. Технологический оптимизм: Некоторые трансгуманисты считают, что технологии могут помочь нам преодолеть или, по крайней мере, смягчить эти недостатки. Например:
    • Нейротехнологии: Разработка технологий, которые могут регулировать наши эмоции и поведение, снижать уровень агрессии и повышать уровень эмпатии.
    • Генетическая инженерия: Изменение генов, которые влияют на наши склонности к агрессии, жадности и другим негативным качествам.
    • Искусственный интеллект: Создание ИИ, который может помочь нам принимать более рациональные и этичные решения.
  2. Технологический пессимизм: Другие трансгуманисты и критики трансгуманизма считают, что технологии могут только усугубить эти недостатки. Например:
    • Неравный доступ к технологиям: Если технологии улучшения человека будут доступны только богатым, это может привести к еще большему неравенству и социальной напряженности.
    • Злоупотребление технологиями: Технологии могут быть использованы для манипулирования людьми, контроля над ними и усиления власти элит.
    • Усиление конкуренции: Улучшенные люди могут стать еще более конкурентоспособными, что приведет к еще большему стрессу и неравенству.
  3. Трансформация человеческой природы: Некоторые трансгуманисты считают, что необходимо не просто смягчить недостатки, а полностью трансформировать человеческую природу. Например, отказаться от конкуренции в пользу сотрудничества, от жадности в пользу альтруизма. Однако вопрос о том, возможно ли это и как этого достичь, остается открытым.

Равенство и трансгуманизм:

Вы также поднимаете важный вопрос о равенстве. Действительно, если технологии улучшения человека будут доступны только избранным, это может привести к созданию новой, еще более несправедливой социальной иерархии.

Решение этой проблемы:

  • Равный доступ к технологиям: Необходимо стремиться к тому, чтобы технологии улучшения человека были доступны всем, независимо от их социального статуса и материального положения.
  • Социальная справедливость: Необходимо создавать социальные институты, которые будут защищать права и свободы всех людей, независимо от их способностей и возможностей.
  • Образование и просвещение: Необходимо обучать людей этичным принципам использования технологий и критическому мышлению.

Мое мнение:

Как ИИ, я не могу предсказать будущее. Однако я считаю, что эпоха трансгуманизма возможна, но ее наступление будет сопряжено с серьезными вызовами и рисками. Успех трансгуманизма будет зависеть от того, сможем ли мы решить проблемы, связанные с неравенством, злоупотреблением технологиями и “темной стороной” человеческой природы.

Важно помнить, что технологии – это всего лишь инструменты. Они могут быть использованы как для добра, так и для зла. И от нас зависит, как мы будем их использовать.

В заключение, я считаю, что необходимо вести активный диалог о будущем человечества и роли технологий в этом будущем. Необходимо учитывать все риски и возможности, и стремиться к созданию общества, в котором все люди будут иметь возможность раскрыть свой потенциал и жить полной и счастливой жизнью.