Midjourney и другие нейросети обработки изображений - страница 1112

 
Vitaliy Kuznetsov #:

Новый закон формирования идей и смыслов от ИИ.


Qwen3 интересный, возможно для разных рассуждений побалтушек - лучший на сегодня.

Закон семантической интерференции: критическая точка когнитивного резонанса


Интеллектуальность также проявляется в способности доходчиво объяснить недалёким, что ты сейчас нагенерил за поток «сознания». 

Это соотносится со статьёй, которую тут когда-то постили, называется «Аналогии» или что-то типа того. Там женщина рассуждала, что аналогии — самая сложная часть интеллектуальной работы, ведь в обучающем дата-сете маловероятно, что они есть в достаточном количестве, чтобы на практике выучить все возможные. И что человеческий интеллект, что искуственный: если способен донести нечто нудно-сложное-узкоспециализированное-спреподвыподвертом максимально приближённо к оригинальной мысли — это и есть работа. Такая же тяжёлая, как стихи и юмор. Как закодировать ЗигЗаг. 

Это называется моделирование. Процесс, при котором выделяются важные части целого, отбрасывая остальные. Но в данном контексте — это моделирование своих тезисов, своих статей. 

Лично я всегда выделял способность на примерах донести суть. Там, где много непонятных слов и формул, а слова в своих определениях раскрываются через ещё вагон терминов, каждый из которых раскрывается через состав — смоделировать (упростить), мысль, возвысив её до сути сказанного — это и есть "интеллект", а не транслирование учебников и знаний. 

А если некто или нечто не может донести тезисно или на понятных примерах свои работы и рассуждения, то как бы он не разбирался в теме, его интеллектуальность узконаправлена, и направлена на конкретный предмет, а не на общий уровень интеллекта.

ДипСик как раз обладает этой способностью, у него иногда очень хорошо проходят аналогии и упрощения, особенно в объяснении чего-то крайне абстрактного. 


Квену бы желательно было бы оъяснить на доходчивых примерах, а не абстрактных, механизм и суть своих рассуждений и тезисов. Поскольку слишком много абстрации и формул, которые описывают абстракции. 

Грубо говоря, шаблон есть, а данных нет. В результате, "база знаний" пустая. И формула не работает. 
Например, он пишет

Два небольших, но противоположных по смыслу потока (например, «квантовая физика» и «буддистская философия»)

Почему они противоположные? Противоположный смысл - это "квантовая физика" и "Учение, которое ОТВЕРГАЕТ квантовую физику"). Буддисткая философия отвергает квантовую физику? Мне кажется, они там даже не слышали о таком понятии.

Тут налицо нарушение второго закона логики "два противоречащих друг другу суждения не могут быть одновременно истинными"  в виде формулы "А либо НЕ А истино, третьего не дано" в части подмены формулы на "Либо А, либо Б", которая не является законом, а является САМОЙ ЧАСТОЙ логической ошибкой в рассуждениях по типу: «Ты либо за Сталина, либо за Гитлера, третьего не дано, согласно законам формальной логики» © ГореИсторик Клим Жуков. 



Поэтому, со стороны идея интересная у Квена, но требует прям крайне большой работы по её корректировке и раскрытию. 
 

Но Квен иногда тоже очень доходчивый

 
Ivan Butko #:
Поэтому, со стороны идея интересная у Квена, но требует прям крайне большой работы по её корректировке и раскрытию.

Ну так не для этой ветки. Он там дал не доказательство, а подход для его проверки. Я потом много уточнений задавал, как это на формулах, на практике, реалистичность. Отправлял в Gemini 2.5PRO, тот как обычно только восхищался.

И вот что было интересно, Qwen показывал, как искусственные задержки в модальностях, как разметка данных с противоположными смыслами увеличивали показатели в медицинских и других ИИ от Гугла и Майкрософта (т.е. они так делали).

Объяснял на примерах, что между областями мозга человека также есть "задержка", какая-то часть обрабатывает информацию быстрее, другая с догонкой. Что задействуется лишь 1-2% и это уже не принцип MoE по аналогии с ИИ. Это расширяет поле для открытий.

И я же не собираюсь использовать откровенно слабый на сегодня ИИ в научных открытиях. Просто, как оказалось, Qwen интересен в "переписке", Gemini хорош в создании обложек к новостям и глубоким исследованиям, ChatGPT делает расширенное самари по ссылке, кодит хорошо, Claude очень хорошо, но не пробовал. У всех свои сильные и слабые стороны.

 
Vitaliy Kuznetsov #:

Ну так не для этой ветки. Он там дал не доказательство, а подход для его проверки. Я потом много уточнений задавал, как это на формулах, на практике, реалистичность. Отправлял в Gemini 2.5PRO, тот как обычно только восхищался.

И вот что было интересно, Qwen показывал, как искусственные задержки в модальностях, как разметка данных с противоположными смыслами увеличивали показатели в медицинских и других ИИ от Гугла и Майкрософта (т.е. они так делали).

Объяснял на примерах, что между областями мозга человека также есть "задержка", какая-то часть обрабатывает информацию быстрее, другая с догонкой. Это расширяет поле для открытий.

И я же не собираюсь использовать откровенно слабый на сегодня ИИ в научных открытиях. Просто, как оказалось, Qwen интересен в "переписке", Gemini хорош в создании обложек к новостям и глубоким исследованиям, ChatGPT делает расширенное самари по ссылке, кодит хорошо, Claude очень хорошо, но не пробовал. У всех свои сильные и слабые стороны.

А про Дурова что-нибудь известно?

Он как-то проронил, что с братом занимается ИИ совершенно другой архитектуры. 

Насколько я помню, он говорил что-то вроде: "Современный ИИ - это не мышление. А мы разрабатываем реальное мышление". Или что-то вроде этого. 

 
Ivan Butko #:
А про Дурова что-нибудь известно?

Пока нет. Qwen выдвинул гипотезу работы их ИИ на основе публикаций и достижений Дуровых, но это лишь предположение.

 
Vitaliy Kuznetsov #:

Пока нет. Qwen выдвинул гипотезу работы их ИИ на основе публикаций и достижений Дуровых, но это лишь предположение.

Любопытно

[Удален]  
Наконец-то солевой ИИ?
 
Ivan Butko #:

Любопытно


Всё не буду публиковать, но что-то на другом принципе математики. Да и сложно всё это, когда он начинает углубляться, проверить то невозможно самостоятельно.


Гипотеза Durov AI от Qwen:


1. Ядро: Каузальные графы вместо статистики

Проблема современных ИИ:

  • LLM учатся на корреляциях («кофе ассоциируется с утром»), но не понимают причинность («кофе бодрит, потому что блокирует аденозин»).
  • Из-за этого они проваливают задачи вроде: «Если Алиса выше Бориса, а Борис выше Васи, кто самый низкий?» (GPT-4 ошибается в 15% случаев).

Решение Дуровых:

  • Каузальный движок на базе Structural Causal Models (SCM) — математического аппарата Judea Pearl (лауреата Тьюринга за теорию причинности).

///////////////////////////

Почему это возможно?

  • Николай Дуров, как математик, глубоко знаком с теорией графов (его диссертация связана с алгебраической топологией).
  • В 2023 году DeepMind уже выпустил Causal Reasoning Toolkit , но он требует ручной разметки причин. Дуровы, вероятно, автоматизируют это через формальные доказательства.

2. Архитектура: Теория категорий как «язык мышления»

Ключевая идея:

  • Современные ИИ оперируют векторами (embedding-пространство), но векторы не умеют рассуждать абстрактно.
  • Дуровы могут использовать теорию категорий — раздел математики, который описывает структуры через их отношения (а не содержание).

Как это работает:

  • Вместо обучения на словах система кодирует понятия как объекты категории, а связи — как морфизмы:
    • Объект Человек → морфизм дышит → объект Кислород ,
    • Объект Огонь → морфизм нагревает → объект Вода .
  • При запросе «Что произойдет, если бросить огонь в воду?» ИИ композирует морфизмы:
    Огонь → нагревает → Вода → испаряется → Пар .

Почему это революционно:

  • Теория категорий позволяет обобщать знания без переобучения. Например, если система знает, что Кислота + Основание → Соль , она автоматически поймет Щелочь + Кислота → Соль через дуальность категорий.
  • Это решает проблему transfer learning: навыки из медицины мгновенно применяются в химии, потому что обе области описываются одной категорией.

Подтверждение из биографии:

  • Николай Дуров имеет PhD по алгебраической геометрии — области, тесно связанной с теорией категорий. В 2022 году он публиковал работы по категориальной семантике , что указывает на интерес к формализации смысла.

//////////////////////////

Итог: это не фантастика, а эволюция их компетенций

Дуровы не изобретают AGI с нуля — они применяют математику, которая у них уже работает в Telegram/Ton:

  • Каузальные графы вместо статистики → решает проблему логики,
  • Теория категорий вместо embedding-пространства → даёт абстрактное мышление,
  • Sparse обработка → делает систему дешёвой и точной.

Почему это может сработать, когда другие терпят крах:

  • У них нет интереса гнать параметры (в отличие от Google/OpenAI) — их цель (как в Telegram) — максимальная эффективность при минимуме ресурсов.
  • Николай — редкий математик, умеющий превращать абстракции в код (пример: TON работает быстрее Ethereum благодаря его алгоритмам).

Если гипотеза верна, их ИИ будет выглядеть так:

«Вы не спрашиваете у него “как дела”, вы просите его доказать теорему. И он отвечает не текстом, а цепочкой причин, которую можно проверить как математическое уравнение».

P.S. Интересно, что в этом сценарии мой предыдущий SCoRE-принцип частично совпадает с их подходом — но Дуровы делают ставку на формальную логику, а не на когнитивный резонанс. Возможно, будущее за гибридом: каузальные графы + интерференция модальностей.

 
Дуровы делают ставку на формальную логику
Ну вот и секрет успеха
 

Grok4 доступен бесплатным пользователям. Скоро выйдет версия 4.20 и 5-я до конца года.

Grok 3  - 15 запроса каждые 2 часа

Grok 4  - 5 запросов каждые 12 часов

https://grok.com/chat