Midjourney и другие нейросети обработки изображений - страница 810

[Удален]  
Провел детство на юге, где росло все и "суперфуд" валялся под ногами (не тепличный, а натуральный) на своем участке и во дворе. Не сказать, что местные восхищались какой же он суперфуд, а готовили обычную еду :)
И у нормальных людей это называлось фрукты и овощи, а также прочая ботва 
 
Maxim Dmitrievsky #:
Провел детство на юге, где росло все и "суперфуд" валялся под ногами (не тепличный, а натуральный) на своем участке и во дворе. Не сказать, что местные восхищались какой же он суперфуд, а готовили обычную еду :)
И у нормальных людей это называлось фрукты и овощи 

Живу на юге, где растёт всё.
Табуретку неаккуратно поставишь - она корни пустит! ))

Веселит, когда приезжие кидаются на ещё не зрелые овощи, фрукты и грецкие орехи )))
[Удален]  
moskitman #:

Живу на юге, где растёт всё.
Табуретку неаккуратно поставишь - она корни пустит! ))

Веселит, когда приезжие кидаются на ещё не зрелые овощи, фрукты и грецкие орехи )))
Это приезжие миллионеры 
 
moskitman #:


Веселит, когда приезжие кидаются на ещё не зрелые овощи, фрукты и грецкие орехи )))

Я в учебке был в Николаеве, на территории части росли грецкие орехи. Они сначала были зелёные, потом зеленые и потом всё ещё зелёные, а потом сразу никаких )

Кстати, грецкие орехи растут и вызревают даже в Питере!
 
moskitman #:

Живу на юге, где растёт всё.
Табуретку неаккуратно поставишь - она корни пустит! ))

Веселит, когда приезжие кидаются на ещё не зрелые овощи, фрукты и грецкие орехи )))


А что овощи растут где попало? Или ломятся в чужой огород сорвать. 

 
JRandomTrader #:

Я в учебке был в Николаеве, на территории части росли грецкие орехи. Они сначала были зелёные, потом зеленые и потом всё ещё зелёные, а потом сразу никаких )


Из орехов грецких вкусное варение, когда они ещё молодые без твёрдой скорлупы.

 
Maxim Dmitrievsky #:
Это приезжие миллионеры 

Приезжие миллионеры едут на побережье в мае-июне, у них ведь как: если лёд удаётся пробить пяткой, то вода считается тёплой... )))

[Удален]  
moskitman #:

Приезжие миллионеры едут на побережье в мае-июне, у них ведь как: если лёд удаётся пробить пяткой, то вода считается тёплой... )))

😁
 

DeepSeek выпускает в открытый доступ конкурента o1 - Рассуждающая модель DeepSeek-R1

Запустить локально полную версию на домашнем компе не получится, но есть и маленькие дообученные модели конкурентов, исходники - https://github.com/deepseek-ai/DeepSeek-R1?tab=readme-ov-file

Мы представляем наше первое поколение моделей рассуждений, DeepSeek-R1-Zero и DeepSeek-R1. DeepSeek-R1-Zero, модель, обученная с помощью крупномасштабного обучения с подкреплением (RL) без предварительной тонкой настройки под наблюдением (SFT), продемонстрировала замечательную производительность в рассуждениях. Благодаря RL, DeepSeek-R1-Zero естественным образом получила множество мощных и интересных моделей рассуждений. Однако DeepSeek-R1-Zero сталкивается с такими проблемами, как бесконечные повторения, плохая читаемость и смешение языков. Для решения этих проблем и дальнейшего повышения эффективности рассуждений мы представляем DeepSeek-R1, который включает в себя данные холодного старта перед RL. DeepSeek-R1 достигает производительности, сравнимой с OpenAI-o1, в задачах математики, кода и рассуждений. Чтобы поддержать исследовательское сообщество, мы выложили в открытый доступ DeepSeek-R1-Zero, DeepSeek-R1 и шесть плотных моделей, полученных из DeepSeek-R1 на основе Llama и Qwen. DeepSeek-R1-Distill-Qwen-32B превосходит OpenAI-o1-mini в различных бенчмарках, достигая новых передовых результатов для плотных моделей.

//возможно скоро добавят в уже полюбившийся всем чат (сейчас там V3, хотя если кликнуть "рассуждения", может и будет R1) - https://chat.deepseek.com/


 

«Синтаксис никогда не может породить семантику» или философия китайской комнаты


Китайская комната — это мысленный эксперимент, предложенный Джоном Сёрлом в 1980 году, который демонстрирует, что выполнение задач с использованием алгоритмов (манипуляция символами) не является эквивалентом подлинного понимания смысла (семантики). Эксперимент показывает, что даже если система может успешно имитировать понимание, как это делают компьютеры, она не обладает сознанием или истинным осознанием происходящего.

Ситуация:
  1. Человек в комнате:

    • В комнате сидит человек, который не знает китайского языка.
    • У него есть инструкция на понятном ему языке (например, английском), где подробно расписаны правила, как реагировать на любые символы китайского языка.
    • Пример инструкции: «Если ты видишь символ 你 , вместе с символом 好 , выпиши символы 我 и 好 ».
  2. Вход и выход:

    • Через щель в стене человек получает вопросы, написанные на китайском.
    • Следуя инструкциям, он сопоставляет символы, записывает нужные ответы (также на китайском) и передаёт их обратно через щель.
  3. Иллюзия понимания:

    • Для наблюдателя снаружи человек «владеет» китайским, ведь его ответы правильны.
    • Но сам человек не понимает ни вопросов, ни своих ответов — он просто манипулирует символами по заданным правилам.

Аргумент Сёрла:
  1. Компьютеры — это китайская комната:

    • Сёрл утверждает, что цифровые компьютеры работают как человек в комнате: они манипулируют символами (единицами и нулями) по заданным программам, не понимая смысла этих данных.
  2. Понимание vs. выполнение:

    • Хотя компьютеры могут успешно имитировать поведение, похожее на человеческое (например, поддерживать разговор), это не означает, что они действительно понимают, о чём идёт речь.
    • Сёрл проводит чёткое различие между синтаксисом (правилами манипуляции символами) и семантикой (смыслом).


Главный аргумент:

Компьютеры, выполняя алгоритмы, могут казаться умными и понимать язык, но на самом деле они этого не делают. Они просто следуют инструкциям, как и человек в китайской комнате. Настоящее понимание требует чего-то большего, чем просто выполнение синтаксических правил — возможно, сознания или опыта.




А теперь критика

1. Системный ответ:
  • Аргумент Сёрла критикуется за игнорирование всей системы. Человек в комнате не понимает китайский, но понимание может быть свойством всей системы: человек + правила + база данных.
  • Добавление системы ничего не меняет, поскольку понимание — это качество субъекта, а не распределённой конструкции.
2. Мозг как китайская комната:
  • Мозг человека тоже манипулирует электрическими сигналами, не "понимая" ничего напрямую. Как тогда сознание возникает из этих процессов?
  • Сторонники искусственного интеллекта утверждают, что сознание может быть результатом сложной обработки информации, как и в компьютере.
3. Интуитивная ловушка:
  • Некоторые критики считают, что "непонимание" оператора в комнате не означает, что понимание невозможно. Эксперимент апеллирует к интуиции, но интуиция может быть обманчива.
  • То, что человек не понимает символов, не исключает, что более сложная система на их основе может развивать осмысленное поведение.
4. Проблема объективной проверки:
  • Вопрос "понимания" и сознания остаётся субъективным. Мы не можем доказать, что даже другие люди понимают мир так же, как мы. Как тогда оценивать "понимание" компьютеров?
5. Аргумент о функциональности:
  • Важно не то, как достигается понимание, а то, что система ведёт себя как понимающая. Если китайская комната выполняет задачи так, как это сделал бы понимающий человек, разве это не то же самое?
6. Недооценка возможных технологий:
  • Аргумент Сёрла применим к современным компьютерам, но он мог недооценить будущие формы искусственного интеллекта, которые могут быть устроены иначе (например, на основе нейроморфных вычислений).


Итог:

«Китайская комната» критикует сильный искусственный интеллект — идею о том, что компьютеры могут не просто решать задачи, но и обладать разумом, как человек. Аргумент Сёрла задаёт вопрос: могут ли компьютеры вообще достичь понимания, или они всегда будут оставаться просто инструментами для манипуляции символами?

Китайская комната показывает различие между синтаксисом (манипуляцией символами) и семантикой (пониманием смысла). Однако критики указывают, что это различие не обязательно исключает возможность создания сознательных машин. Главная слабость аргумента — это предположение, что синтаксис никогда не может породить семантику, хотя механизм появления сознания до сих пор остаётся неизвестным.