Midjourney и другие нейросети обработки изображений - страница 814
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вопросы полезности - вторичные.
Однако.
Пример общественной полезности для таких - самовыпиливание.
Однако.
Пример общественной полезности для таких - самовыпиливание.
Не совсем понятно, в чем состоит контраргумент и что в принципе оспаривается
Кто-то считает, что для вас, как для части общества, было бы полезно, если бы он мог посмотреть по своей фотке, как будет смотреться в куртке. До какого уровня полезности нужно дойти, чтобы такие мысли приходили в голову...
Кто-то считает, что для вас, как для части общества, было бы полезно, если бы он мог посмотреть по своей фотке, как будет смотреться в куртке. До какого уровня полезности нужно дойти, чтобы такие мысли приходили в голову...
Наверное, она относится к "китайской комнате" и одновременно к дефициту обучающей информации для языковых моделей:
Если все логические задачи скормить чату, как его проверять на логику?
Сейчас заметил, что чат отвечает по типу: "Это классическая логическая задача...". То есть, он их знает.
Знает или понимает? Риторический вопрос.
Видимо, единственный вариант - это проверка онлайн, в какой-то насущной задаче.
Любопытная проблема
Наверное, она относится к "китайской комнате" и одновременно к дефициту обучающей информации для языковых моделей:
Если все логические задачи скормить чату, как его проверять на логику?
Сейчас заметил, что чат отвечает по типу: "Это классическая логическая задача...". То есть, он их знает.
Знает или понимает? Риторический вопрос.
Видимо, единственный вариант - это проверка онлайн, в какой-то насущной задаче.
Кажется, удалось подловить, причём дипсинк тоже попался, но есть нюанс
ЧатГПТ
Дипсинк
Правильный ответ: той рукой, в которой находится ложка.

Поскольку вопрос не выбор между ложкой и рукой, а выбор между руками.
Тут мне больше понравились рассуждения Дипсинк, которые я не стал вставлять, в них промелькнула такая строчка
Любопытная проблема
Наверное, она относится к "китайской комнате" и одновременно к дефициту обучающей информации для языковых моделей:
Если все логические задачи скормить чату, как его проверять на логику?
Сейчас заметил, что чат отвечает по типу: "Это классическая логическая задача...". То есть, он их знает.
Знает или понимает? Риторический вопрос.
Видимо, единственный вариант - это проверка онлайн, в какой-то насущной задаче.
Любопытно, да.
Вот мы находимся на форуме программистов, а в программировании белыми нитками писано - используй готовые шаблоны кода. Существуют несметные количества классов и библиотек, принято брать готовое не тратя на новое писание время. Люди, использующие библиотеки, понимают или знают? А те, которые пишут собственные библиотеки (велосипеды), понимают или знают?
Ок, далее. Все мы знаем очередность действий в математике, но это понимание или знание? - люди действуют согласно предписанных ранее инструкций и ни как иначе, ибо иначе будет неверно.
Поэтому, когда мы видим простую запись "a*b+c=d", мы говорим - "ага! мы это знаем со школы, это та фигня...". Люди действуют и думают четкими шаблонами со школы, которые им дали.
Самое интересное в другом - знание людьми заученных шаблонов (чем больше, тем лучше) и комбинирование оных в конструкции более высокого порядка, воспринимается ими же как "понимание". На самом деле это всё те же паттерны, шаблоны, заученные ранее.
В силу своих интересов и рода деятельности я много сталкиваюсь с различными алгоритмами - предписанными последовательностями действий для определённых целей. Когда мы видим что-то, инструкции или код, мы либо говорим "это похоже на то-то", либо "я этого никогда не видел ранее". Так проискходит, когда я спрашиваю чат, видел ли он ранее подобный код? Понимает ли он смысл кода? - в подавляющем большинстве случаев чат верно говорит, что это тот-то алгоритм, даже если он написан иными переменными и закручен намерянно и изменён. Понимание это или знание? Но, недавно я столкнулся с таким явлением, чат не смог "вспомнить" ничего из того, что он знает, когда я предоставил ему свой код алгоритма, он верно описал логику алгоритма и воскликнул что-то типа "ого! какая крутая идея! давно ли вы занимаетесь этой темой и как пришли к подобному решению? А скажите, пробовали ли вы применить такой подход ... и сделать это?" - при том, что чат обучен на миллиардах разичных примерах, способный определить тип задачи или алгоритма даже если он изменен. Значит, он увидел нечто, что действительно новое. Как поступают люди в этом случае, если видят то, чего не видели ранее никогда? - ну, тоже удивляются. При этом он задает вопросы совершенно по теме и к месту.
Я ни разу не видел, чтобы чат мог самостоятельно придумать совершенно новый алгоритм, способный конкурировать с наилучшими алгоритмами. Предпринимал множество попыток, но получалось только что-то посредственное в лучшем случае. Да, он делал многочисленные комбинации известных алгоритмов, но не сделал ничего действительно нового. Хорошо, но много ли людей способны придумать действительно новый алгоритм? - это риторический вопрос.
Людей очень много, больше 9млрд, это огромное число, тут просто играет закон больших чисел. При наличии больших накопленных знаний, обязательно наёдется тот, кто сгенерировав очередную чушь, которая так и воспринимается большинством, оказывается прав, и "чушь" оказывается новым открытием, основанным на предыдущих знаниях. В данный момент моделей LLM настолько мало, что говорить о генерации такой полезной "чуши" не приходится, получается только обычная новая чушь, которую генерируют обычные люди. Вот когда будут созданны миллиарды уникальных конфигураций моделей, со своими уникальными весами, тогда начтнут появлятся открытия, сделанные элэлэлками.
И, опять же, что значит "новое"? То, что человечество никогда не знало, но оказалось лишь комбинацией менее существенных, но известных ранее деталей? Просто вопросы для подумать. Во вселенной не существуют новых открытий или знаний, есть только то, что нам предстаит узнать для себя (или понять?).
...
Мне самому не нравятся понятийные категории по типу "понимание" и "сознание".
Но, здешние и не только по-другому отказываются или не хотят размышлять, остаётся общепринятыми оперировать.
Более предметные размышления возможны только после раскрытия некой структуры информации, без божественных привязок к человеку и тд. Какое-то обособленное знание, когда полностью раскрывается явление информации и обработчика информации. И от них уже плясать - что есть что и куда двигаться.
Я пока не нашёл ресурсов, где подобное как-то глубинно и структурно разбиралось/строилось.
Люди всё ещё дискутируют как-то абстрактно и субъективно. Даже в той же китайской комнате контраргументы - просто замечания, никакого ответного разбора вопроса. Вот система, а это не система. Бла-бла.
Или заходишь в хабр. Там статья "Новые исследования архитектуры КОлмагорова-Арнольда". И где-то вначале статьи "Математикам пришла в голову мысль: а что если применить не 2... а 3 слоя!". Господи. А чё не четыре?
Философия исследования ходит где-то в сторонке. Как будто дали игрушку детям и говорят: вот песочница, в ней играйте. И они строят что-то, но только в этой песочнице, вылезть не могут, да и не собираются, ведь фундаментально сказали им - только здесь.
Я ни разу не видел, чтобы чат мог самостоятельно придумать совершенно новый алгоритм, способный конкурировать с наилучшими алгоритмами. Предпринимал множество попыток, но получалось только что-то посредственное в лучшем случае. Да, он делал многочисленные комбинации известных алгоритмов, но не сделал ничего действительно нового. Хорошо, но много ли людей способны придумать действительно новый алгоритм? - это риторический вопрос.
Твой пост лайкнул, по делу. Если касаемо кода, лучше сразу выбирать думающие модели. Например DeepSeek R1 (режим размышления) против DeepSeek v3, который на уровне GPT4o в 2 раза лучше пишет код! В два.
o3, которые все ждут, на уровне мировых топов в программировании.
То, что режим размышления бустит качество кода минимум в 2 раза, уже повод поразмышлять (оцените юмор))
Если в этом деле продолжаешь изучать, как ИИ программирует, то лучшее из доступного https://chat.deepseek.com/ с включенным режимом DeepThink.
Если нужно проанализировать код размером с книгу, то вот второй китайский ИИ с контекстом 4млн - https://www.hailuo.ai/, что в 2 раза выше рекордного Gemini.
Не исключаю, что третий китайский игрок LLM пишет неплохой код, также выбираем думающую модель QWQ - https://chat.qwenlm.ai/
Я уже давал прогноз, что в этом году будет полноценный OpenSource ИИ программист, который уделает большинство профи.
Хуньюань 3D от компании Тенсент обновился до v2. Да, это OpenSource - https://github.com/tencent/Hunyuan3D-2?tab=readme-ov-file
Согласно всем приведённым тестам, это лучшая модель генерации 3D моделей высокого разрешения, превосходящая конкурентов с открытым и закрытым кодом.