Midjourney и другие нейросети обработки изображений - страница 986
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
/////////////////////
DeepSeek:
Это ключевой конфликт: капитализм поощряет закрытость (чтобы сохранить монополию на сильные модели), а объективная оценка требует прозрачности.
Возможные пути:
Регулирование (как с GDPR в ЕС): обязать компании проходить независимый аудит моделей перед выходом на рынок.
Децентрализация тестов: генерировать уникальные задачи для каждого теста на лету (например, через алгоритмы или привлечение экспертов).
Краудсорсинговая проверка: пользователи сами создают и валидируют задачи в реальном времени, минуя «слив» в публичное поле.
Этические стандарты: давление научного/технического сообщества на компании через репутационные риски.
Но глобально проблема не решена: пока прибыль важнее открытости, компании будут искать лазейки.
/////////////////////
QWEN:
В условиях капитализма компании часто максимизируют краткосрочную выгоду, «дообучая» модели на всех доступных данных, включая тестовые. Это ведёт к переобучению — модель отлично справляется с известными задачами, но теряет способность обобщать знания на новые данные.
Последствия:
Решение:
Независимый аудит, открытые бенчмарки (например, соревнования на платформах вроде Kaggle) и использование временного разделения данных (тест = будущие, ещё не собранные примеры). Но это требует регуляторного контроля или смены приоритетов бизнеса.
/////////////////////
ЧатГПТ:
Решение в том, чтобы создать независимые, публичные тестовые наборы и процедуры оценки. Это может включать:
Независимые бенчмарки: Создание общедоступных тестов, которые компании не могут «подогнать» под свои модели.
Внешние проверки: Привлечение академических институтов и независимых экспертов для объективной оценки.
Публичные соревнования: Организация конкурсов, где модели оцениваются по единому, общему стандарту.
Такие меры помогут минимизировать проблему «подгонки» тестов и обеспечить объективность оценки.
Они не оцениваются через Accuracy и F1 и уж тем более не участвуют в kaggle :))
И эту бредятину ты c аппетитом хаваешь уже на протяжении пары лет, не только не приобретая знания, но тупея.
QWEN вообще слаб настолько, насколько только можно. Хуже ГигаЧата. Хотя ГигаЧат норм для своих задач. хуже Яндекс ГПТ.Почему-то не хотите отказаться от мысли, что ИИ что-то реально решает :) эти задачи точно так же уплывут и дообучить ЛЛМ на них составит минуты.
Между строчками этого не было. Здесь, наверное, единственный, кто смотрел решения ИИ.
Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий
Midjourney и другие нейросети обработки изображений
fxsaber, 2025.04.04 09:21
Можно щелкнуть на каждую клетку таблицы и посмотреть каждое из четырех решений ИИ. Вот это, действительно, классно. Потому что видны решения и различия в них, в зависимости от попытки (четыре) решить. Каждый раз решение отличается в каких-то местах.
Вчера первый раз попробовал ИИ (по ссылке), потому что сходу можно, без регистраций. Конечно, скормил ему две олимпиадные задачи по математике (и больше ничего). Первую простую решил идеально.
Вторую (тяжелую) якобы решил. Стал подробно читать решение, а это бред на ноль баллов. Если олимпиадник не может решить, он просто останавливается. ИИ же несет бред, который даже слабому олимпиаднику в голову не придет.
круто то, что проверяющий решение может не суметь решить саму задачу, но вполне может проверить предоставленное решение на правильность. Потому что дружит с логикой. Дружит ли ИИ с логикой - большой вопрос, раз бред иногда в решениях выдает.
Вот и напрашивается проверка на логику, которая как раз и сливается ИИ.
Между строчками этого не было. Здесь, наверное, единственный, кто смотрел решения ИИ.
"Дружит ли ИИ с логикой"
Имхо, всякие подобные вопросы возникают от неправильного определения "ИИ". Оно сильно путает, потому что Интеллект ассоциируется с реальными когнитивными процессами, чего напрочь лишены нейросети.
И дальше комок всякой такой путаницы наматывается все больше.
Тема вирусная и бестолковая. Наверное кому-то нужно много времени чтобы это понять."Дружит ли ИИ с логикой"
Имхо, всякие подобные вопросы возникают от неправильного определения "ИИ". Оно сильно путает, потому что Интеллект ассоциируется с реальными когнитивными процессами, чего напрочь лишены нейросети.
И дальше комок всякой такой путаницы наматывается все больше.
Мне плевать, кому принадлежит решение. Если бы мне сказали, что прочитанное мною решение написал человек, то я бы сказал, что автор либо троллил, либо полный идиот.
Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий
Midjourney и другие нейросети обработки изображений
fxsaber, 2025.04.04 09:21
Стал подробно читать решение, а это бред на ноль баллов. Если олимпиадник не может решить, он просто останавливается. ИИ же несет бред, который даже слабому олимпиаднику в голову не придет.
Мне плевать, кому принадлежит решение. Если бы мне сказали, что прочитанное мною решение написал человек, то я бы сказал, что автор либо троллил, либо полный идиот.
Последний раз: нейросеть ничего не решает, а выдает готовый, заранее выученный результат.
Мне неизвестно, почему языковые модели могут решать математические задачи, как это делает хорошо подготовленный человек.
Осознание того, что ИИ выдал правильное решение сложной задачи, меня будоражит каждый раз. Почему для решения математической задачи не требуется логика - для меня загадка. Но LLM справляется с той же Гарвардской олимпиадой и это факт. USAMO - пока не тянет. Обучить ее решать USAMO нельзя (давая задачи и решения), потому что проверка идет на новых задачах, которых единицы в год. Нет материала, чтобы дообучить. Можно только что-то качественное в самой нейросети или подходах обучения изменить. База данных мат. литературы (включая задачи и их решения) очень маленькая (относительно болтологии и медиа), даже с учетом еще не оцифрованных/переведенных/адаптированных источников.
Мне неизвестно, почему языковые модели могут решать математические задачи, как это делает хорошо подготовленный человек.
Осознание того, что ИИ выдал правильное решение сложной задачи, меня будоражит каждый раз. Почему для решения математической задачи не требуется логика - для меня загадка. Но LLM справляется с той же Гарвардской олимпиадой и это факт. USAMO - пока не тянет. Обучить ее решать USAMO нельзя (давая задачи и решения), потому что проверка идет на новых задачах, которых единицы в год. Нет материала, чтобы дообучить. Можно только что-то качественное в самой нейросети или подходах обучения изменить. База данных мат. литературы (включая задачи и их решения) очень маленькая, даже с учетом еще не оцифрованных/переведенных/адаптированных источников.
Как вам неизвестно, если я написал, что эти данные для нее были подготовлены и она была на них обучена?
Меня не интересует некомпетентное мнение в вопросах мат. задач, когда обучение на них выдают за обучение на текстах и медиа, данных по которым в десятки тысяч больше.
Математика - это не раздел BigData.