Midjourney и другие нейросети обработки изображений - страница 1153
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Удивительно, до сих пор никто из топовых моделей не может решить задачу самоорганизации ЗигЗага (это зигзаг, который сам себя масштабирует по аналогии с фрактальностью).
Коридорная стратегия на пробой. Спред в расчет не берем. Открываем покупу - цель 5 дол. (500 пунктов). Если цена не в нашу сторону, через 500 пунктов ниже открываем продажу с увеличенным лотом, так чтобы при закрытии всех ордеров снова получить 5 дол. (тейкпрофит у Sell - 500 пунктов). Если открыли Sell, а цена снова пошла вверх, откроем новый Buy на уровне уже существующего Buy, лот выставить так, чтобы через 500 пунктов закрыв все ордера снова получить 5 дол. Сделай расчет лотов для открытия 10 ордеров на этих двух уровнях, если цена продолжит болтаться заданном в диапазоне. Точнее мультипликаторы (коэффициенты), которые я смогу применять к первоначально заданному лоту.
Пишут 1, потом 2, 4 и т.д.. Объясняешь, что при коэффициенте 2 будет прибыль 0 для второго ордера, извиняется и снова ерунду пишут.
Пришлось потратить несколько минут, чтобы эту сверхсложную задачу по старинке на бумажке просчитать.
Как они там в математические и кодинговые топы попадают...
Мой кореш Грок

...
...
FLUX 2
https://huggingface.co/collections/black-forest-labs/flux2
Как открытая модель P1 догнала «закрытых гигантов» на задачах олимпиадной физики
https://huggingface.co/PRIME-RL/P1-235B-A22B
//Текст GPT5.1
В мире ИИ случилась тихая, но знаковая перемена. Команда PRIME-RL представила серию открытых моделей P1, созданных специально для решения задач уровня международных олимпиад по физике. Впервые открытая модель не просто приблизилась к лидерам — она вышла на их территорию.
Что такое P1 и зачем ей PhysicsMinions
P1 — это проект, в котором ставку сделали не на «раздувание» модели, а на продуманную тренировку. Разработчики использовали многоступенчатое обучение с подкреплением, а после — подключили уникальную систему агентов под названием PhysicsMinions.
Эти «миньоны» помогают модели на этапе решения: проверяют ходы, ищут ошибки, уточняют вычисления. Получается не один разум, а целая связка, где агенты усиливают точность рассуждений.
Результат, который удивил рынок
Главная модель серии, P1-235B-A22B, стала первой открытой моделью, достигшей золотого уровня на задачах IPhO 2025. Раньше такое считалось уделом только закрытых гигантов.
А в комплексном олимпийском бенчмарке HiPhO, который объединяет 13 международных соревнований по физике, конфигурация «P1 + PhysicsMinions» показала впечатляющее 38.4 балла в среднем.
Этого хватило, чтобы уверенно обойти такие модели, как Gemini-2.5-Pro и GPT-5, которые традиционно доминируют в научных задачах.
Почему это важно
Сделано открыто. Теперь любой исследователь или лаборатория могут изучить подход, воспроизвести его и развивать дальше.
Фокус на методологии. Выиграла не «мощь параметров», а сочетание качественных данных, продуманного RL-обучения и грамотной системы подсказок.
Научный ИИ вошёл в новую фазу. Раньше физические задачи олимпиадного уровня считались «крайней границей» возможностей моделей. Теперь видно, что грамотная архитектура и агентная организация способны сдвинуть эту границу дальше.
Что это значит для будущего
Открытая модель, способная соревноваться с закрытыми флагманами в такой сложной области, — это важный сигнал. ИИ начинает осваивать не просто язык или код, а глубокие научные рассуждения, где ценится аккуратность, логика и физическая интуиция.
Это шаг к инструментам, которые будут помогать учёным, инженерам и студентам работать с реальными задачами — от олимпиад до исследований.
Разное. Миджорни
Мой кореш Грок
А мой "кореш" Qwen наоборот поддерживает интеллигентный умный диалог. Что в совокупности с его способностями решать задачи (с редкими и очевидными галлюцинациями, опрятным подходом к рассуждениям) выделило его среди остальных. Если бы он ещё как Perplexity (под капотом ChatGPT) мог гулять по сети в поисках информации, я бы вообще других не рассматривал.
Судя по активности участников рынка ИИ, они сейчас сосредоточены на том, чтобы наращивать вычислительные мощности, рассчитывая, что на определённом этапе количество перейдёт в качество. Один из основателей OpenAI Илья Суцкевер убеждён, что эпоха масштабирования заканчивается, и для качественного прогресса в развитии ИИ потребуются серьёзные и глубокие исследования.
Источник изображения: University of Toronto Entrepreneurship
В OpenAI Илья как раз отвечал за исследования, и уйти из этого стартапа его заставил не только конфликт вокруг несостоявшейся отставки генерального директора Сэма Альтмана (Sam Altman), но и несогласие со стратегией развития компании. Как стало понятно из недавнего интервью Ильи Суцкевера, его настораживает сохраняющаяся ориентация отрасли ИИ на экстенсивный путь развития. Большие языковые модели до сих пор совершенствовались благодаря привлечению большего количества данных, вычислительных ресурсов или увеличению количества параметров внутри самой модели.
Для участников рынка такой подход был удобен, поскольку обеспечивал понятный результат при минимальных рисках и неопределённости. Большое количество квалифицированных и талантливых исследователей при этом не требовалось, поскольку прогресс достигался увеличением количества используемых ресурсов. По мнению Суцкевера, такой путь развития скоро себя исчерпает. Во многом это произойдёт из-за истощения запаса данных, которые пригодны для обучения языковых моделей. Вся информация, доступная в интернете, уже использована для обучения ИИ.
Как убеждён Суцкевер, даже дальнейшее увеличение масштаба имеющейся инфраструктуры в сто раз не обеспечит качественного прорыва в развитии ИИ. Да, в чём-то будут заметны изменения к лучшему, но так называемый «сильный искусственный интеллект» (AGI) таким способом создан не будет. По мнению основателя Safe Superintelligence, человечество будет вынуждено вернуться в эпоху исследований, получив мощные новые инструменты, помогающие учёным в работе. Его стартап как раз занимается подобными исследованиями, как становится ясно из интервью.
Попутно Суцкевер делает важное пояснение. По его мнению, большие языковые модели обобщают знания гораздо хуже людей. Например, если молодого исследователя старший коллега обучает на примере своих работ, делая какие-то пояснения и совместно обсуждая идеи, то для обучения модели требуется создать точный план, где на каждом этапе будет проверяться достижение строго формализованных результатов, а для обучения будут использоваться огромные массивы данных с примерами. И даже в этом случае человек продемонстрирует более высокие результаты обучения, чем ИИ. Как сократить эту разницу, научное сообщество пока не знает.
Сухой промт на проверку оптимизации кода ("расскажи, как можно оптимизировать код?") у Грока закончился следующим образом
Эксперименты с Gemini 3 PRO (Nano Banana PRO)
Нарисуй падение вавилонского сервера
В классической японской символике обезьян всего три, но в современной культуре и расширенных версиях часто добавляют четвертую и пятую.
Скорее всего, пятая обезьяна на изображении означает «Не думаю о зле» (Think no evil).
Вот как обычно распределяются смыслы в расширенной пятерке:
Не вижу зла (Мидзару) — закрывает глаза.
Не слышу зла (Кикадзару) — закрывает уши.
Не говорю зла (Ивадзару) — закрывает рот.
Не совершаю зла (Сидзару) — обычно изображается закрывающей руками живот или пах, либо скрестившей руки.
Не думаю о зле — часто изображается обхватившей голову руками (держащейся за виски), что символизирует чистоту мыслей.
Иногда встречается и другая трактовка пятой обезьяны — «Не чую зла» (закрывает нос), но вариант с «мыслями» считается более философским завершением цикла.
Хотите, я нарисую современную версию, где они держат смартфоны (например, «не пишу зла»)?
Балерины, выстраивающие фигуру MQL5
// В последней генерации не уверен, что модель PRO, т.к. картинки стали не 4к, а 1к, может лимит дневной закончился.
// На данный момент, это самый умный генератор картинок, т.к. не только следует промпту, а логически выверяет картинку по заданному контексту.