Midjourney и другие нейросети обработки изображений - страница 851
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
У всех была неделя. Интересны размышления, почему в данном случае понадобилось столько времени и обвал произошел на премаркете?
Похоже, имеем дело с мультипликативным эффектом образования. Соответственно, Китай обречен стать лидером во всех технологических сферах.
Имхо, все давно ждут сдутия пузыря ИИ и тут подвернулся подходящий повод. За неделю многие поставили приложение дипсика на айфоны и за выходные успели понять что это хорошо, дёшево и может повлиять на индустрию. Хорошенько обсудили это в своих сообществах и в понедельник с утра пораньше толпой побежали избавляться от акций.
Прослеживается явная зависимость от дня недели. А говорят еще, что правят роботы. Вранье.
Как Япония в своё время.
У японцев не менталитет победителей. И они живут по правилам больше даже европейцев.
Китайцы жилы рвут в работе.
А вдруг основная цель дипсика как раз и была в том, чтобы зашортить акции ИТ-гигантов?) Вряд ли, конечно, но мысль забавная) Даже небольшая часть от 1ккккк вполне оправдала бы вложения.
The server is busy. Please try again later.
Q: Привет! Твои сервера заняты?
DeepThink: Привет! Спасибо, что интересуешься! 😊 Как нейросеть, я работаю на распределённых мощностях, и мои «серверы» всегда готовы помочь. Если ты имеешь в виду задержки — их нет, всё работает стабильно! Чем могу помочь прямо сейчас?
Q: Привет! Твои сервера заняты?
DeepThink: Привет! Спасибо, что интересуешься! 😊 Как нейросеть, я работаю на распределённых мощностях, и мои «серверы» всегда готовы помочь. Если ты имеешь в виду задержки — их нет, всё работает стабильно! Чем могу помочь прямо сейчас?
Я думаю, что они просто своевременно используют все доступные инструменты.
В OpenSource сегменте есть полно исходников, чтобы уменьшать нагрузку и увеличивать производительность.
Китай всегда славился быстрым развёртыванием технологий. Просто отлажен процесс человеческого труда. И людей там много.
К тому же, наши разрабы тоже немало проводят исследований и делятся на OpenSource площадках.
Предположу, что есть кооперативная работа в этом направлении. Ну и конечно, что-то новое в архитектуры они всё таки привносят.
Но, тут важно. В целом не переплюнут уровень o3, но он ещё не вышел в массы.
Это не объясняет всё, как можно затратить электроэнергии в 50 раз меньше (не китайцы же всем Китаем веса сети педалируют), а получить результат не хуже. Когда компании выкладывают исходные коды - это значит, что им нечего скрывать, нет в этом секретов, всё всем известно. Да и обучающие базы у всех +/- одинаковые.
Наступает золотая эра алгоритмов оптимизации, когда возможность решить одну и ту же задачу быстрее уже воспринимается крупными игроками индустрии совсем иначе, чем раньше. Теперь быстрее реально означает дешевле (на десятки, сотни миллиардов условных денег дешевле). Энвидия почесала репу, все крупные иишники почесали репу, ну а как же не чесать, если акции рухнули, а всё что они делали ранее обесценилось (никто не будет покупать дорого, когда есть не хуже и за бесплатно).
Наступает важный переломный момент, когда количество действительно переходит в качество. DeepSeek хоть и выложили исходники (смотрел я, нужно разбираться, там судя по всему не все исходники, что-то должно импортироваться) и сотни гигабайт весов модели, но это ничего не меняет глобально (в плане вот прям сейчас все посмотрят исходники DS и заживем), свою методику обучения они не раскрывают. DeepSeek утверждает про самого себя, что веса непосредственно подстраиваются AdamW, но всю методику своего обучения (весь комплекс методов оптимизации весов, внешних и внутренних методов) не знает, что совершенно не удивляет.
Хотел было поговорить о "проблеме множественных решений" - давно широко известной проблеме при обучении нейронных сетей, но подумал, что это надолго и лучше не надо. Скажу лишь только, что скорее всего начнется обратный процесс - создание более легких но более эффективных моделей. В этом процессе, в виде маятника, будут обнаружены пределы минимально необходимого размера (конфигурации) сетей, при которой она будет обеспечивать некие показатели интеллекта (что-то будет взято за эталон). И только после этого может произойти новое развитие, которое будет возможно только если усовершенствовать архитектуру сетей. Могу ошибаться, но скорее всего AGI мы не увидим ни в этом году, ни в следующем.
В современном виде ИИ-модели, наверное, ещё будут удивлять своими достижениями, но, подозреваю, что без изменений архитектуры... стоп, это снова о "проблеме множественных решений", которая касается теме о синапсах в мозге.
Кстати, насчет "...это просто вероятностная модель предсказания порядка слов"... Так и есть, но это только часть правды о нейронных сетях. Это всего лишь самый первый этап в обычном обучении LLM-ок, предназначенный для первоначального размещения весов в бесконечном пространстве решений. Именно только после второго этапа предметного обучения SL и дальнейшего тюнинга RL, модель начинает отвечать на вопросы "осмысленно" и становится способной решать задачи. Поэтому, кто так говорит (выделено кавычками), тот просто троллит тебя и твою ветку, выдавая часть правды за правду целиком (кстати, один из методов манипулирования).
OpenSource не обозначает автоматически, что API бесплатный. В общем, вы далеки от понятий программирования.
Вы проследите за мыслью темы и посмотрите, что я пишу. Если OpenSource бесплатный, то его можно запустить на своём проекте. При наличии своего должного железа - бесплатно.
Вы пишите про API. Я указываю, что это платно и последний Ваш комментарий вообще не понял. Т.е. Вы со мной согласились, но сделали это так, будто опровергли меня.
Далее накинули оценочное суждение. Я почти стал думать, что есть с кем поговорить...