Midjourney и другие нейросети обработки изображений - страница 855
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Это сырые данные, а не данные для обучения
Замерялась эрудированность ИИ (которые без выхода в интернет)?
Замерялась эрудированность ИИ (которые без выхода в интернет)?
Тогда это не OpenSource, а черный ящик. Это как выложить в КБ советник с ONNX-файлом.
Почему же черный ящик, исходный код нейронной сети (справедливости ради нужно сказать, что я смотрел эти файлы, там есть питонский запускаемый файл, но кода самой нейронки я не увидел, там есть какие-то импортируемые библиотеки, которые непонятно где можно посмотреть).
Это тоже самое, если я выложу здесь исходный код на MQL5 своей нейронки, код которой занимает 200 строк кода и бинарный файл с весами на террабайт). Такие вот современные LLM - описание логики, реализованной в коде, занимает 50 килобайт, а веса для них - террабайты.
Поэтому выше говорил, что исходный код DeepSeek ничего особенно не стоит, это известная всему миру архитектура и логика кода, ценны веса для нейронки.
А посмотреть содержимое этих гигабайтных файлов весов ничего не даст так же, как если посмотреть значения синапсов мозга любого из здесь присутствующих - будет выглядеть как данные в виде белого шума.
Что такое ИИ?
Да просто складывается впечатление, что знает ответы на все неспециализированные вопросы.
Массивная книга в сжатом виде занимает 250 Кб. Соответственно, в гигабайте 4000 книг. В 250 гигабайтах миллион полноценных массивных книг.
Очевидно, что ИИ не использует алгоритмы сжатия без потерь, поэтому 250 гигабайтов могут содержать информацию до 10-ти миллионов книг.
Утверждается, что всего людьми было написано 130 миллионов книг. Тогда почему поднимается вопрос нехватки данных для обучения?
Веса сети LLM имеют чудовищный запас ёмкости, а значит, чудовищное количество степеней свободы, поэтому могут вмещать всё, что написало когда-то человечество и ещё сотни раз столько же. Человеческий мозг имеет, теоретически ещё большую емкость.
Чем больше данных используется для обучения, тем меньше остается степеней свободы. Так же и человек, чем больше он знает, тем меньше он генерирует глупостей (не связанных с его непосредственными потребностями организма).
И я не специалист по алгоритмам сжатия, но знаю, что далеко не все данные поддаются сжатию. Веса сети, по-видимому, плохо сжимаются, поскольку по своим значениям мало отличаются от белого шума.
Если бы не знал, наверное бы это не стоило миллиарды :)
Говорят про себестоимость в шесть миллионов.
Говорят про себестоимость в шесть миллионов.
Себестоимость Черного Квадрата - несколько тюбиков краски, то-есть, около 500 рублей.)))
Добавленная стоимость это не себестоимость же.
Добавленная стоимость это не себестоимость же.
Ну так если супер-эрудированная, значит знания на сотни гигабайтов хранятся в весах.
Поэтому выше говорил, что исходный код DeepSeek ничего особенно не стоит, это известная всему миру архитектура и логика кода, ценны веса для нейронки.