Midjourney и другие нейросети обработки изображений - страница 855

 
Maxim Dmitrievsky #:
Это сырые данные, а не данные для обучения

Замерялась эрудированность ИИ (которые без выхода в интернет)?

[Удален]  
fxsaber #:

Замерялась эрудированность ИИ (которые без выхода в интернет)?

Что такое ИИ? Нет, это просто сырые данные, на них нельзя ничему обучить. Их можно только сжать энкодером на первом этапе, создать представление. 

Потом вам нужно множество пар вопрос-ответ, которых нет в исходных данных. 
 
fxsaber #:
Тогда это не OpenSource, а черный ящик. Это как выложить в КБ советник с ONNX-файлом.

Почему же черный ящик, исходный код нейронной сети (справедливости ради нужно сказать, что я смотрел эти файлы, там есть питонский запускаемый файл, но кода самой нейронки я не увидел, там есть какие-то импортируемые библиотеки, которые непонятно где можно посмотреть).

Это тоже самое, если я выложу здесь исходный код на MQL5 своей нейронки, код которой занимает 200 строк кода и бинарный файл с весами на террабайт). Такие вот современные LLM - описание логики, реализованной в коде, занимает 50 килобайт, а веса для них - террабайты.

Поэтому выше говорил, что исходный код DeepSeek ничего особенно не стоит, это известная всему миру архитектура и логика кода, ценны веса для нейронки.

А посмотреть содержимое этих гигабайтных файлов весов ничего не даст так же, как если посмотреть значения синапсов мозга любого из здесь присутствующих - будет выглядеть как данные в виде белого шума.

 
Maxim Dmitrievsky #:
Что такое ИИ?
Да просто складывается впечатление, что знает ответы на все неспециализированные вопросы.
[Удален]  
fxsaber #:
Да просто складывается впечатление, что знает ответы на все неспециализированные вопросы.
Если бы не знал, наверное бы это не стоило миллиарды :)
 
fxsaber #:

Массивная книга в сжатом виде занимает 250 Кб. Соответственно, в гигабайте 4000 книг. В 250 гигабайтах миллион полноценных массивных книг.

Очевидно, что ИИ не использует алгоритмы сжатия без потерь, поэтому 250 гигабайтов могут содержать информацию до 10-ти миллионов книг.


Утверждается, что всего людьми было написано 130 миллионов книг. Тогда почему поднимается вопрос нехватки данных для обучения?

Веса сети LLM имеют чудовищный запас ёмкости, а значит, чудовищное количество степеней свободы, поэтому могут вмещать всё, что написало когда-то человечество и ещё сотни раз столько же. Человеческий мозг имеет, теоретически ещё большую емкость.

Чем больше данных используется для обучения, тем меньше остается степеней свободы. Так же и человек, чем больше он знает, тем меньше он генерирует глупостей (не связанных с его непосредственными потребностями организма).

И я не специалист по алгоритмам сжатия, но знаю, что далеко не все данные поддаются сжатию. Веса сети, по-видимому, плохо сжимаются, поскольку по своим значениям мало отличаются от белого шума.

 
Maxim Dmitrievsky #:
Если бы не знал, наверное бы это не стоило миллиарды :)

Говорят про себестоимость в шесть миллионов.

 
fxsaber #:

Говорят про себестоимость в шесть миллионов.

Себестоимость Черного Квадрата - несколько тюбиков краски, то-есть, около 500 рублей.)))

Добавленная стоимость это не себестоимость же.

 
Andrey Dik #:

Добавленная стоимость это не себестоимость же.

Ну так если супер-эрудированная, значит знания на сотни гигабайтов хранятся в весах.

 
Andrey Dik #:

Поэтому выше говорил, что исходный код DeepSeek ничего особенно не стоит, это известная всему миру архитектура и логика кода, ценны веса для нейронки.

Поэтому изначально и спрашивал, какой смысл в заявлениях OpenSource, кроме маркетингового. Видно, что почти никакого.