Midjourney и другие нейросети обработки изображений - страница 857

 
Maxim Dmitrievsky #:
конкурсы кто лучше загуглит.

Круто! Что-то автономных голосовых переводчиков почти не видать. Видимо, чего-то все таки не хватает.

кто лучше запромптит. Кто использует более сильную модель, тот и победил :)
Жаль, что эта хорошая шутка ею не является.
 
fxsaber #:

Когда-то публиковались примеры фрактального сжатия в виде лаконичного кода "елочки" и т.д.

Получается, что LLM должен сжимать информацию значительно лучше других алгоритмов сжатия. Грубо говоря, это EXE-файл видео-энкодера размером в сотни гигабайтов, который жмет любое видео в сотни раз лучше современных видео-энкодеров, EXE-файлы которых занимают мегабайт.

Можно условно сравнить с флешкой, которая занимает конечный объем в байтах, но почти неограниченный объем по вмещаемой информации. Если бы скорость кодирования (обучения) была моментальной, то можно было бы, гипотетически, просто непрерывно закачивать на эту флешку с интернета всё, что в нём содержится, непрерывно и до скончания времен.

fxsaber #:

Очень интересное утверждение!

Собственно, да. Если взять веса, случайно распределенные в допустимом диапазоне, и веса обученной той же сети, то по объёму они будут одинаковы, но во втором случае полезной информации будет содержаться больше.

Вообще, при том же количестве нейронов в мозге и нейронной сети, в мозге будет больше связей (и весов соответственно), так как связи посредством синапсов могут создаваться между любыми нейронами, в отличии от полносвязной нейронки, где связи фиксированные и только между нейронами соседних слоёв. В мозге такие связи выглядели бы как пучки нитей более толстых посреди более тонких нитей, в то время как обычная нейронка представляет собой равномерное распределение таких нитей. В этом, собственно, основные отличия связей в мозге и в нейронке. Предполагаю, что со временем научаться создавать такие толстые пучки связей между искусственными нейронами, как я их называю "информационные стержни" - своеобразное информационное армирование внутри равномерно распределенного бетона. Это позволит создавать LLM с "характером", "моральными устоями" и подобное, что характерно человеку. Это так же позволит, возможно, избавить LLM-ки от глюков, так как стержни не позволят этому происходить. Это можно сравнить с маленьким ребенком, который может лепетать что угодно, в том числе и бред, если это не касается уже имеющихся у него некоторых знаний. Так и LLM сейчас, если спросить что-то, чего нет в его знаниях, он может выдавать бред или просто бесполезную чепуху, у LLM нет информационных стрежней, на кторые можно опираться и от которых можно отталкиваться в рассуждениях. Человек в процессе своих рассуждений может создавать новые стержни, доказывая им же созданные теоремы. Такие моменты ещё только предстоит реализовать в моделях ИИ.

 
Andrey Dik #:

Можно условно сравнить с флешкой, которая занимает конечный объем в байтах, но почти неограниченный объем по вмещаемой информации. Если бы скорость кодирования (обучения) была моментальной, то можно было бы, гипотетически, просто непрерывно закачивать на эту флешку с интернета всё, что в нём содержится, непрерывно и до скончания времен.

Оба предложения совсем не понял.
 
fxsaber #:
Оба предложения совсем не понял.
Очень грубо говоря, интерполяционные свойства современных LLM настолько велики, что человечество запихнуло в них чуть ли не все свои знания, накопленные за тысячелетия, и все равно считается, что нужно больше данных и примеров для обучения. В таких условиях на первое место выходят способы обучения (методы, алгоритмы, функции оценки), а не количество данных. Ибо при такой информационной вместимости данных для обучения будет всегда не хватать (всегда будет недостаточно). Это известная проблема "множественности решений" нейронных сетей и она до сих пор не решена полноценно. Информационные стержни могут решить эту проблему, теоретически, конечно. И, конечно же, сократит энергозатраты на обучение в сотни, тысячи раз.
[Удален]  
Промптусы, покиньте дипсик пожалуйста ) не работает из-за вас
 
Maxim Dmitrievsky #:
Промптусы, покиньте дипсик пожалуйста ) не работает из-за вас

Никак не напишет мне стишок, сволочь...

На скрине - девятая попытка.

[Удален]  
moskitman #:

Никак не напишет мне стишок, сволочь...

На скрине - девятая попытка.

Вот не надо стишки писать, дайте людям нормальные вопросы задать ))
 
Maxim Dmitrievsky #:
Вот не надо стишки писать, дайте людям нормальные вопросы задать ))

На нормальные вопросы оно чушь несёт с умным видом на голубом глазу.


[Удален]  
moskitman #:

На нормальные вопросы оно чушь несёт с умным видом на голубом глазу.


Ну я для программирования юзал, там он нормально выдает ) сокращает писанину, скажем так
[Удален]  
Maxim Dmitrievsky #:

Скорость qwen coder 7b локально. 14b и 32b на процессоре уже нет смысла запускать.

оперативка от 8 гб, лучше 16. На виндовых компах можно смело умножать на 1.5

традиционно плохо понимает русский, на английском понимает

комп сопоставим с i7-i9

14b тоже завелась и вполне терпимо генерит по скорости

правда память. Из них 6 гб было занято другими процессами, остальные 10 отъела LLM

Похоже, что работает на 1 ядре