Как лучше всего вводить в нейросеть переменное число параметров?

 

Ну например, новости. Каждый тип новости имеет определенный ID. Но вот беда, вокруг бара могут быть много новостей на разном временном удалении. Что еще усложняет задачу, на одном баре могут выходить сразу несколько новостей. Хотелось бы как-то подавать в сеть новости из определенного периода в прошлом, и определенного периода в будущем вокруг бара.


Может быть есть идеи как это лучше сделать, что было бы еще лучше соответствующая литература или документация.

 

Подавать на вход массив всех новостей. Если новости нет, то вместо нее подавать ноль. Если есть - разницу между предыдущим значением и новым (как я понимаю эти новости типа индексов разных Джонсов и Доусов). Плюс к каждой новости добавить время, которое прошло с ее прихода. Все это за определенный период { дельтаНовости0, время0, дельтаНовости1, время1, ... дельтаНовостиN, времяN }.

Ну и надеяться, что НС правильно сконфигурирована и обучится так что бы эти пары связывала некая весовая функция имеющая тем больший вес, чем меньше времени прошло с момента прихода новости.

Не?

 
MuruFigi >>:

Подавать на вход массив всех новостей. Если новости нет, то вместо нее подавать ноль. Если есть - разницу между предыдущим значением и новым (как я понимаю эти новости типа индексов разных Джонсов и Доусов). Плюс к каждой новости добавить время, которое прошло с ее прихода. Все это за определенный период { дельтаНовости0, время0, дельтаНовости1, время1, ... дельтаНовостиN, времяN }.

Ну и надеяться, что НС правильно сконфигурирована и обучится так что бы эти пары связывала некая весовая функция имеющая тем больший вес, чем меньше времени прошло с момента прихода новости.

Не?


Спасибо за ценную идею! Я попробую сделать это таким образом.


У меня мысли бродили вокруг подачи на вход сети массива из баров -n..+n, каждый элемент которого содержит индекс новости, но у меня путались мысли вокруг того, как быть если на баре несколько новостей. А с дельтами по времени похоже будет идеально, тем более, что массив типов новостей конечен. +) 


Пока рыл, нарыл вариант, который возможно пригодится при Вашем подходе.


http://www.teco.edu/~albrecht/publication/neuro2//

 
sol писал(а) >>

Спасибо за ценную идею! Я попробую сделать это таким образом.


У меня мысли бродили вокруг подачи на вход сети массива из баров -n..+n, каждый элемент которого содержит индекс новости, но у меня путались мысли вокруг того, как быть если на баре несколько новостей. А с дельтами по времени похоже будет идеально, тем более, что массив типов новостей конечен. +)

Пока рыл, нарыл вариант, который возможно пригодится при Вашем подходе.

http://www.teco.edu/~albrecht/publication/neuro2//

А что будет с моим предложением если за период поступит две новости одинакового типа в разные моменты времени? Или это исключено?

 
sol писал(а) >>

У меня мысли бродили вокруг подачи на вход сети массива из баров -n..+n, каждый элемент которого содержит индекс новости, но у меня путались мысли вокруг того, как быть если на баре несколько новостей.

Да, кстати, имхо, эта идея еще тем плоха. Что (опять ИМХО) НС легче обучается когда каждый вход на каждом прогоне несет одну и туже смысловую (семантическую) нагрузку. А в этой Вашей идеи каждый раз некий элемент массива i будет нести разную смысловую нагрузку - каждый раз другой тип новости. Это поставит алгоритм обучения в тупик, имхо. Плюс НС еще придется одуплиться и не только решить вышеуказаную проблему так еще и научиться как-то эту смысловую нагрузку ассоциировать со значением индекса (которое отражает время). Я не спец по НС, но те несколько алгоритмов обучения которые знал когда плотно занимался НС не справились бы с такой задачей.

А в моем подходе каждый элемент массива (их N*2) каждый раз имеет один и тот же смысл, т.е. одна и таже координата в N*2-мерном пространсте.

 
MuruFigi >>:

Да, кстати, имхо, эта идея еще тем плоха. Что (опять ИМХО) НС легче обучается когда каждый вход на каждом прогоне несет одну и туже смысловую (семантическую) нагрузку. А в этой Вашей идеи каждый раз некий элемент массива i будет нести разную смысловую нагрузку - каждый раз другой тип новости. Это поставит алгоритм обучения в тупик, имхо. Плюс НС еще придется одуплиться и не только решить вышеуказаную проблему так еще и научиться как-то эту смысловую нагрузку ассоциировать со значением индекса (которое отражает время). Я не спец по НС, но те несколько алгоритмов обучения которые знал когда плотно занимался НС не справились бы с такой задачей.

А в моем подходе каждый элемент массива (их N*2) каждый раз имеет один и тот же смысл, т.е. одна и таже координата в N*2-мерном пространсте.

Jah Bless You ')

Причина обращения: