Rede neural sob a forma de um roteiro - página 10

 

Favor descrever a notação na fórmula S[j] = soma(i)(y[i]*w[i,j] - t[j]). Pelo que entendi:

t[j] é o peso do limiar (ele é multiplicado por um sinal igual a -1)

y[i]*w[i,j] - a entrada multiplicada por seu peso

S[j] - o resultado antes da aplicação da função logística

O que é Sum(i)?

 
sergeev писал (а) >>

Favor descrever a notação na fórmula S[j] = soma(i)(y[i]*w[i,j] - t[j]). Pelo que entendi:

t[j] é o peso do limiar (ele é multiplicado por um sinal igual a -1)

y[i]*w[i,j] - entrada multiplicada por seu peso

S[j] - o resultado antes da aplicação da função logística

O que é Sum(i)?

Soma[i] é a soma sobre i. Eu não sei como escrever fórmulas aqui.


t[j] - valor limiar do neurônio

y[i]*w[i,j] - a saída da camada multiplicada pelo peso de ligação

S[j] é a soma ponderada antes da aplicação da função logística

 
TheXpert писал (а) >>

Soma[i] é a soma sobre i. Eu não posso escrever fórmulas aqui.

Isso é basicamente o que eu pensei imediatamente que era a quantia.

--------------

A questão é que o limiar não é adicionado a cada valor de entrada, mas ao final da soma total antes de ser alimentado ao sigmóide. Ou seja, é o limiar para a saída como um todo e não para cada entrada individualmente.

A fórmula é a seguinte:

S[j]=Sum{y[i]*w[i,j]} - t[j].

É como o de Yuri.

for(i=0;i<NUM_INP;i++) // входной слой
    { 
        sum=0;
        for(j=0;j<NUM_INP;j++) sum+=ipl_W[i,j]*Input[j];
        ipl_Out[i]=Sigmoid(sum+ipl_Threshold[i]);
    }

e, em princípio, concordo com ela, porque vi tal notação na literatura.

 
sergeev писал (а) >>

Isso é basicamente o que eu pensei imediatamente que era a quantia.

--------------

A questão é que o limiar não é adicionado a cada valor de entrada, mas ao final da soma total antes de ser alimentado ao sigmóide.

Portanto, a fórmula é

S[j]=Sum{y[i]*w[i,j]} - t[j].

É assim que Yuri o faz.

e, em princípio, concordo com ela, pois vi tal notação na literatura.



Ugh, claro que você está certo, eu coloquei os parênteses errados.

 

2 TheXpert

Entendo por seus cargos que você é um especialista em NS. Você poderia aconselhar um iniciante onde começar a analisar em NS para se familiarizar com o seu funcionamento...

E é uma coisa boa usar feedback em redes? Qual tem sido a eficácia em sua prática?

 
sergeev писал (а) >>

2 TheXpert

Entendo por seus cargos que você é um especialista em NS. Você poderia aconselhar a um iniciante onde começar a analisar em NS para conhecer o princípio de seu trabalho...

E o uso de redes de feedback também é uma coisa boa. Qual tem sido a eficácia em sua prática?


Sinceramente, eu nem sei o que dizer. Tivemos 2 cursos sobre NS na universidade, começamos com o básico: modelo neuronal básico, classificação de redes, métodos de treinamento, etc., depois perseptron, linear e não linear, depois Kohonen, Hopfield, Hemming, redes recorrentes, recorrentes....



Sobre redes recorrentes - não utilizadas na prática, IMHO, sua vantagem e simultaneamente desvantagem é que depende de seus estados anteriores, ou seja, por definição, é adequada para troca.

Mas, novamente, IMHO, acredito que resultados similares podem ser obtidos por um perseptron sem feedback se treinado usando o princípio da janela deslizante. Há também uma vantagem nisso, o método de janela deslizante nos permite avaliar a robustez/tocasticidade (ver teoria do caos) da previsão obtida com pouco sangue, o que pode ser de grande ajuda quando o mercado é muito volátil e o resultado imprevisível.

 
Qual é a dependência da dimensionalidade e "estratificação" da rede em relação ao número de padrões?
 
Andy_Kon писал (а) >>
Qual é a dependência da dimensionalidade e "estratificação" da rede em relação ao número de padrões?

Simon Heikin, em seu livro Redes Neurais na página 282, dá um teorema sobre a universalidade da NS com UMA camada oculta. Aqui está a implicação:

E que sentido você dá à frase "dimensão de rede", não entendo. É o número de neurônios em camadas ocultas ou o número de entradas para NS?

Se for o número de entradas, então o produto do número de entradas pelo tamanho da amostra de treinamento (número de padrões) deve ser igual ao quadrado de pesos NS.

Se for o número de neurônios nas camadas ocultas, seu número é determinado pela complexidade do problema e é encontrado experimentalmente.

 

dimensionalidade e "estratificação

1. A dimensionalidade é o número de neurônios na(s) camada(s).

2. "Camadas" é o número de camadas.

3 A partir daí segue a próxima pergunta, mudança de neurônios em camadas, de camada para camada?

4. Número de ciclos de aprendizagem a partir do número de camadas, dimensionalidade e número de padrões (paternals) - (de forma ideal)?
 

O que é "mudança de neurônios em camadas", é um processo de modificação de pesos sinápticos de neurônios durante o treinamento de NS, ou busca da arquitetura ideal de NS por meio da mudança gradual do número de neurônios em camadas durante a otimização?

Bem, o número de ciclos de treinamento é definido pela realização de um mínimo de erro de generalização e não está diretamente relacionado com o número de camadas (e outras coisas), embora dependa fracamente não linearmente do número de neurônios e do número de camadas. Depende da "robustez" da superfície da característica multidimensional que a NS constrói para encontrar seu mínimo global. Se a rede funcionar corretamente, então 50-100 épocas de treinamento pelo método de Propagação de Erros Retrocedentes é suficiente. No entanto, será necessário muito esforço para acertar as coisas.

Razão: