Etiqueta de mercado ou boas maneiras em um campo minado - página 14

 
Neutron >> :

Este é o maior erro de todos. O mercado irá puni-lo por sua insolência!

Você só pode brincar com o Mercado, e por suas regras. E se ele gostar do jogo, ele o recompensará.

Você está atribuindo qualidades pessoais ao mercado, e com uma carta maiúscula? :)

O mercado é uma região selvagem, a analogia com o oceano me parece bastante adequada.

 

Eu estava brincando:-)

Sei que o mercado é apenas um processo aleatório e em algum lugar quase estacionário. E a tarefa do TS se resume a encontrar e explorar alguma semelhança de estacionariedade.

sealdo писал(а) >>

Pergunto-me se existe uma maneira de calcular metas (TP, SL), por exemplo, a partir da volatilidade dos "dias", "semanas", ou de outra forma, para que elas possam mudar suavemente com o mercado.

Estes valores caracterizam o mercado e só podem ser avaliados através da execução do TS na história.
 
Neutron >> :

Eu estava brincando:-)


Há muitos caras sérios aqui! Estava brincando... >>:)

Neutron, tenho algumas perguntas sobre ORO. Eu entendo corretamente que quando um valor de erro é introduzido a um neurônio, ele divide esse erro entre todos os pesos de suas entradas, de acordo com sua participação na soma total desses pesos?

Ou seja, pegamos o valor de erro +/- Er, então somamos todos os pesos das sinapses de entrada Sw1 = SUM(w1+w2+w3+... wn) e calculamos a proporção (em peso total) de cada uma delas

Dw1 = w1/(Sw1/100) e depois distribuir +/- Er entre todos os pesos de acordo com sua proporção no peso total: wi = wi +/- Dwi *Er é assim? Se sim, é possível fazer esta distribuição não linear, mas sim exponencial? Afinal, nos sistemas vivos "bônus" e "tapas", ou seja, os erros e bônus não são distribuídos entre "primeiro" e "último" de forma linear.

Segunda pergunta:

De onde vem o valor do erro? Qual é o sinal deste valor? O valor da perda da transação anterior pode ser um "valor de erro"?

 
paralocus >> :

Entendo corretamente que quando um valor de erro é introduzido a um neurônio, ele divide esse erro entre todos os pesos de seus insumos, de acordo com sua participação na soma total desses pesos?

Não, ele não o divide - ele o distribui. E o faz não porque alguém o queira, mas como resultado da minimização da função objetiva.

À luz disto...

Se sim, é possível fazer essa distribuição não linear, mas, digamos, exponencial? Afinal, nos sistemas vivos, "bônus" e "tapas", ou seja, os erros e bônus são distribuídos entre "primeiros" e "últimos", não linearmente.

Esta suposição provavelmente levará a um aprendizado mais lento ou a uma divergência no erro total.

 
TheXpert >> :

Não, não se propaga. E o faz não porque alguém o queira, mas como resultado da minimização da função alvo.

À luz disto...

Esta suposição provavelmente levará a um aprendizado mais lento ou a uma discrepância no erro total.

A previsibilidade aumentará?

 
paralocus писал(а) >>

Neutron, eu tenho perguntas sobre ORO. Entendo corretamente que quando um valor de erro é introduzido a um neurônio, ele divide esse erro entre todos os pesos de seus insumos, de acordo com sua participação na soma total desses pesos?

Ou seja, pegamos o valor do erro +/- Er e então somamos todos os pesos das sinapses de entrada Sw1 = SUM(w1+w2+w3+... wn) e calculamos a parte (em peso total) de cada uma delas

Dw1 = w1/(Sw1/100), em seguida, distribuir +/- Er entre todos os pesos de acordo com sua participação no peso total: wi= wi +/- Dwi *Er é verdade? Se sim, é possível fazer esta distribuição não linear, mas sim exponencial? Afinal, nos sistemas vivos "bônus" e "tapas", ou seja, os erros e bônus não são distribuídos entre "primeiro" e "último" de forma linear.

Segunda pergunta:

De onde vem o valor do erro, em primeiro lugar? Qual é o sinal deste valor? O valor de uma perda em uma transação anterior pode servir como o "valor de erro"?

Não, não é bem assim.

Vamos considerar não um comitê de grade como o seu, mas uma grade regular de duas camadas. Então você pode generalizar.

Você tem um vetor de sinais de entrada (que seja unidimensional) de comprimento n amostras, e que n+1 amostras seja uma verificação da qualidade do treinamento da grade. Você lhe dá este vetor(n amostras), igualando todos os pesos a valores aleatórios na faixa +/-1 com distribuição uniforme da densidade de probabilidade, e verifica a saída da grade. Suponha que você defina +5,1, e verifique as contagens n+1(o valor a que a grade treinada no vetor de treinamento deve aspirar) +1,1. Em seguida, pegue a diferença entre o valor obtido e o desejado +4 e acrescente este valor, mantendo seu sinal a cada peso do neurônio de saída (se estiver sem FA), ou encontre a derivada de FA a partir deste valor e adicione-a aos pesos do neurônio de entrada (se tiver FA). E assim por diante.

Se você digerir esta peça, eu lhe direi como empurrar mais o erro para os pesos de entrada da primeira camada (input).

 
Neutron >> :

Não, não é.

Você não prefere fazer isso em fórmulas? A matemática aqui não é complicada.

paralocus >> :

A previsibilidade aumentará?

Improvável.

 
TheXpert >> :

Não, não se propaga. E o faz não porque alguém o queira, mas como resultado da minimização da função alvo.

À luz disto...

Esta suposição provavelmente levará a um aprendizado mais lento ou a uma discrepância no erro total.

E por que deveria haver uma discrepância no erro total se Er = e(w1*x) + e(w2*x) + ... e(wn*x)? Não, o erro cumulativo seria igual ao erro de entrada.

 
TheXpert писал(а) >>

Você não prefere fazer isso em fórmulas? A matemática aqui não é complicada.

Você mesmo pode consultar as fórmulas na literatura, das quais há muitas na Internet.

Não sejamos precipitados demais. E não tente complicar sua vida com todo tipo de artifícios, tais como "aprendizagem não-linear" e afins, é do maligno. Beleza e confiabilidade na simplicidade e harmonia!

 
Neutron >> :

Se você digerir esta peça, eu lhe direi como empurrar o erro para os pesos de entrada da primeira camada (entrada) a seguir.

Indo para a poção...

Razão: