Interpolação, aproximação e afins (embalagem de algibe) - página 14

 
Maxim Dmitrievsky :

I de dont Understand But how to work with Gram matrix now! Apenas, por causa disso não se trata de um novo recurso transformado, apenas uma matriz ITS com produto escalar de recursos antigos

Bem, neste caso, acho que você precisa tomar a primeira derivada da representação escalar final para obter o vetor. Quero dizer, só é preciso calcular a inclinação da função final do núcleo.

Presumo que deve haver uma biblioteca MQL5 embutida para calcular a primeira derivada ou inclinação de qualquer função.

Neste caso, se a inclinação for positiva, então deverá ser um sinal de COMPRA e se a inclinação for negativa, então deverá ser um sinal de VENDA.

 
FxTrader562:

Bem, neste caso, acho que você precisa tomar a primeira derivada da representação escalar final para obter o vetor. Quero dizer, só é preciso calcular a inclinação da função final do núcleo.

Presumo que deve haver uma biblioteca MQL5 embutida para calcular a primeira derivada ou inclinação de qualquer função.

Neste caso, se a inclinação for positiva, então deverá ser um sinal de COMPRA e se a inclinação for negativa, então deverá ser um sinal de VENDA.

) não... precisamos dele como um novo ponto de recurso para ajuste RDF, os mesmos 2 ou n vetores, mas com novos pontos eu acho

Não consigo imaginá-lo :D Primeiro precisamos transformá-lo com kernel e depois transformá-lo de volta às características com outros pontos de dados

ou talvez o determinante matricial Gramiano - estes pontos

 
Maxim Dmitrievsky:

)) nono... precisamos dele como um novo ponto de recurso para ajuste RDF, os mesmos 2 ou n vetores, mas com novos pontos eu acho

Não consigo imaginá-lo :D Primeiro precisamos transformá-lo com kernel e depois transformá-lo de volta às características com outros pontos de dados

ou talvez o determinante matricial Gramiano - estes pontos

Estou ficando totalmente confuso aqui:))

A função kernel é uma técnica de classificação para executar o processo de classificação mais rapidamente, certo?

Por que precisamos extrair pontos de característica da função de núcleo de volta. Basta alimentar a rede neural com os pontos de característica obtidos a partir do spline e fazer a classificação usando as funções RDF e kernel. certo?

No meu entendimento, a transformação de características deve ser feita pela função spline. certo?

Onde está a confusão? Estou ficando confuso ou você está:))

 
FxTrader562:

Estou ficando totalmente confuso aqui:))

A função kernel é uma técnica de classificação para executar o processo de classificação mais rapidamente, certo?

Por que precisamos extrair pontos de característica da função de núcleo de volta. Basta alimentar a rede neural com os pontos de característica obtidos a partir do spline e fazer a classificação usando as funções RDF e kernel. certo?

No meu entendimento, a transformação de características deve ser feita pela função spline. certo?

Onde está a confusão? Estou ficando confuso ou você está:))

Não, estamos usando ktricks para projetar características para espaços de outra dimensão, e precisamos de novas coordenadas dessas projeções como um novo ponto de dados, então aprendemos RDF

É uma álgebra tensora e vetorial, mas eu não sou da máfia aqui, mas aprendo rápido )

Se você conhece alguém que conhece álgebra vetorial - pls convide

ou vamos adicionar o tópico na versão en forum
 
Maxim Dmitrievsky:

Não, estamos usando ktricks para projetar características para espaços de outra dimensão, e precisamos de novas coordenadas dessas projeções como um novo ponto de dados, então aprendemos RDF

É uma álgebra tensora e vetorial, mas eu não sou da máfia aqui, mas aprendo rápido )

Se você conhece alguém que conhece álgebra vetorial - pls convide

Estou me aproximando mais do que você procura... basicamente, as coordenadas da dimensão superior para nosso vetor de entrada de nossa dimensão inferior, certo?

Em breve analisarei a álgebra vetorial. Acho que tudo o que podemos obter facilmente do google e do youtube. Colocarei alguns links se encontrar.

Eu estudei álgebra vetorial há muito tempo na minha faculdade e, portanto, olhando rapidamente através dela.

 
FxTrader562:

Estou me aproximando mais do que você procura... basicamente, as coordenadas da dimensão superior para nosso vetor de entrada de nossa dimensão inferior, certo?

Em breve analisarei a álgebra vetorial. Acho que tudo o que podemos obter facilmente do google e do youtube. Colocarei alguns links se encontrar.

Estudei álgebra vetorial há muito tempo na minha faculdade e, por isso, olhei rapidamente através dela.

sim, precisamos, como neste vídeo


por exemplo, temos espaço 2-d e não podemos separá-lo linearmente, depois adicionamos o 3-d e agora podemos separá-lo por hiperplano

mas o núcleo nos permite fazer projeção de pontos sem adicionar a característica 3-d, de modo que podemos separá-lo da mesma forma se tivermos 2 características em vez de 3

mas... como podemos transformar as características 2-d que estão linearmente separadas em outra dimensão. Precisamos de uma projeção 2-d de nova dimensão, ou seja, novos pontos de outro espaço vetorial

Eu acho que é uma magia, mas de qualquer forma )

 
Maxim Dmitrievsky:

sim, precisamos, como neste vídeo


por exemplo, temos espaço 2-d e não podemos separá-lo linearmente, depois adicionamos o 3-d e agora podemos separá-lo por hiperplano

mas o núcleo nos permite fazer projeção de pontos sem adicionar a característica 3-d, de modo que podemos separá-lo da mesma forma se tivermos 2 características em vez de 3

mas... como podemos transformar as características 2-d que estão linearmente separadas em outra dimensão. Precisamos de uma projeção 2-d de nova dimensão, ou seja, novos pontos de outro espaço vetorial

Bem, como eu disse, estudei álgebra vetorial há muito tempo atrás e, portanto, já tenho o entendimento básico. Mas neste caso, eu acho um pouco difícil.

É tudo uma questão de produto ponto e produto cruzado.

O ponto é a magnitude que é determinada por A.BCos(ângulo entre A e B). Isto é chamado produto interno

Um produto cruzado é o vetor após a multiplicação dos vetores A e B, e sua magnitude é A.B.Sin(Ângulo entre A e B). Isto é chamado de produto externo. Portanto, eu entendi esta linha de código e acho que você também entenderá isto:

P = cvxopt.matrix(np.outer(y,y) * K)

Este é apenas um produto cruzado, suponho.

Este é um vídeo relacionado ao mapeamento do kernel:

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

Bem, como eu disse, estudei álgebra vetorial há muito tempo atrás e, portanto, já tenho o entendimento básico. Mas neste caso, eu acho um pouco difícil.

É tudo uma questão de produto ponto e produto cruzado.

O ponto é a magnitude que é determinada por A.BCos(ângulo entre A e B). Isto é chamado produto interno

Um produto cruzado é o vetor após a multiplicação dos vetores A e B, e sua magnitude é A.B.Sin(Ângulo entre A e B). Isto é chamado de produto externo. Portanto, eu entendi esta linha de código e acho que você também entenderá isto:

Este é apenas um produto cruzado, suponho.

Este é um vídeo relacionado ao mapeamento do kernel:

https://www.youtube.com/watch?v=7_T9AdeWY3k

Sim, é a partir daquihttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

mas não posso separar kernels e SVM do código fonte

 
Maxim Dmitrievsky:

Sim, é a partir daquihttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

mas não posso separar kernels e SVM do código fonte

Até onde posso entender a coordenada em espaço dimensional superior tem que ser o valor da função kernel junto com o vetor de entrada 2. Isso significa que temos 2 vetores de entrada e precisamos do 3º vetor e ele é adicionado à 3ª coordenada.

Por exemplo, se você alimentar 2 vetores x e y e mapeá-lo para 3 d de espaço, obtenha o valor do kernel K(x,y),

Então, a coordenação do vetor final no espaço 3 D tem que ser (x,y,k(x,y))

Em seguida, se você mapeá-lo para o espaço 4D e obter o valor kernel k1(x,y,k(x,y)),

Então, a coordenada no espaço 4D deve ser (x,y,k(x,y),k1(x,y,k(x,y)) e assim por diante....

Faz sentido ou cria algum link com seu código fonte existente?

OU outra maneira é obter o ângulo do tensor com referência à coordenada do mapeamento, tomando então o cosseno desse ângulo e multiplicando-o pela magnitude do tensor.
 

É isso, eu encontrei o cara certo, ele explica bem, eu me lembro de tudo de uma vez.


Razão: