Dalla teoria alla pratica - pagina 698

 
Aleksey Nikolayev:

1) Stiamo parlando di un concetto molto specifico di evento dell'assiomatica di Kolmogorov.

2) Non ci sono algoritmi in questa assiomatica.

Non ho violato l'assiomatica di Kolmogorov in nessun punto delle mie affermazioni, e certamente non l'ho negato. Ma l'hai visto da qualche parte? Dove? Dammi un link.

Stai confondendo il morbido con il molle.

Di cosa stiamo parlando? Stiamo parlando di un evento che è il risultato di un algoritmo:

In questo algoritmo c'è una condizione fissa: all'evento x assegna il valore 1 se il valore di p è maggiore del valore di1-p. Altrimenti, il valore-1 deve essere assegnato all'eventox.

Quando l'algoritmo funziona, questa condizione sarà sempre soddisfatta.


Sta dicendo che a volte questo evento può accadere o meno:

Forum sul trading, sistemi di trading automatico e test di strategie di trading

Vagabondaggio casuale:

Aleksey Nikolayev, 2018.10.28 11:17

Questo non è corretto. Falloutx1=-1 è anche possibile, anche se meno probabile. Come si dice in matstat - con un gran numero di prove accadrà circa il 10% delle volte. Questa è in realtà l'assiomatica di base della teoria della probabilità. Se non sei d'accordo con me su questo, allora dovrei smettere di discuterne con te.


La sua affermazione è completamente fuori luogo. E contraddice l'assiomatica di Kolmogorov.

Cercate di guardare il tutto con sobrietà.

 
Олег avtomat:

Non ho violato l'assiomatica di Kolmogorov in nessun punto delle mie affermazioni, e certamente non l'ho negato. Ma l'hai visto da qualche parte? Dove? Dammi un link.

Stai confondendo il morbido con il molle.

Di cosa stiamo parlando? Stiamo parlando di un evento che è il risultato di un algoritmo:

In questo algoritmo c'è una condizione fissa: all'evento x assegna il valore 1 se il valore di p è maggiore del valore di1-p. Altrimenti, il valore-1 deve essere assegnato all'eventox.

Quando l'algoritmo funziona, questa condizione sarà sempre soddisfatta.


Ma voi dichiarate che a volte questo evento può verificarsi in questo o in quel modo:


La sua affermazione non si adatta affatto. Questo contraddice l'assiomatica di Kolmogorov.

Cercate di guardare tutto questo con sobrietà.

Nella definizione iniziale (immagine nella prima pagina del tuo thread presa dal wiki) pi sono probabilità. Nel vostro algoritmo non sono probabilità.

 
Aleksey Nikolayev:

Nella definizione iniziale (immagine nella prima pagina del tuo ramo presa dal wiki) pi sono probabilità. Nel vostro algoritmo non sono probabilità.

Il mio algoritmo è pienamente coerente con la definizione iniziale.

Nel mio algoritmo, le probabilitàpi sono date da un generatore di numeri casuali dall'intervallo (0, 1) con una distribuzione uniforme, con questa funzionernd(1).

Ad ogni passo, la probabilitàpi è data dal valore aggiornato della funzione rnd(1).

La funzionernd(1) viene ricalcolata ad ogni passo, non lo sai?

 
Олег avtomat:

Il mio algoritmo è pienamente coerente con la definizione iniziale.

Nel mio algoritmo, la probabilitàpi è data da un generatore di numeri casuali dall'intervallo (0, 1) con una distribuzione uniforme. Questa è la funzionernd(1).

Ad ogni passo la probabilitàpi è data dal valore aggiornato della funzione rnd(1). La funzionernd(1) viene ricalcolata ad ogni passo.

Non lo sai?

Vi sbagliate. Nel tuo algoritmo, p è solo una variabile ridondante. La condizione su p: p>1-p è equivalente alla condizione p>1/2. Poiché p=rmd(1), la condizione di selezione della direzione può essere riscritta come: se (rnd(1)>1/2) x[i]=1, facendo senza alcun p. All'interno della definizione iniziale, si genera solo un caso speciale, il codice è tutto pi=1/2 - una "moneta giusta".

Per soddisfare la definizione iniziale, il vostro algoritmo dovrebbe prendere l'array p[n] come input e per ogni i=1,...,n la condizione di scelta direzionale sarà: se (rnd(1)<p[i]) x[i]=1.

 
Олег avtomat:

Il mio algoritmo è pienamente coerente con la definizione iniziale.

Nel mio algoritmo, la probabilitàpi è data da un generatore di numeri casuali dall'intervallo (0, 1) con una distribuzione uniforme. Questa è la funzionernd(1).

Ad ogni passo, la probabilitàpi è data dal valore aggiornato della funzione rnd(1).

La funzione rnd(1) viene ricalcolata ad ogni passo, non lo sai?

Per migliorare la qualità, prima si generano delle sequenze (per esempio 1000pc) e poi si usano le statistiche di queste sequenze per selezionare quelle più corrette. Poi per ogni passo si deve leggere sequenzialmente dalla sequenza già preparata. Nel gioco d'azzardo condizionatamente equo una sequenza viene generata all'inizio, e poi il giocatore ottiene valori (successivi) da questa sequenza, cioè qualsiasi reazione dalle condizioni di vittoria/perdita e le azioni del giocatore sono cardinalmente escluse.

 
Aleksey Nikolayev:

Vi sbagliate. Nel tuo algoritmo, p è solo una variabile ridondante. La condizione su p: p>1-p è equivalente alla condizione p>1/2. Poiché p=rmd(1), la condizione di selezione della direzione può essere riscritta come: se (rnd(1)>1/2) x[i]=1, facendo senza alcun p. All'interno della definizione iniziale, si genera solo un caso speciale, il codice è tutto pi=1/2 - una "moneta giusta".

Per adattarsi alla definizione iniziale, il vostro algoritmo dovrebbe prendere p[n] come input e per ogni i=1,...,n la condizione di scelta direzionale sarebbe come questa: if (rnd(1)<p[i]) x[i]=1.

1) Vi sbagliate. L'algoritmo può essere modificato, semplificato e ottimizzato. Credetemi, posso ricostruirlo in molti modi diversi, ma non cambia l'essenza della questione: il risultato è un processo di cammino casuale.

2) Questa matrice deve essere riempita con lo stessornd(1). E non sarebbe cambiato nulla in linea di principio, vedi punto 1.

State discutendo per il gusto di discutere. Mi sembra così per qualche motivo... IMHO, per così dire...

Fai la tua versione di SB - ti ci vorranno cinque minuti e non dovrai inventare nulla. Anche se, a giudicare dalle tue dichiarazioni, penso che tu non abbia mai modellato SB.
 
Unicornis:

Per migliorare la qualità, all'inizio si generano delle sequenze (per esempio, 1000 pezzi), poi secondo le statistiche di queste sequenze si scelgono quelle più corrette, e poi per ogni passo c'è una lettura consecutiva dalla sequenza già preparata. Nel gioco d'azzardo condizionatamente equo la sequenza viene generata all'inizio, e poi il giocatore ottiene valori (successivi) da questa sequenza, cioè qualsiasi reazione dalle condizioni di vittoria/perdita e le azioni del giocatore sono cardinalmente escluse.

Il gioco d'azzardo è già coinvolto qui...

Fate la vostra versione di SB - ci vogliono cinque minuti.
 
Олег avtomat:

2) Questa matrice dovrebbe essere riempita con lo stessornd(1). E non cambierebbe nulla in linea di principio, vedi punto 1.

Non necessariamente in modo casuale, ci sono un numero enorme di possibili varianti con risultati molto diversi. Per esempio, all'inizio della matrice la probabilità è meno di 1/2, e alla fine è di più (in media sulla matrice circa 1/2). Questo produrrebbe un modello di inversione di tendenza al ribasso verso l'inversione di tendenza al rialzo.

 
Aleksey Nikolayev:

Non necessariamente casuale, c'è un numero enorme di scelte possibili con risultati molto diversi. Per esempio, all'inizio della matrice la probabilità è inferiore a 1/2, e alla fine è maggiore (la media della matrice è circa 1/2). Si ottiene un modello di una tendenza al ribasso che cambia in una tendenza al rialzo.

Vedo che hai già iniziato a trollare...

Tra questo"enorme numero di varianti possibili con risultati molto diversi", devi scegliere una variante. Ho optato per l'opzione che ho dimostrato.

Puoi scegliere la tua variante.

Fai la tua variante di SB - ci vogliono cinque minuti e non dovrai inventare nulla. Anche se, a giudicare dalle tue dichiarazioni, penso che tu non abbia mai modellato SB.

Francamente parlando, sono stufo di questo vuoto ruminare.

 

Solo per continuare la conversazione, per coloro che confondono il cammino casuale con il rumore bianco o l'aspettativa con la probabilità


Motivazione: