Statistiche di dipendenza nelle citazioni (teoria dell'informazione, correlazione e altri metodi di selezione delle caratteristiche) - pagina 9

 
Avals:


non a me)))) se l'indipendenza è richiesta, perché una cosa come l'entropia condizionata, per esempio?

Se la sequenza dei simboli dell'alfabeto non è indipendente (per esempio, in francese la lettera "q" è quasi sempre seguita da "u", e la parola "avanguardia" nei giornali sovietici era solitamente seguita da "produzione" o "lavoro"), la quantità di informazione che la sequenza di tali simboli porta (e, quindi, l'entropia) è ovviamente minore. L'entropia condizionata è usata per rendere conto di questi fatti. https://ru.wikipedia.org/wiki/Информационная_энтропия

Oh sì, l'entropia condizionata. È chiaro che c'è comunque uno spazio chiuso di risultati? E tutte le lettere sono contate abbastanza chiaramente, ecc. In effetti stiamo parlando di una semplice estensione dell'alfabeto originale di 26 caratteri a un alfabeto di quante sillabe. Questa è un'approssimazione.
 
HideYourRichess:
Oh sì, l'entropia condizionata. È chiaro che c'è comunque uno spazio chiuso di risultati? E tutte le lettere sono contate abbastanza chiaramente, ecc. In effetti stiamo parlando di una semplice estensione dell'alfabeto originale di 26 caratteri a un alfabeto di quante sillabe. Questa è un'approssimazione.


quindi questo è più o meno il punto dell'entropia))) O il grado di compressione di un perfetto archivista.

 
Mathemat:

Scusa, HideYourRichess, ma mi sembra che tu sia uscito dal seminato. Non so di cosa discutere con te ora che sei così insistente con delle vere e proprie sciocchezze. La tua logica di ragionamento

è completamente incomprensibile per me.

Non ci crederò. Mostrami la fonte che afferma che

La nozione di prove indipendenti, derivata da Bernoulli, sarà sufficiente? O qui, una formulazione della legge dei grandi numeri: Sia una sequenza infinita di variabili casuali equamente distribuite e non correlate... Sia una sequenza infinita di variabili casuali indipendenti equamente distribuite...
 
Avals:


quindi questo è più o meno il punto dell'entropia))) O nel grado di compressione di un perfetto archivista

Solo nel contesto di un alfabeto conosciuto.
 

HideYourRichess, se pensi che tutti i tervers si riducano alla serie di Bernoulli o alla legge dei grandi numeri, ti sbagli di grosso.

Smettila di scherzare e familiarizza con il concetto di probabilità condizionata, che è direttamente usato per determinare l'entropia condizionata e l'informazione reciproca.

 
Mathemat:

HideYourRichess, se pensi che tutto il mondo si riduca alla serie di Bernoulli o alla legge dei grandi numeri, ti sbagli di grosso.

Non lo penso, lo so per certo.

 
HideYourRichess:
La nozione di prove indipendenti, derivata da Bernoulli, sarà sufficiente? O qui, una formulazione della legge dei grandi numeri: Sia una sequenza infinita di variabili casuali equamente distribuite e non correlate... Sia una sequenza infinita di variabili casuali indipendenti equamente distribuite...

Suggerisco di prendere le pubblicazioni di Shannon e leggere. Penso che gli oppositori di questo thread stiano solo cercando una "lotta" senza una ragione particolare. Ho studiato la teoria della probabilità all'università, anche se la mia formazione non è matematica. Per quanto mi ricordo, una caratteristica importante è la stazionarietà delle variabili casuali studiate.

E dirò di più dal mio background non matematico. Prendiamo la teoria della comunicazione applicata alla quale è stato sviluppato TI. C'è un filo che porta dei segnali, il loro significato non è importante per noi. Vogliamo calcolare le perdite d'informazione in questo filo e consideriamo la fonte e il trasmettitore (GIUSTO: trasmettitore e ricevitore) come due variabili casuali. Non sono collegati a priori? Noto - il presupposto è che sono collegati dal proverbiale filo. Cosa risponde a questo?

 
Mathemat:

HideYourRichess,

Smettila di scherzare e familiarizza con il concetto di probabilità condizionata, che è direttamente usato per determinare l'entropia condizionata e l'informazione reciproca.

Non capite che stiamo parlando di una sequenza di eventi indipendenti?
 

Un'altra cosa da aggiungere per HideYourRichess

L'informazione reciproca conta per le variabili fortemente correlate e correlate e determina la quantità di informazione stessa e la sua perdita. Quindi l'accoppiamento degli eventi a livello fisico è un elemento di tutta la teoria. O Schennom si è sbagliato...

 
Mathemat:

HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.

Non credo, lo so per certo.

Quello è il cinque! Ne voglio due!
HideYourRichess: Non vi rendete conto che stiamo parlando di una sequenza di eventi indipendenti?

Di quali eventi indipendenti sta parlando? Su una sequenza di caratteri alfabetici della fonte? No, non sono necessariamente indipendenti, ti è già stato spiegato. Un testo letterario russo ordinario è una sequenza di lettere dipendenti. Se fossero indipendenti, i testi letterari sarebbero molto più compressi dall'archivista di quanto lo siano realmente. Prendete e mischiate un testo letterario e confrontate i risultati dell'archiviazione del testo originale e di quello mischiato.

O pensi che gli insiemi sorgente e ricevitore siano variabili indipendenti?