Estadística de la dependencia entre comillas (teoría de la información, correlación y otros métodos de selección de características) - página 9

 
Avals:


no para mí)))) si se requiere la independencia, ¿por qué tal cosa como la entropía condicional, por ejemplo?

Si la secuencia de símbolos del alfabeto no es independiente (por ejemplo, en francés la letra "q" va casi siempre seguida de la "u", y la palabra "vanguardia" en los periódicos soviéticos solía ir seguida de "producción" o "trabajo"), la cantidad de información que transporta la secuencia de dichos símbolos (y, por tanto, la entropía) es obviamente menor. Laentropía condicional se utiliza para dar cuenta de estos hechos. https://ru.wikipedia.org/wiki/Информационная_энтропия

Oh sí, entropía condicional. ¿Está claro que hay un espacio cerrado de resultados de todos modos? Y todas las letras están claramente contadas, etc. De hecho, estamos hablando de una simple ampliación del alfabeto original de 26 caracteres a un alfabeto de cuántas sílabas. Es una aproximación.
 
HideYourRichess:
Oh sí, entropía condicional. ¿Está claro que hay un espacio cerrado de resultados allí de todos modos? Y todas las letras están claramente contadas, etc. De hecho, estamos hablando de una simple ampliación del alfabeto original de 26 caracteres a un alfabeto de cuántas sílabas. Es una aproximación.


así que ese es más o menos el punto de la entropía)) O el grado de compresión de un archivador perfecto.

 
Mathemat:

Lo siento, HideYourRichess, pero parece que se te ha ido la olla. No sé qué debatir contigo ahora que te empeñas en decir tonterías. Su lógica de razonamiento

es completamente incomprensible para mí.

No lo creeré. Muéstrame la fuente que afirma que

La noción de pruebas independientes, derivada de Bernoulli, ¿será suficiente? O aquí, una formulación de la ley de los grandes números: Sea una secuencia infinita de variables aleatorias igualmente distribuidas y no correlacionadas... Sea una secuencia infinita de variables aleatorias independientes igualmente distribuidas...
 
Avals:


así que ese es más o menos el punto de la entropía)) O en el grado de compresión de un archivador perfecto

Sólo en el contexto de un alfabeto conocido.
 

HideYourRichess, si crees que todos los tervers se reducen a la serie de Bernoulli o a la ley de los grandes números, estás muy equivocado.

Déjate de tonterías y familiarízate con el concepto de probabilidad condicional, que se utiliza directamente para determinar la entropía condicional y la información mutua.

 
Mathemat:

HideYourRichess, si crees que todo el terver se reduce a la serie de Bernoulli o a la ley de los grandes números, estás muy equivocado.

No lo pienso, lo sé con certeza.

 
HideYourRichess:
La noción de pruebas independientes, derivada de Bernoulli, ¿será suficiente? O aquí, una formulación de la ley de los grandes números: Sea una secuencia infinita de variables aleatorias igualmente distribuidas y no correlacionadas... Sea una secuencia infinita de variables aleatorias independientes igualmente distribuidas...

Sugiero coger las publicaciones de la propia Shannon y leerlas. Creo que los oponentes de este hilo sólo están buscando una "pelea" sin ninguna razón en particular. Estudié teoría de la probabilidad en la universidad, aunque mi formación no es matemática. Por lo que recuerdo, una característica importante es la estacionariedad de las variables aleatorias estudiadas.

Y diré más desde mi formación no matemática. Tomemos la teoría de la comunicación aplicada a la que se desarrolló TI. Hay un cable que lleva señales, su significado no es importante para nosotros. Queremos calcular las pérdidas de información en este cable y consideramos la fuente y el transmisor (DERECHO: transmisor y receptor) como dos variables aleatorias. ¿No están conectados a priori? Tomo nota: se supone que están conectados por el proverbial cable. ¿Qué dices a eso?

 
Mathemat:

HideYourRichess,

Déjate de tonterías y familiarízate con el concepto de probabilidad condicional, que se utiliza directamente para determinar la entropía condicional y la información mutua.

¿No entiendes que estamos hablando de una secuencia de eventos independientes?
 

Una cosa más que añadir para HideYourRichess

La información mutua cuenta para las variables muy relacionadas y correlacionadas y determina la cantidad de información propia y su pérdida. Así que el acoplamiento de los acontecimientos a nivel físico es un elemento de toda la teoría. O es que Schennom se equivocó...

 
Mathemat:

HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.

No lo creo, lo sé a ciencia cierta.

¡Ese es el quinto! ¡Quiero dos!
HideYourRichess: ¿No te das cuenta de que estamos hablando de una secuencia de eventos independientes?

¿A qué eventos independientes se refiere? ¿Sobre una secuencia de caracteres alfabéticos de la fuente? No, no son necesariamente independientes, ya se le ha explicado. Un texto literario ruso ordinario es una secuencia de letras dependientes. Si fueran independientes, los textos literarios estarían mucho peor comprimidos por el archivero de lo que realmente están. Coge y baraja algún texto literario y compara los resultados del archivo del texto original y del barajado.

¿O crees que los conjuntos de fuentes y receptores son variables independientes?
Razón de la queja: