Teorema de Bernoulli, Moab-Laplace; critério Kolmogorov; esquema de Bernoulli; fórmula Bayes; desigualdades Chebyshev; lei de distribuição Poisson; teoremas Fisher, Pearson, Student, Smirnov etc., modelos, linguagem simples, sem fórmulas.

 

Você poderia explicar seu significado em termos simples.

Por exemplo, no tipo de explicação e exemplo de uma cadeia de Markov, é um dos casos mais simples de uma seqüência de eventos aleatórios. Mas apesar de sua simplicidade, muitas vezes pode ser útil mesmo quando se trata de descrever fenômenos bastante complexos.

Cadeia Uma cadeia de Markov é uma seqüência de eventos aleatórios na qual a probabilidade de cada evento depende apenas do anterior, mas é independente dos eventos anteriores. Por exemplo, uma corrente Markov é uma seqüência de baralhar um baralho de cartas de baralho. A probabilidade de que depois de outro baralhamento as cartas estarão em uma determinada ordem depende apenas de seu pedido antes desse baralhamento e é independente de todos os anteriores. Ou seja, a seqüência de estados de um sistema é uma cadeia de Markov, se o estado atual do sistema determinar completamente o que pode acontecer com ele a seguir, e como chegou a esse estado é irrelevante.
 

De tudo isso, o único que me foi útil foi este - Uma cadeia Markov é uma seqüência de eventos aleatórios na qual a probabilidade de cada evento depende apenas do estado em que o processo está no momento atual e é independente dos estados anteriores.


 
sever31:

Você poderia explicar o significado deles em termos simples.

Por exemplo, no tipo de explicação e exemplo de uma cadeia de Markov, é um dos casos mais simples de uma seqüência de eventos aleatórios. Mas apesar de sua simplicidade, muitas vezes pode ser útil mesmo quando se trata de descrever fenômenos bastante complexos.

Cadeia Uma cadeia de Markov é uma seqüência de eventos aleatórios na qual a probabilidade de cada evento depende apenas do anterior, mas é independente dos eventos anteriores. Por exemplo, uma corrente Markov é uma seqüência de baralhar um baralho de cartas de baralho. A probabilidade de que depois de outro baralhamento as cartas estarão em uma determinada ordem depende apenas de seu pedido antes desse baralhamento e é independente de todos os anteriores. Ou seja, a seqüência de estados de um sistema é uma cadeia de Markov, se o estado atual do sistema determinar completamente o que pode acontecer com ele a seguir, e como chegou a esse estado é irrelevante.

Algo sobre o exemplo do cartão não é convincente. Obviamente, a ordem na qual as cartas terminam após o último embaralhamento depende de todos os embaralhamentos anteriores a esse.

Se se trata de algum sentido especial do termo "depender", então isso é brincar com a terminologia para os "escolhidos".

 
sever31:

Você poderia explicar seu significado em termos simples.

Por exemplo, no tipo de explicação e exemplo de uma cadeia de Markov, é um dos casos mais simples de uma seqüência de eventos aleatórios. Mas apesar de sua simplicidade, muitas vezes pode ser útil mesmo quando se trata de descrever fenômenos bastante complexos.

Cadeia Uma cadeia de Markov é uma seqüência de eventos aleatórios na qual a probabilidade de cada evento depende apenas do anterior, mas é independente dos eventos anteriores. Por exemplo, uma corrente Markov é uma seqüência de baralhar um baralho de cartas de baralho. A probabilidade de que depois de outro baralhamento as cartas estarão em uma determinada ordem depende apenas de seu pedido antes desse baralhamento e é independente de todos os anteriores. Ou seja, a seqüência de estados de um sistema é uma cadeia de Markov, se o estado atual do sistema determinar completamente o que pode acontecer com ele a seguir, e como chegou a esse estado é irrelevante.
Eu entendo assim. Por exemplo, vamos tomar (no nosso caso) uma SELL e uma BAY. A probabilidade de colocar uma ordem na posição correta é de 1/2, ou seja, 50%. Levamos em conta a dispersão, portanto é menor. O próximo passo - se ganharmos, a próxima probabilidade é 1/2 - (menos) 1/4, se perdermos, é 1/2+1/4 e assim por diante. ))))
 
MoneyJinn: Não estou convencido com o exemplo do cartão. Obviamente, a ordem na qual as cartas terminam após o último embaralhamento depende de todos os embaralhamentos anteriores a esse.
O exemplo de cartão diz que a seqüência de cartões no último embaralhamento é toda a informação que temos para calcular a probabilidade de seqüências diferentes no próximo embaralhamento. A adição dos resultados de embaralhamentos anteriores não nos dá nenhuma nova informação.
 
Mathemat:


Alexei, você poderia dar uma explicação clara e concisa dos ensinamentos mencionados dos cidadãos listados, com exemplos.
 

Eu poderia, mas agora estou com raiva. Eu escrevi 15 linhas sobre o teorema de Bernoulli, mas o fórum me fez voltar a fazer o login. Tudo isso se perdeu. Espere um minuto, Vladimir.

P.S. Nem pergunte por que o fórum é tão viciado. Eu não sei. Não é fácil mover um fórum tão grande.

 

Na verdade, para cobrir toda a gama de perguntas feitas pelo iniciador do tópico, precisamos escrever um artigo. Para estudiosos. Será muito difícil, porque os terver/matstatistics tradicionalmente se referem a teorias bastante complicadas: sociólogos, trabalhadores médicos, biólogos muitas vezes aplicam muito incorretamente terver/matstat ao interpretar suas observações. A razão é que sua educação básica não é matemática.

Em resumo, vamos começar devagar, um problema de cada vez.

Portanto, aqui está o teorema de Bernoulli sobre a BSE. Na verdade, para o humanista este artigo não esclarece nada, porque a formulação do teorema em si não está lá. Há apenas uma estimativa da probabilidade de desvio da freqüência de um evento de sua probabilidade (ainda não confundida?) por Chebyshev.

De forma simples, mas infelizmente bastante incorreta, o teorema de Bernoulli é assim:

A freqüência de um evento [no esquema de Bernoulli] tende a sua probabilidade à medida que o número de tentativas aumenta.

Para explicar a formulação (especialmente as letras pequenas), você terá que mergulhar pelo menos um pouco em alguns conceitos básicos da teoria da probabilidade.

1. Probabilidade na teoria da probabilidade é um conceito indefinível (como linha reta e ponto na geometria). Mas, para aplicá-lo de forma significativa, precisamos interpretá-lo de alguma forma. Em terversa a interpretação de freqüência é aceita: a probabilidade de um evento é aproximadamente igual à freqüência de sua ocorrência sob condições constantes de repetição de testes e com um número muito grande de testes. Digamos que, se rolarmos o dado e seguirmos o evento "Cinco caiu", e nosso dado é perfeito (todas as faces são igualmente preferíveis), então a probabilidade deste evento p = 1/6, e a probabilidade do evento adicional ("qualquer coisa caiu menos cinco") é q = 1 - p = 5/6. Assim, se rolarmos este dado um milhão de vezes, a freqüência de cinco será de cerca de 1/6, e os possíveis desvios de freqüência são quase sempre muito pouco diferentes de 1/6.

2. O que é um esquema Bernoulli? É uma seqüência de testes de um único tipo e independentes nos quais apenas 2 resultados são possíveis - sucesso (Y) e fracasso (F).

Em nosso caso, podemos tomar Y como o evento "um A caiu" e H como "algo mais caiu, não igual a um A". Sabemos a probabilidade de sucesso e ela é p = 1/6.

A palavra "independente" é quase a coisa mais importante no esquema de Bernoulli. Se eu sou um croupier experiente e estou jogando com alguém, quase certamente posso controlar o jogo de modo a torná-lo vantajoso para mim. Serei capaz de acompanhar os resultados e lançar mais os dados para que eu ganhe. Em outras palavras, eu sou capaz de quebrar a condição mais importante dos julgamentos no esquema de Bernoulli - sua independência. E as estimativas de probabilidade de que estamos falando aqui estarão erradas.

Sabemos que se jogarmos o dado 10 vezes, os cinco podem cair 0, 2, 5, e até 10 vezes. O resultado mais provável dos mencionados é 2 vezes em cada 10 (é o mais próximo a uma probabilidade de 1/6). A probabilidade do resultado "cinco nunca aconteceu" não é alta e nem baixa, mas para o resultado "10 de 10 - cinco" é extremamente baixa. Que leis regem estas probabilidades? Uma das técnicas terver utilizadas para descobrir tal lei é a "multiplicação" de atualizações: vamos chamar uma única seqüência de 10 lançamentos de uma série e agora começar a realizar muitas séries.

Se executarmos muitas séries de 10 lançamentos (digamos, N = 1.000.000 séries), então digite em uma tabela os resultados das séries ("2 fives", "5 fives", etc.), e então desenhe um histograma, ou seja, a dependência da freqüência das séries em relação ao resultado, obteremos uma curva muito semelhante a uma gaussiana, ou seja, um sino. Na verdade, não é uma curva gaussiana, embora com um milhão de séries ela difira muito pouco da curva gaussiana. Este histograma pode teoricamente ser calculado e corresponderá a uma distribuição binomial.

A principal diferença entre os casos N=100 e N=1.000.000 será apenas a "largura média" dos histogramas. No segundo caso, é muito menor que o primeiro, ou seja, o histograma é mais estreito. "Largura média" (desvio padrão) é uma medida do desvio das freqüências possíveis em relação às teóricas.

Agora podemos dar voz ao teorema de Bernoulli:

Conforme aumenta o número de tentativas N do esquema de Bernoulli, a probabilidade de que o desvio real da taxa de sucesso em relação à probabilidade de sucesso não exceda um epsilon>0 pré-determinado, por menor que seja, tende a 1.

O teorema de Bernoulli não fornece estimativas de quão grande pode ser o desvio para um determinado N. Estas estimativas podem ser feitas com a ajuda do teorema de Mois-Laplace (local ou integral). Mas sobre isto - na próxima vez. Por enquanto, faça perguntas.

P.S. Eu corrigi os erros no título do tópico.

 

O tema é SUPER. Estou chocado com sua aparência.

Vai ser difícil para os autores. É como uma tradução competente do chinês.

Não tenham pressa, rapazes.

 

IMHO, isso não vai ajudar. Tudo isso está vazio, na ausência de uma base apropriada. Quem tem uma base, não precisa mastigar, essas ou outras características para explicar essas ou outras condições - sem perguntas, mas de outra forma... :-).

Leia a cartilha em várias ocasiões e VOCÊ SERÁ RELEVANTE!!! :-)

P.S. ... especialmente "... O que você quer dizer com "em linguagem simples, sem fórmulas"? Uma coisa contradiz a outra... :-) Uma linguagem muito mais simples e mais curta do que ter uma fórmula! Quando há uma fórmula específica, especialmente com uma descrição de suas variáveis constituintes, não há necessidade de nenhuma linguagem... tudo é claro.

Razão: