Buscar

PESQUISA BIBLIOGRÁFICA SOBRE ESTIMAÇÃO DE PARÂMETROS E TESTE DE HIPÓTESES

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE DO ESTADO DE SANTA CATARINA - UDESC
CENTRO DE EDUCAÇÃO SUPERIOR DO OESTE – CEO
DEPARTAMENTO DE ENGENHARIA DE ALIMENTOS E ENGENHARIA QUÍMICA 
GABRIELA MANFRIN
NÍCOLAS RUWER HACKENHAR
VITOR GIANOCARO
PESQUISA BIBLIOGRÁFICA SOBRE ESTIMAÇÃO DE PARÂMETROS E TESTE DE HIPÓTESES
PINHALZINHO, SC 
2017
GABRIELA MANFRIN
NÍCOLAS RUWER HACKENHAR
VITOR GIANOCARO
PESQUISA BIBLIOGRÁFICA SOBRE ESTIMAÇÃO DE PARÂMETROS E TESTE DE HIPÓTESES
	
Trabalho apresentado à Disciplina de Estatística, dos Cursos de Engenharia de Alimentos e Engenharia Química da Universidade do Estado de Santa Catarina – UDESC, como requisito parcial à obtenção de aprovação na matéria.
Professor: Neudi Bordignon.
PINHALZINHO, SC 
2017
SUMÁRIO
1 INTRODUÇÃO	04
2 ESTIMAÇÃO DE PARÂMETROS 	06
2.1 PROPRIEDADES DOS ESTIMADORES 	06
2.2 VARIÃNCIA DE UM ESTIMADOR 	07
2.3 ERRO – PADRÃO ESTIMADO 	08
2.4 ERRO QUADRÁTICO MÉDIO DE UM ESTIMADOR 	08
2.5 O MÉTODO DE MÁXIMA VEROSSIMILHANÇA 	09
2.6 ESTIMAÇÃO PONTUAL 	09
2.7 ESTIMAÇÃO POR INTERVALO 	09
3 TESTE DE HIPÓTESES	17
3.1 TIPOS DE HIPÓTESES 	17
3.2 TIPOS DE ERROS 	18
4 CONCLUSÃO 	19
REFERÊNCIAS 	20
INTRODUÇÃO
O objetivo da inferência estatística é obter conclusões a respeito de populações através de uma amostra extraída dessa população. Uma variável aleatória é caracterizada por sua distribuição de probabilidade. Em alguns casos, no controle estatístico da qualidade, por exemplo, a distribuição de probabilidade é usada para descrever ou modelar alguma característica de qualidade, como por exemplo, uma dimensão crítica de um produto ou a proporção de defeituosos de um processo de manufatura. Assim, estamos interessados em fazer inferências a respeito dos parâmetros da distribuição de probabilidade. Muitas vezes estes parâmetros são desconhecidos e há interesse em estimá-los para obter um melhor conhecimento sobre a população: retira-se então uma amostra aleatória da população e através das técnicas de Estimação de Parâmetros procura-se obter uma estimativa de algum parâmetro de interesse, e associamos uma probabilidade de que a estimativa esteja correta. A Estimação de Parâmetros é uma subdivisão da Inferência Estatística (que consiste em fazer afirmações probabilísticas sobre o modelo probabilístico da população a partir de uma amostra aleatória desta população), a outra grande subdivisão constitui os Testes de Hipóteses.
Contrariamente à Estimação de Parâmetros os Testes de Hipóteses permitem fazer inferências sobre outras características do modelo probabilístico da população além dos parâmetros (como, por exemplo, a forma do modelo probabilístico da população). Quando os Testes são feitos sobre os parâmetros da população são chamados de Testes Paramétricos, e quando são feitos sobre outras características são chamados de Testes Não Paramétricos. 
Um teste de hipóteses é um procedimento que permite tomar uma decisão (aceitar ou rejeitar a hipótese nula) entre duas ou mais hipóteses (hipótese nula ou hipótese alternativa ), utilizando os dados observados de um determinado experimento. Há diversos métodos para realizar o teste de hipóteses, dos quais se destacam o método de Fisher (teste de significância), o método de Neyman–Pearson e o método de Bayes.
Por meio da teoria da probabilidade, é possível inferir sobre quantidades de interesse de uma população a partir de uma amostra observada de um experimento científico. Por exemplo, estimar pontualmente e de forma intervalar um parâmetro de interesse, testar se uma determinada teoria científica deve ser descartada, verificar se um lote de remédios deve ser devolvido por falta de qualidade, entre outros. Por meio do rigor matemático, a inferência estatística pode ser utilizada para auxiliar a tomada de decisões nas mais variadas áreas.
Os testes de hipóteses são utilizados para determinar quais resultados de um estudo científico podem levar à rejeição da hipótese nula a um nível de significância pré–estabelecido. O estudo da teoria das probabilidades e a determinação da estatística de teste correta são fundamentais para a coerência de um teste de hipótese. Se as hipóteses do teste de hipóteses não forem assumidas de maneira correta, o resultado será incorreto e a informação será incoerente com a questão do estudo científico. Os tipos conceituais de erro (erro do tipo I e erro do tipo II) e os limites paramétricos ajudam a distinguir entre a hipótese nula  e a hipótese alternativa.
 
2 ESTIMAÇÃO DE PARÂMETROS
A estatística trata de parâmetros extraídos da população, tais como média ou desvio padrão. Estes são realizados com o uso de amostras aleatórias extraídas de uma população, na qual se deseja fazer um determinado estudo.
A parte da estatística que procura deduzir informações relativas a uma população, levando em consideração a amostra extraída, é denominada Inferência Estatística. As técnicas de extração da informação probabilística e de obtenção das estimativas dos parâmetros a partir de uma amostra de observações, podem ser englobadas nos métodos da inferência estatística
O valor numérico da estatística ou estimador de um parâmetro, calculado para uma amostra observada, é chamado de estimativa desse parâmetro. Uma vez coletada uma amostra podemos realizar a análise exploratória dos dados e iniciar o processo de inferência estatística, ou seja inferir a respeito dos parâmetros populacionais a partir da amostra.
A diferença entre estatística e estimativa é que a estatística é uma variável aleatória, e a estimativa é um particular valor dessa variável aleatória.
A inferência estatística pode ser dividida em duas grandes áreas: estimação de parâmetros e testes de hipóteses. Como exemplo de um problema de estimação de parâmetros, suponha que um engenheiro de estruturas esteja analisando a resistência à tensão de um componente usado em um chassi de automóvel. Uma vez que a variabilidade da resistência à tração está naturalmente presente entre os componentes individuais, devido as diferenças nas bateladas da matéria-prima nos processos de fabricação e nos procedimentos de medidas (por exemplo), o engenheiro está interessado na estimação da resistência média à tração dos componentes. Na prática o engenheiro usará dados da amostra para calcular um número que é, de algum modo, um valor razoável (ou tentativa) da média verdadeira. Este número é chamado de estimativa. (MONTGOMERY,2003).
2.1 PROPRIEDADES DOS ESTIMADORES
Um estimador ,, como uma variável aleatória, tem uma certa distribuição em repetidas amostras de tamanho n. Em uma particular amostra, o valor calculado pode desviar em mais ou menos de , mas espera-se que, em média, ele determina o verdadeiro valor (). Não viciado é uma propriedade que assegura que, em média, o estimador é correto.
Um parâmetro desconhecido será daqui em diante representado por θ. O espaço paramétrico corresponde ao conjunto de todos os valores possíveis para o parâmetro θ e representa-se por Θ. Tendo como objetivo adiantar valores razoáveis para os parâmetros desconhecidos na distribui ̧c ̃ao da variável de interesse, iremos recorrer a estatísticas com características especiais, a que chamaremos estimadores. (MORGADO,2009)
A estatística T=T(X) diz-se um estimador do parâmetro
Desconhecido θ se T=T(X) apenas toma valores no espaço
Paramétrico Θ.
Ao valor observado do estimador de θ, t=T(x) dá-se o nome de estimativa de θ.
Para estimativas mais rigorosas: 
O estimador do parâmetro desconhecido θ diz-se centrado se 
 E[T(X)] =θ.
O estimador do parâmetro desconhecido θ diz-se enviesado se
 ∃θ∈Θ :E[T(X)]6=θ.
O estimador do parâmetro desconhecido θ possui enviesamento dado por: 
 biasθ[T(X)]6=E[T(X)]−θ
2.2 VARIÂNCIA DE UM ESTIMADOR 
Uma vezque Θ1 tenha uma variância menor que Θ2 é mais provável que o estimador Θ1 produza uma estimativa mais próxima do valor verdadeiro de θ. Sempre escolher o estimador que tiver variância mínima
2.3 ERRO-PADRÃO ESTIMADO
Quando o valor numérico ou a estimativa de um parâmetro é reportado, geralmente é desejável dar alguma ideia da precisão da estimação. A medida de precisão geralmente empregada é o erro padrão do estimador que está sendo usado.
Suponha que estejamos amostrando a partir de uma distribuição normal com média e desvio padrão . Agora, a distribuição é normal, com média e desvio padrão ; assim, o erro padrão estimado de é:
(10.1)
Se não conhecermos, e substituirmos o desvio padrão S da amostra na equação (10.1), então o erro padrão estimado de será:
2.4 ERRO QUADRÁTICO MÉDIO DE UM ESTIMADOR
Quando se usa um estimador tendencioso, o Erro quadrático Médio pode ser importante, principalmente pra comparar dois estimadores. Um estimador Θ que tenha um Erro quadrático Médio menor que ou igual ao erro quadrático médio de qualquer outro estimador, para todos os valores do parâmetro θ, é chamado de um estimador ótimo de θ, raramente existem. 
 O erro quadrático médio é definido como sendo a média da diferença entre o valor do estimador e do parâmetro ao quadrado. Assim, para um estimador T, temos: (Cunha,2016) 
 EQM(T) = E(T -θ)2 = Var(T) + [Viés(T)]2 
2.5 O MÉTODO DE MÁXIMA VEROSSIMILHANÇA
O método de máxima verossimilhança trata o problema de estimação da seguinte forma: baseado nos resultados obtidos pela amostra, devemos determinar qual a distribuição, dentre todas aquelas definidas pelos possíveis valores de seus parâmetros, com maior possibilidade de ter gerado tal amostra
a expressão do estimador de máxima verossimilhança é dada por:
	
.
2.6 ESTIMAÇÃO PONTUAL
A estimativa de um parâmetro populacional dada por um único valor para a estatística é denominada estimativa por ponto, Por exemplo, a estimativa pontual da média populacional μ é feita por um valor Todavia, esse procedimento não permite julgar qual a possível magnitude do erro que se está cometendo Daí surge a ideia de construir os intervalos de confiança, que são baseados na distribuição amostral do estimador pontual.
2.7 ESTIMAÇÃO POR INTERVALO
A estimativa de um parâmetro populacional dada por dois valores a e b (a < b), entre os quais se considera que o parâmetro esteja contido, é denominada estimativa por intervalo.
As estimativas por intervalo indicam a sua precisão ou exatidão, por isto são preferíveis às estimativas por ponto. A declaração da precisão de uma estimativa por intervalo denomina-se grau de confiança ou nível de confiança. Daí a denominação de Intervalo de Confiança.
A estimação por pontos de um parâmetro não possui uma medida do possível erro cometido na estimação, daí surge a ideia de construir os intervalos de confiança, que são baseados na distribuição amostral do estimador pontual. Uma maneira de expressar a precisão da estimação é estabelecer limites que, com certa probabilidade, incluam o verdadeiro valor do parâmetro da população. 
Esses limites são chamados “limites de confiança”: determinam um intervalo de confiança, no qual deverá estar o verdadeiro valor do parâmetro. Logo, a estimação por intervalo consiste na fixação de dois valores tais que (1 - α) seja a probabilidade de que o intervalo, por eles determinado, contenha o verdadeiro valor do parâmetro.
 α : nível de incerteza ou grau de desconfiança
 1 - α: coeficiente de confiança ou nível de confiabilidade. 
Portanto, α nos dá a medida da incerteza desta Inferência (nível de significância). 
Logo, a partir das informações de amostra, devemos calcular os limites de um intervalo, valores críticos que em (1- α) % dos casos inclua o valor do parâmetro a estimar e em α % dos casos não inclua o valor do parâmetro. (CORREA,2003)
Logo, para se ter confiança de estimar o verdadeiro parâmetro populacional, gera-se um intervalo de possíveis valores para o parâmetro populacional, a partir do valor encontrado na amostra. 
Quanto maior a amplitude do intervalo, maior a confiança (probabilidade) de estimar corretamente o verdadeiro parâmetro populacional.
Para a média populacional (μ)
(a) Caso em que n é grande e σ conhecido.
O desenvolvimento de intervalos de confiança para μ é baseado na distribuição amostral de . Sabe-se que, pelo Teorema Limite Central, se o tamanho da amostra (n) é grande, é aproximadamente N(0,1).
Usando-se a tabela da distribuição N(0,1), pode-se determinar um valor , tal que 
 
 
 
1 
 /2 
 /2
 
 
 
Onde:
 e 
Denomina-se: 
 
Se 1 - α = 0,95
Selecionada uma amostra, encontrada sua média (a) e sendo conhecido σ, pode-se construir o intervalo:
 
Este intervalo pode ou não conter o parâmetro μ, mas, pelo exposto acima, têm-se 95% de confiança de que o contenha.
Indica-se um intervalo de 100 (1 – α)% de confiança para μ, quando n é grande e σ conhecido, por: 
Se (1 - α) = 0,95 → 
Em um intervalo com:
nível de confiança (1 - α) fixo, se o tamanho da amostra (n) aumenta, a amplitude do intervalo diminui;
n fixo, se (1 - α) aumenta, A também aumenta, pois o valor de aumenta.
b) Caso em que n é grande e σ desconhecido
Para grandes amostras, a afirmação probabilística 
É ainda correta, mas como σ é desconhecido, o intervalo não pode ser construído. Entretanto, como n é grande (n ≥ 30), a substituição de σ pelo desvio padrão amostral (s) não afeta apreciavelmente essa afirmação probabilística, pois o valor numérico de s é uma estimativa acurada de , de modo que é aproximadamente N(0,1). Assim, o IC(μ : 1− α) é dado por: 
 Para a média populacional μ com base em amostras pequenas (n < 30)
Se X1, X2, ..., Xn é uma amostra aleatória de uma população com distribuição normal N (μ, σ2), a média amostral é exatamente distribuída como N (μ, ). Sendo σ conhecido, o IC (μ : 1 – α) é dado por:
 , o qual é construído a partir de (1)
Quando σ é desconhecido, como é tipicamente o caso, uma aproximação intuitiva é substituir σ por s em (1) e considerar a razão 
 .
 IC (μ : 1- α) é obtido de .
Fazendo uso do fato que, para n grande, a distribuição binomial pode ser aproximada com a normal, isto é, que a variável aleatória tem distribuição aproximadamente N(0,1), pode-se escrever:
	
	
 
Dividindo-se o numerador e o denominador de Z por n, temos:
 (1)
Um intervalo com (1-α)100% de confiança aproximado para p é obtido, escrevendo (1) como 
 
Onde () é a proporção dos elementos da amostra que possuem uma particular característica.
Substituindo p, visto que é desconhecido, por seu estimador dentro das raízes, obtêm-se: 
Portanto, 
é o intervalo de (1 - α)100% de confiança para p. Indica-se por IC (p : 1- α). 
O efeito de se utilizar uma estimativa do desvio padrão no IC é desprezível quando n é grande (n ≥ 30).
Para estimação de μ
Supondo σ conhecido, o erro da estimação de μ por é . Fixando um erro máximo de tamanho d, com probabilidade , então . Resolvendo para n, 
Note que se é σ desconhecido, uma estimativa de σ é necessária para calcular o tamanho da amostra (n). Este problema é resolvido por meio de uma amostra preliminar que fornece s, que, por sua vez, permite o cálculo de n.
Para estimação de p
Neste caso, . Assim, 
Esta solução não é usada, porque ela envolve o parâmetro p, queé desconhecido. Os valores de p variam de 0 a 1, de modo que p (1 - p) aumenta de 0 até 1/4 (valor máximo), decrescendo, a partir daí, até 0. O valor máximo de pq é 1/4, quando
 p = q = 1/2, de modo que a solução n deve satisfazer
 
Sem qualquer conhecimento prévio do valor aproximado de p, a escolha do n máximo proporciona a proteção desejada. Se for conhecido que o valor de p está próximo de um valor p*, então n pode ser determinado de
 
Para estimação de p usando probabilidades binomiais b(x : n, p)
Quando a ocorrência de certa característica em uma população é pouco freqüente, podemos calcular o tamanho da amostra (n) para a estimação de p, considerando uma probabilidade para que tenhamos pelo menos um (1) sucesso (S) na amostra, que seja maior ou igual a β (%). Essa probabilidade binomial, em termos matemáticos, pode ser representada por:
P (pelo menos 1 S) = 1 – P (nenhum S) = 1 – P (X = 0) ≥ β
 
P (pelo menos 1 S) = 1 – P (nenhum S) = 
Logo, ⇒ ⇒ (1)
Aplicando-se logaritmo em ambos lados de (1), obtêm-se: (2)
Resolvendo (2) para n, 
Por exemplo, se P (S) = p = 0,1 e β = 90 %
e se p = 0,01,		
3 TESTE DE HIPÓTESES
Contrariamente à Estimação de Parâmetros os Testes de Hipóteses permitem fazer inferências sobre outras características do modelo probabilístico da população além dos parâmetros (como, por exemplo, a forma do modelo probabilístico da população)
Trata-se de uma técnica para se fazer inferência estatística. Ou seja, a partir deum teste de hipóteses, realizado com os dados amostrais, pode-se inferir sobre a população.
É uma regra de decisão para aceitar ou rejeitar uma hipóteses estatística com base nos elementos amostrais.
Designa-se por Ho, chamada hipótese nula, a hipóteses estatística a ser testada, e por H1 a hipótese alternativa. A hipótese nula expressa uma igualdade, enquanto que a hipótese alternativa é dada por uma desigualdade (≠, < , >). (LOPES,2003)
 
3.1 TIPOS DE HIPÓTESES
. Teste Bicaudal ou Bilateral H0: Θ= θ0 
 H1: Θ≠ θ0
. Teste Unilateral Direito H0: Θ= θ0 
 H1: Θ> θ0
. Teste Unilateral Esquerdo H0: Θ= θ0 
 H1: Θ< θ0
Para realizar um Teste de Hipóteses é necessário definir (enunciar) duas Hipóteses Estatísticas complementares (que abrangem todos os resultados possíveis): a chamada Hipótese Nula (denotada por H0) e a Hipótese Alternativa (denotada por H1ou Ha). 
A Hipótese Nula (H0) é a hipótese estatística aceita como verdadeira até prova estatística em contrário: pode ser o ponto de partida mais adequado para o estudo, ou exatamente o contrário do que o pesquisador quer provar (ou o contrário daquilo que o preocupa).
A Hipótese Alternativa (H1), que será uma hipótese complementar de H0, fornecerá uma alternativa à hipótese nula: muitas vezes é justamente o que o pesquisador quer provar (ou o que o preocupa). Quando as hipóteses são formuladas sobre os parâmetros do modelo probabilístico da 
População o Teste de Hipóteses é chamado de Paramétrico. Quando as hipóteses são formuladas sobre outras características do modelo o Teste é chamado de Não Paramétrico. A decisão do teste consiste em aceitar ou rejeitar a Hipótese Nula (H0): vai-se aceitar ou não a hipótese até então considerada verdadeira. 
3.2 TIPOS DE ERROS
Há dois tipos de erros ao testar uma hipótese estatística. Pode-se rejeitar uma hipóteses quando ela é, de fato verdadeira, ou aceitar uma hipóteses quando ela é, de fato, falsa. A rejeição de uma hipótese verdadeira é chamada "erro tipo I". A aceitação de uma hipótese falsa constitui um "erro tipo II". As probabilidades desses dois tipos de erros são designados, respectivamente, por αe β.A probabilidade α do erro do tipo I é denominada "nível de significância" do teste.
3 CONCLUSÃO
	Como vimos no decorrer deste semestre e na elaboração do presente trabalho, a Estatística e a ciência que procura organizar, descrever, analisar e interpretar dados para que seja possível tomar decisões e se chegar a uma conclusão. Para isso, estuda-se uma população, que é o conjunto de elementos que tem no mínimo uma característica em comum. Desta população, retiram-se amostras que nos permitem chegar as devidas conclusões sobre a análise. Esta amostra deve ser representativa, suficiente e aleatória, para demonstrar confiabilidade.
	Fazer uma afirmação probabilística sobre uma característica qualquer é associar à declaração feita uma probabilidade de que tal declaração esteja correta (e, portanto, a probabilidade complementar de que esteja errada). Quando se usa uma amostra da população SEMPRE haverá uma probabilidade de estar cometendo um erro (justamente por ser usada uma amostra): a diferença entre os métodos estatísticos e os outros reside no fato de que os métodos estatísticos permitem calcular essa probabilidade de erro. E para que isso seja possível a amostra da população precisa ser aleatória. (REIS, 2004)
	As afirmações probabilísticas sobre o modelo podem ser a Estimação de Parâmetros e o Teste de Hipóteses. Ambos nos ajudam a chegar à conclusões mais claras, analisando as probabilidades de certa amostra. Com essas analises as decisões tomadas a partir da análise ficam mais próximas do correto, eliminando assim, as possibilidades de cometer um erro.
REFERÊNCIAS
SOBRENOME, Nome. Título texto. Disponível em: http://www.inf.ufsc.br/~marcelo.menezes.reis/Cap10.pdf. Acesso em: 23 nov 2017.
http://www.producao.ufrgs.br/arquivos/disciplinas/489_estaind006_estimacao.pdf
MONTGOMERY, Douglas C.; RUNGER, George C. Estatística Aplicada e Probabilidade para Engenheiros. LTC: Rio de Janeiro, 2003. 
 
http://www.luisam.utad.pt/Estimation.pdf
http://www.portalaction.com.br/confiabilidade/421-metodo-de-maxima-verossimilhanca
https://edisciplinas.usp.br/pluginfile.php/3196121/mod_resource/content/1/T%C3%B3pico_10.pdf
http://www.inf.ufsc.br/~vera.carmo/LIVROS/LIVROS/livro_probabilidade_estatistica_2a_ed.pdf
https://www.inf.ufsc.br/~vera.carmo/LIVROS/LIVROS/Luis%20Felipe%20Dias%20Lopes.pdf
http://www.inf.ufsc.br/~marcelo.menezes.reis/Cap9.pdf

Continue navegando