Matemática Superior: Inferência Estatística
VOLUME 117
N(μ,σ²)
P(X|Y)
X̄ ± zσ
H₀ vs H₁
χ²
DADOS QUE FALAM!
E[X̄] = μ
Var(X̄) = σ²/n
P(a ≤ X ≤ b)
β₁ = Cov(X,Y)/Var(X)

MATEMÁTICA

SUPERIOR

Inferência Estatística
A Arte de Tirar Conclusões dos Dados

JOÃO CARLOS MOREIRA

Sumário

Capítulo 1 — Introdução à Inferência Estatística
Capítulo 2 — Probabilidade e Distribuições
Capítulo 3 — Amostragem e Estatísticas
Capítulo 4 — Estimação Pontual
Capítulo 5 — Intervalos de Confiança
Capítulo 6 — Testes de Hipóteses
Capítulo 7 — Inferência para Médias
Capítulo 8 — Inferência para Proporções
Capítulo 9 — Regressão e Correlação
Capítulo 10 — Aplicações em Ciência de Dados
Referências Bibliográficas

Introdução à Inferência Estatística

Como podemos conhecer o todo observando apenas uma parte? Esta pergunta aparentemente simples é o coração da inferência estatística — a arte e ciência de tirar conclusões sobre populações inteiras a partir de amostras limitadas. É como tentar entender o sabor de um caldeirão de sopa provando apenas uma colherada, ou prever o resultado de uma eleição entrevistando alguns milhares de eleitores entre milhões. A inferência estatística nos dá as ferramentas matemáticas para fazer isso com confiança e precisão conhecidas!

O Desafio da Incerteza

Vivemos em um mundo onde a certeza absoluta é rara. Médicos precisam diagnosticar doenças com base em sintomas que podem indicar várias condições. Empresas lançam produtos sem saber exatamente como o mercado reagirá. Cientistas testam teorias com experimentos limitados. A inferência estatística abraça essa incerteza, transformando-a em probabilidades quantificáveis e decisões informadas.

Por Que Inferência Estatística?

A inferência estatística nos permite:

  • Estimar características populacionais usando amostras pequenas
  • Quantificar a incerteza de nossas estimativas
  • Testar hipóteses sobre o mundo com rigor matemático
  • Tomar decisões baseadas em evidências, não em achismos
  • Distinguir padrões reais de coincidências aleatórias

Uma História de Descobertas

A inferência estatística tem raízes surpreendentemente antigas. Comerciantes medievais já usavam amostras de grãos para avaliar carregamentos inteiros. Mas foi no século XX que a teoria floresceu, com pioneiros como Ronald Fisher revolucionando a agricultura através de experimentos cuidadosamente planejados, e Jerzy Neyman e Egon Pearson estabelecendo as bases matemáticas dos testes de hipóteses modernos.

Marcos Históricos

A evolução da inferência estatística:

  • Século XVIII: Primeiros censos populacionais e tabelas de mortalidade
  • 1900s: Karl Pearson desenvolve o teste qui-quadrado
  • 1920s: Fisher introduz análise de variância e planejamento de experimentos
  • 1930s: Neyman-Pearson formalizam testes de hipóteses
  • Hoje: Big Data e machine learning expandem fronteiras

Os Dois Pilares: Estimação e Teste

A inferência estatística se apoia em dois pilares fundamentais. O primeiro é a estimação — usar dados amostrais para estimar parâmetros populacionais desconhecidos. Quanto mede, em média, um brasileiro adulto? Qual a taxa de desemprego real? O segundo pilar são os testes de hipóteses — procedimentos para decidir se evidências amostrais apoiam ou contradizem afirmações sobre a população.

Exemplos do Dia a Dia

A inferência está em toda parte:

  • Pesquisas eleitorais estimam intenções de voto de milhões usando milhares
  • Testes de medicamentos inferem eficácia geral de estudos controlados
  • Controle de qualidade rejeita lotes inteiros testando pequenas amostras
  • Testes A/B em websites decidem mudanças baseadas em grupos de usuários
  • Previsões meteorológicas usam modelos estatísticos e dados históricos

População versus Amostra

A distinção entre população e amostra é fundamental. A população é o conjunto completo que queremos estudar — todos os brasileiros, todas as peças produzidas por uma fábrica, todos os possíveis lançamentos de um dado. A amostra é o subconjunto que efetivamente observamos. A magia da inferência está em usar propriedades matemáticas para conectar o que vemos (amostra) com o que queremos saber (população).

Notação e Conceitos

  • População: Conjunto completo de interesse
  • Parâmetro: Característica numérica da população (μ, σ, p)
  • Amostra: Subconjunto observado da população
  • Estatística: Característica calculada da amostra (x̄, s, p̂)
  • Inferência: Processo de usar estatísticas para aprender sobre parâmetros

O Papel da Probabilidade

A probabilidade é a linguagem da incerteza. Na inferência estatística, não dizemos "a média populacional É 1,75m", mas sim "temos 95% de confiança de que a média populacional está entre 1,73m e 1,77m". Essa mudança de certeza para probabilidade é profunda — reconhece a limitação inerente de trabalhar com amostras, mas também quantifica precisamente nossa incerteza.

Probabilidade em Ação

  • Margem de erro em pesquisas: "±3 pontos percentuais"
  • Valor-p em testes: "probabilidade menor que 0,05"
  • Intervalos de confiança: "95% de confiança"
  • Risco em decisões: "taxa de erro tipo I de 5%"
  • Previsões: "70% de chance de chuva"

Tipos de Dados e Variáveis

Nem todos os dados são criados iguais. Variáveis quantitativas (altura, peso, renda) permitem operações aritméticas e têm interpretação numérica direta. Variáveis qualitativas (cor dos olhos, preferência política, tipo sanguíneo) representam categorias. Cada tipo requer métodos inferenciais específicos — não podemos calcular a "média" da cor dos olhos!

Classificando Variáveis

  • Quantitativas contínuas: Temperatura, tempo, distância
  • Quantitativas discretas: Número de filhos, gols marcados
  • Qualitativas nominais: Profissão, marca preferida
  • Qualitativas ordinais: Escolaridade, satisfação (ruim/regular/bom)
  • Cada tipo tem seus métodos estatísticos apropriados

A Importância da Aleatorização

Para que a inferência funcione, a amostra deve representar bem a população. A aleatorização é nossa garantia matemática dessa representatividade. Quando cada elemento da população tem chance conhecida de ser selecionado, podemos usar a teoria das probabilidades para quantificar a precisão de nossas inferências. Sem aleatorização, até a matemática mais sofisticada não pode salvar conclusões enviesadas!

Princípios da Boa Amostragem

  • Aleatoriedade: Cada elemento tem probabilidade conhecida de seleção
  • Representatividade: Amostra reflete características populacionais
  • Independência: Seleção de um elemento não afeta outro
  • Tamanho adequado: Suficiente para precisão desejada
  • Documentação: Processo de seleção claramente descrito

Erros e Limitações

Honestidade intelectual exige reconhecer limitações. A inferência estatística não é mágica — não pode criar informação do nada. Amostras pequenas limitam precisão. Amostras enviesadas levam a conclusões erradas. Modelos inadequados distorcem resultados. Mas quando usada corretamente, a inferência estatística é uma das ferramentas mais poderosas para compreender o mundo através de dados limitados.

Armadilhas Comuns

  • Viés de seleção: Amostra não-representativa da população
  • Tamanho insuficiente: Precisão inadequada para detectar efeitos
  • Múltiplas comparações: Aumenta chance de falsos positivos
  • Confusão correlação/causação: Inferência não prova causalidade
  • Extrapolação indevida: Conclusões além do escopo dos dados

O Caminho à Frente

Nos próximos capítulos, construiremos o edifício matemático da inferência estatística. Começaremos com probabilidade — a fundação teórica. Depois exploraremos como amostras se comportam. Aprenderemos a estimar parâmetros e quantificar incerteza através de intervalos de confiança. Dominaremos a arte de testar hipóteses. E veremos como tudo isso se aplica em situações práticas, desde pesquisas de opinião até descobertas científicas.

A jornada pela inferência estatística é uma aventura intelectual que mudará como você vê dados e decisões. Prepare-se para desenvolver um sexto sentido para distinguir sinal de ruído, padrão de coincidência, evidência de especulação. Bem-vindo ao fascinante mundo onde matemática encontra incerteza e produz conhecimento!

Probabilidade e Distribuições

Se a inferência estatística é uma casa, a probabilidade é seu alicerce. Sem uma compreensão sólida de como a aleatoriedade funciona, não podemos construir métodos confiáveis para tirar conclusões de dados incertos. Neste capítulo, exploraremos o fascinante mundo das probabilidades e distribuições — as ferramentas matemáticas que transformam o caos aparente do acaso em padrões previsíveis e quantificáveis. Prepare-se para descobrir como a matemática domestica o aleatório!

A Natureza da Probabilidade

O que significa dizer que há 30% de chance de chuva amanhã? Ou que a probabilidade de tirar um ás é 4/52? A probabilidade quantifica nossa incerteza sobre eventos futuros ou desconhecidos. É um número entre 0 (impossível) e 1 (certo) que expressa o grau de confiança ou frequência esperada de um evento.

Interpretações da Probabilidade

  • Frequentista: Proporção em repetições infinitas do experimento
  • Clássica: Razão entre casos favoráveis e possíveis
  • Subjetiva: Grau de crença pessoal no evento
  • Axiomática: Definida por propriedades matemáticas
  • Todas convergem para os mesmos cálculos práticos!

Regras Fundamentais

A probabilidade obedece a regras elegantes que permitem calcular probabilidades complexas a partir de probabilidades simples. Como peças de LEGO matemático, essas regras se combinam para resolver problemas surpreendentemente sofisticados.

As Regras em Ação

  • Regra da adição: P(A ou B) = P(A) + P(B) - P(A e B)
  • Regra da multiplicação: P(A e B) = P(A) × P(B|A)
  • Complemento: P(não A) = 1 - P(A)
  • Probabilidade total: Soma sobre partição = 1
  • Regra de Bayes: Inverte condicionamento

Variáveis Aleatórias

Uma variável aleatória é uma função que associa números a resultados de experimentos aleatórios. É a ponte entre o mundo qualitativo dos eventos e o mundo quantitativo dos números. Quando jogamos dois dados e somamos os valores, a soma é uma variável aleatória que pode assumir valores de 2 a 12, cada um com sua probabilidade.

Tipos de Variáveis Aleatórias

  • Discretas: Assumem valores contáveis (nº de caras, defeitos)
  • Contínuas: Assumem valores em intervalos (altura, tempo)
  • Função de probabilidade: P(X = x) para discretas
  • Densidade: f(x) para contínuas (probabilidade em intervalos)
  • Cada tipo tem suas peculiaridades matemáticas

Esperança e Variância

Toda variável aleatória tem características numéricas importantes. A esperança (ou valor esperado) é o "centro de gravidade" da distribuição — onde a variável tende a estar "em média". A variância mede o quão dispersos os valores estão em torno dessa média. Juntas, capturam localização e dispersão.

Medidas Fundamentais

  • Esperança: E[X] = μ = ∑x·P(X=x) ou ∫x·f(x)dx
  • Variância: Var(X) = σ² = E[(X-μ)²]
  • Desvio padrão: σ = √Var(X)
  • Propriedades: E[aX+b] = aE[X]+b
  • Var(aX+b) = a²Var(X)

A Distribuição Normal

Se há uma celebridade no mundo das distribuições, é a Normal (ou Gaussiana). Sua curva em forma de sino aparece em toda parte — altura de pessoas, erros de medição, retornos financeiros. O Teorema Central do Limite explica essa onipresença: médias de muitas variáveis independentes tendem à normalidade!

A Rainha das Distribuições

  • Notação: X ~ N(μ, σ²)
  • Completamente determinada por média μ e variância σ²
  • 68% dos valores entre μ ± σ
  • 95% entre μ ± 2σ
  • 99,7% entre μ ± 3σ

Outras Distribuições Importantes

O universo das distribuições é rico e variado. Cada situação tem sua distribuição natural: Binomial para sucessos em tentativas independentes, Poisson para eventos raros, Exponencial para tempos de espera. Conhecer essas distribuições é como ter uma caixa de ferramentas especializada.

Zoo de Distribuições

  • Binomial: Número de sucessos em n tentativas
  • Poisson: Eventos raros (acidentes, chegadas)
  • Uniforme: Todos valores igualmente prováveis
  • Exponencial: Tempo entre eventos
  • Qui-quadrado, t, F: Fundamentais para inferência

O Teorema Central do Limite

Este é o resultado mais mágico da probabilidade! Não importa a distribuição original — se somarmos muitas variáveis independentes, a soma se aproxima de uma Normal. É por isso que tantos fenômenos naturais seguem a curva de sino: são resultados de muitos fatores pequenos se combinando.

TCL em Ação

  • Se X₁, X₂, ..., Xₙ são independentes com média μ e variância σ²
  • Então X̄ = (X₁+...+Xₙ)/n tem distribuição aproximadamente Normal
  • Com média μ e variância σ²/n
  • Aproximação melhora com n maior
  • Base para intervalos de confiança e testes!

Simulação e Probabilidade

Na era computacional, podemos "ver" probabilidades através de simulação. Quer saber a probabilidade de um evento complexo? Simule milhares de vezes e conte! Esse approach Monte Carlo complementa a teoria matemática e desenvolve intuição.

Probabilidade Computacional

  • Problema de Monty Hall: Simulação esclarece paradoxo
  • Lançamento de dados: Verificar cálculos teóricos
  • Filas e sistemas: Quando matemática fica complexa
  • Bootstrap: Inferência por reamostragem
  • Validação de modelos teóricos

Probabilidade Condicional e Independência

O mundo real é cheio de relações. A probabilidade de chuva muda se vemos nuvens escuras. A chance de aprovar no vestibular depende das horas estudadas. Probabilidade condicional P(A|B) captura como a informação sobre B altera nossa crença sobre A.

Condicionamento e Dependência

  • P(A|B) = P(A e B)/P(B)
  • Independência: P(A|B) = P(A)
  • Regra de Bayes: P(A|B) = P(B|A)P(A)/P(B)
  • Aplicações: Diagnósticos médicos, filtros de spam
  • Cuidado: Independência ≠ não-correlação!

Funções Geradoras

Para os mais aventureiros, funções geradoras são ferramentas poderosas que codificam toda a distribuição em uma única função. Momento gerador, função característica — são como o DNA da distribuição, contendo toda informação em forma compacta.

Ferramentas Avançadas

  • Função geradora de momentos: M(t) = E[e^(tX)]
  • Deriva momentos: E[X^n] = M^(n)(0)
  • Identifica distribuições unicamente
  • Facilita somas de variáveis independentes
  • Ponte para transformadas em análise

Probabilidade e distribuições são a gramática da aleatoriedade. Como músicos que primeiro aprendem escalas antes de compor sinfonias, dominamos esses conceitos fundamentais antes de construir métodos inferenciais sofisticados. Com essa base sólida, estamos prontos para explorar como amostras se comportam — o próximo passo em nossa jornada pela inferência estatística!

Amostragem e Estatísticas

Como uma pequena gota de sangue pode revelar a saúde de todo o corpo? Como alguns milhares de entrevistas podem prever o comportamento eleitoral de milhões? A resposta está na arte e ciência da amostragem. Neste capítulo, exploraremos como coletar amostras representativas e o que acontece matematicamente quando calculamos estatísticas dessas amostras. É aqui que a teoria encontra a prática, onde aprendemos a extrair o máximo de informação do mínimo de dados!

A Arte de Escolher Bem

Nem toda amostra é criada igual. Imagine tentar avaliar a opinião nacional entrevistando apenas pessoas em shopping centers de São Paulo — você perderia a diversidade do Brasil! A amostragem científica garante que cada segmento da população tenha chance adequada de representação, criando um microcosmo fiel do todo.

Tipos de Amostragem Probabilística

  • Aleatória Simples: Cada elemento tem mesma chance (loteria)
  • Estratificada: Divide população em grupos homogêneos
  • Sistemática: Seleciona cada k-ésimo elemento
  • Por Conglomerados: Seleciona grupos naturais inteiros
  • Múltiplos Estágios: Combinação de métodos

Estatísticas: Resumindo Amostras

Uma vez coletada a amostra, precisamos resumi-la em números úteis — as estatísticas. A média amostral x̄ estima a média populacional μ. O desvio padrão amostral s estima σ. Mas aqui surge a mágica: essas estatísticas têm suas próprias distribuições de probabilidade!

Estatísticas Fundamentais

  • Média amostral: x̄ = (x₁ + x₂ + ... + xₙ)/n
  • Variância amostral: s² = Σ(xᵢ - x̄)²/(n-1)
  • Proporção amostral: p̂ = nº sucessos/n
  • Mediana: valor central quando ordenados
  • Amplitude: máximo - mínimo

Distribuições Amostrais

Aqui está o insight revolucionário: se repetíssemos a amostragem muitas vezes, as médias amostrais formariam sua própria distribuição! Essa distribuição amostral tem propriedades previsíveis que são a chave para toda inferência estatística.

O Comportamento de X̄

  • E[X̄] = μ (estimador não-viesado)
  • Var(X̄) = σ²/n (precisão aumenta com n)
  • Se população é Normal, X̄ é exatamente Normal
  • Se não, X̄ é aproximadamente Normal para n grande (TCL)
  • Padronização: Z = (X̄ - μ)/(σ/√n) ~ N(0,1)

O Erro Padrão

O erro padrão é o desvio padrão de uma estatística — mede quão variável é a estatística de amostra para amostra. Para a média, é σ/√n. Note a beleza: duplicar o tamanho da amostra não duplica a precisão, mas a aumenta por √2. É a lei dos retornos decrescentes em ação!

Precisão e Tamanho Amostral

  • Erro padrão da média: SE(X̄) = σ/√n
  • Para reduzir erro pela metade: quadruplique n
  • n = 100: erro padrão é σ/10
  • n = 10.000: erro padrão é σ/100
  • Ponto de equilíbrio custo-benefício

Amostragem sem Reposição

Quando a população é finita e amostramos sem reposição, as fórmulas mudam ligeiramente. Aparece o fator de correção populacional √((N-n)/(N-1)). Mas se a amostra é menos de 5% da população, podemos ignorar essa correção — mais uma simplificação prática útil!

Populações Finitas

  • Fator de correção: √((N-n)/(N-1))
  • Se n/N < 0,05, correção ≈ 1
  • Exemplo: 1.000 de 1 milhão não precisa correção
  • 100 de 500 precisa (reduz erro padrão)
  • Intuição: esgotamos informação disponível

Viés e Variabilidade

Um bom estimador tem duas qualidades: é não-viesado (acerta "na média") e tem baixa variabilidade (é preciso). É como um arqueiro: queremos flechas centradas no alvo (sem viés) e agrupadas (baixa variância). Surpreendentemente, às vezes trocamos um pouco de viés por muito menos variância!

Propriedades de Estimadores

  • Não-viesado: E[estimador] = parâmetro
  • Consistente: Converge para valor real quando n→∞
  • Eficiente: Menor variância entre não-viesados
  • Suficiente: Usa toda informação relevante
  • Trade-off viés-variância em machine learning

Teorema de Student

William Gosset, publicando sob o pseudônimo "Student", revolucionou a estatística ao descobrir a distribuição t. Quando não conhecemos σ e usamos s, a padronização não segue Normal, mas sim t de Student. Para amostras grandes, t ≈ Normal, mas para pequenas amostras, a diferença importa!

A Distribuição t

  • Quando σ desconhecido: T = (X̄ - μ)/(s/√n)
  • T ~ t(n-1) com n-1 graus de liberdade
  • Mais dispersa que Normal (caudas pesadas)
  • Converge para Normal quando n aumenta
  • Fundamental para amostras pequenas

Amostragem de Proporções

Proporções têm peculiaridades próprias. A proporção amostral p̂ estima p populacional, mas sua variância depende do próprio p: Var(p̂) = p(1-p)/n. O máximo ocorre quando p = 0,5 — por isso pesquisas eleitorais acirradas precisam de amostras maiores!

Inferência para Proporções

  • p̂ = X/n onde X ~ Binomial(n,p)
  • E[p̂] = p (não-viesado)
  • SE(p̂) = √(p(1-p)/n)
  • Para n grande: p̂ ≈ Normal
  • Regra prática: np ≥ 10 e n(1-p) ≥ 10

Bootstrap: Amostragem da Amostra

Uma ideia genial moderna: se só temos uma amostra, criamos muitas "re-amostras" sorteando com reposição da amostra original! Esse método bootstrap estima a distribuição amostral empiricamente, libertando-nos de suposições paramétricas.

Revolução Bootstrap

  • Re-amostrar com reposição da amostra original
  • Calcular estatística em cada re-amostra
  • Distribuição empírica aproxima distribuição amostral
  • Funciona para estatísticas complexas
  • Computacionalmente intensivo mas poderoso

Planejamento Amostral

Quanto custa precisão? O tamanho amostral necessário depende da variabilidade populacional, da precisão desejada e do nível de confiança. A fórmula n = (zσ/E)² conecta esses elementos, onde E é a margem de erro tolerada.

Calculando Tamanho Amostral

  • Para média: n = (z²σ²)/E²
  • Para proporção: n = z²p(1-p)/E²
  • Pior caso proporção: use p = 0,5
  • Ajustar para população finita se necessário
  • Considerar não-resposta e perdas

A amostragem é onde a borracha encontra a estrada na estatística. É a ponte entre o mundo ideal da teoria probabilística e o mundo bagunçado dos dados reais. Dominar amostragem e entender o comportamento de estatísticas amostrais nos prepara para o próximo grande passo: usar essas amostras para estimar parâmetros populacionais desconhecidos. Vamos mergulhar no mundo da estimação!

Estimação Pontual

Imagine-se como um detetive matemático. Você tem pistas (dados amostrais) e precisa descobrir a verdade oculta (parâmetros populacionais). A estimação pontual é sua lupa — o método para produzir a melhor "aposta" possível sobre valores desconhecidos. Neste capítulo, exploraremos como transformar dados limitados em estimativas precisas, os critérios para julgar estimadores e métodos poderosos para construí-los. É aqui que dados se transformam em conhecimento!

O Desafio da Estimação

Nunca conheceremos exatamente a altura média de todos os brasileiros — seria impossível medir cada pessoa. Mas podemos estimar com precisão surpreendente usando uma amostra bem escolhida. A estimação pontual busca o melhor valor único para representar um parâmetro desconhecido, como escolher as coordenadas mais prováveis de um tesouro enterrado.

Elementos da Estimação

  • Parâmetro (θ): Valor populacional desconhecido
  • Estimador (θ̂): Fórmula aplicada aos dados
  • Estimativa: Valor numérico calculado
  • Erro de estimação: θ̂ - θ (desconhecido!)
  • Meta: Minimizar erro "em média" e variabilidade

Propriedades de Bons Estimadores

Nem todos os estimadores são criados iguais. Como escolher entre diferentes opções? Estatísticos desenvolveram critérios precisos. Um bom estimador é como um bom funcionário: confiável (não-viesado), preciso (baixa variância) e melhora com mais recursos (consistente).

Critérios de Qualidade

  • Não-viesado: E[θ̂] = θ (acerta "na média")
  • Variância mínima: Menor dispersão possível
  • Erro quadrático médio: EQM = Var(θ̂) + (viés)²
  • Consistência: θ̂ → θ quando n → ∞
  • Eficiência: Atinge limite inferior de Cramér-Rao

Método dos Momentos

Karl Pearson teve uma ideia simples mas poderosa: iguale momentos amostrais aos populacionais! Se a média populacional é μ, estime-a pela média amostral x̄. Se precisa estimar dois parâmetros, use os dois primeiros momentos. É intuitivo e geralmente funciona bem.

Momentos em Ação

  • 1º momento populacional: E[X] = μ
  • 1º momento amostral: x̄ = Σxᵢ/n
  • Igualar: μ̂ = x̄
  • Para variância: E[X²] = σ² + μ²
  • Resolver sistema para múltiplos parâmetros

Máxima Verossimilhança

Fisher revolucionou a estimação com uma pergunta brilhante: qual valor do parâmetro torna os dados observados mais prováveis? O método de máxima verossimilhança (MLE) encontra o parâmetro que maximiza a probabilidade de observar exatamente os dados que temos. É como encontrar o suspeito mais provável num caso criminal!

O Poder da Verossimilhança

  • Função de verossimilhança: L(θ|dados) = P(dados|θ)
  • MLE: θ̂ maximiza L(θ)
  • Frequentemente: maximizar log L (mais fácil)
  • Derivar, igualar a zero, resolver
  • Propriedades ótimas em grandes amostras

Exemplos Clássicos

Vamos ver a estimação em ação! Para uma Normal, tanto momentos quanto MLE dão x̄ para μ. Mas para σ², MLE dá Σ(xᵢ-x̄)²/n enquanto o estimador não-viesado usa n-1. Essa diferença sutil ilustra o trade-off entre diferentes critérios de otimalidade.

Estimadores Famosos

  • Normal: μ̂ = x̄, σ̂² = s² (não-viesado)
  • Binomial: p̂ = x/n (proporção amostral)
  • Poisson: λ̂ = x̄ (média = variância)
  • Exponencial: λ̂ = 1/x̄ (inverso da média)
  • Uniforme[0,θ]: θ̂ = max{x₁,...,xₙ} × (n+1)/n

Viés versus Variância

Um dos dilemas mais fascinantes da estatística: às vezes um estimador levemente viesado com muito menos variância é preferível a um não-viesado! É como escolher entre um atirador que sempre acerta um pouco à esquerda mas agrupa bem os tiros, versus um que acerta o centro "em média" mas espalha muito.

O Trade-off Fundamental

  • EQM = Variância + Viés²
  • Reduzir um pode aumentar outro
  • Estimadores "encolhidos" (shrinkage)
  • Ridge regression: aceita viés por menos variância
  • Fundamental em machine learning moderno

Estimadores Robustos

O mundo real tem outliers — observações extremas que podem destruir estimativas. Estimadores robustos resistem a essa contaminação. A mediana é robusta para localização, o MAD (desvio absoluto mediano) para escala. São como seguranças matemáticos protegendo contra dados problemáticos.

Resistindo a Outliers

  • Média aparada: remove extremos antes de calcular
  • Mediana: imune a valores extremos
  • M-estimadores: generalização robusta de MLE
  • Ponto de ruptura: fração de contaminação tolerada
  • Trade-off: robustez vs eficiência em dados limpos

Estimação Bayesiana

Uma filosofia alternativa: incorpore conhecimento prévio! Estimadores Bayesianos combinam dados com crenças anteriores (prior) para produzir estimativas posteriores. É como um detetive que usa tanto evidências novas quanto experiência passada.

Abordagem Bayesiana

  • Prior: P(θ) representa conhecimento prévio
  • Verossimilhança: P(dados|θ)
  • Posterior: P(θ|dados) ∝ P(dados|θ)P(θ)
  • Estimador: média, mediana ou moda posterior
  • Atualização sequencial natural

Suficiência e Redução de Dados

Uma estatística suficiente contém toda informação relevante sobre o parâmetro. É como um resumo perfeito — não perdemos nada importante ao comprimir os dados. Para Normal, (x̄, s²) é suficiente para (μ, σ²). Essa redução sem perda é elegante e prática!

Compressão sem Perda

  • T(X) suficiente: P(X|T,θ) independe de θ
  • Teorema da fatoração identifica suficiência
  • Estimadores baseados em estatísticas suficientes
  • Rao-Blackwell: melhorar via suficiência
  • Família exponencial tem suficiência natural

Estimação em Pequenas Amostras

Com poucos dados, cada observação é preciosa. Métodos especiais extraem máxima informação: jackknife (deixa-um-fora), cross-validation, correções de viés. São técnicas cirúrgicas para quando não podemos nos dar ao luxo de grandes amostras.

Técnicas para n Pequeno

  • Correção de viés para pequenas amostras
  • Jackknife: estimar viés e variância
  • Métodos exatos vs assintóticos
  • Priors informativos em Bayes
  • Cuidado redobrado com suposições

A estimação pontual é a arte de extrair conhecimento preciso de informação limitada. Como escultores que revelam a estátua escondida no mármore, usamos métodos estatísticos para revelar parâmetros escondidos nos dados. Mas uma estimativa sozinha não conta toda a história — precisamos quantificar nossa incerteza. É aí que entram os intervalos de confiança, nosso próximo tópico fascinante!

Intervalos de Confiança

Uma estimativa pontual é como dar um tiro no escuro — podemos estar certos, mas qual nossa margem de erro? Os intervalos de confiança iluminam essa escuridão, fornecendo uma faixa de valores plausíveis para o parâmetro desconhecido. É a diferença entre dizer "a altura média é 1,70m" e "temos 95% de confiança que a altura média está entre 1,68m e 1,72m". Neste capítulo, aprenderemos a construir e interpretar esses intervalos que quantificam nossa incerteza de forma precisa!

A Filosofia dos Intervalos

Um intervalo de confiança não é uma afirmação sobre onde o parâmetro "provavelmente está" — o parâmetro é fixo, não aleatório! Em vez disso, é uma afirmação sobre nosso método: se repetíssemos o processo muitas vezes, 95% dos intervalos construídos conteriam o valor verdadeiro. É sutil mas fundamental!

Interpretação Correta

  • CORRETO: "95% dos intervalos construídos desta forma contêm μ"
  • INCORRETO: "Há 95% de chance de μ estar neste intervalo"
  • O parâmetro é fixo, o intervalo é aleatório
  • Confiança é sobre o método, não sobre um intervalo específico
  • Analogia: rede de pesca com 95% de sucesso

Construindo Intervalos para Médias

O caso mais comum: estimar a média populacional. Quando σ é conhecido e a população é Normal (ou n é grande), usamos a distribuição Normal. O intervalo tem a forma bonita: x̄ ± z₍α/₂₎ × σ/√n. Cada componente tem significado claro!

IC para Média (σ conhecido)

  • Estimativa pontual: x̄
  • Erro padrão: σ/√n
  • Valor crítico: z₍α/₂₎ (ex: 1,96 para 95%)
  • Margem de erro: z₍α/₂₎ × σ/√n
  • IC: [x̄ - ME, x̄ + ME]

Quando σ é Desconhecido

Na vida real, raramente conhecemos σ. Usamos s como estimativa, mas isso adiciona incerteza! A solução genial de Student: usar a distribuição t. Para amostras pequenas, intervalos-t são mais largos que intervalos-z, refletindo nossa incerteza adicional.

IC com Distribuição t

  • Substituir σ por s muda a distribuição
  • IC: x̄ ± t₍n-1,α/₂₎ × s/√n
  • t₍n-1,α/₂₎ > z₍α/₂₎ para n pequeno
  • Converge para z quando n → ∞
  • Reflete incerteza dupla: em μ e em σ

Intervalos para Proporções

Proporções têm charme próprio. O erro padrão depende da própria proporção: √(p(1-p)/n). Mas não conhecemos p — é o que queremos estimar! Solução: usar p̂ no erro padrão. Para amostras grandes, funciona bem.

IC para Proporção

  • Estimativa: p̂ = x/n
  • Erro padrão estimado: √(p̂(1-p̂)/n)
  • IC normal: p̂ ± z₍α/₂₎ × SE
  • Condições: np̂ ≥ 10 e n(1-p̂) ≥ 10
  • Alternativas: Wilson, Agresti-Coull para n pequeno

O Papel do Tamanho Amostral

Maior amostra, menor intervalo — mas a relação é √n, não linear! Quadruplicar a amostra apenas reduz o intervalo pela metade. É a lei dos retornos decrescentes estatística. Isso explica por que pesquisas nacionais usam "apenas" alguns milhares de pessoas.

Precisão vs Custo

  • Largura ∝ 1/√n
  • n = 100: largura = k/10
  • n = 400: largura = k/20 (metade)
  • n = 10.000: largura = k/100
  • Ponto ótimo depende de custo × benefício

Nível de Confiança

Por que 95%? É uma convenção, não lei natural! Podemos escolher 90%, 99%, 99,9%... Mas há um trade-off: maior confiança significa intervalo mais largo. É como ajustar a largura de uma rede de pesca — rede maior pega mais, mas é menos precisa sobre onde está o peixe.

Trade-off Confiança × Precisão

  • 90% confiança: z = 1,645 (mais estreito)
  • 95% confiança: z = 1,960 (padrão)
  • 99% confiança: z = 2,576 (mais largo)
  • 99,9% confiança: z = 3,291 (muito largo)
  • Escolha depende das consequências do erro

Intervalos para Diferenças

Frequentemente queremos comparar grupos. Homens são mais altos que mulheres? Novo remédio é melhor que o antigo? Construímos intervalos para diferenças: (x̄₁ - x̄₂) ± margem. Se o intervalo não contém zero, há diferença significativa!

Comparando Grupos

  • Diferença de médias: (x̄₁ - x̄₂)
  • EP para variâncias iguais: s_p√(1/n₁ + 1/n₂)
  • EP para variâncias diferentes: √(s₁²/n₁ + s₂²/n₂)
  • Zero no intervalo = não significativo
  • Magnitude do intervalo indica tamanho do efeito

Intervalos Bootstrap

Para estatísticas complexas sem fórmulas conhecidas, o bootstrap salva o dia! Re-amostramos dos dados milhares de vezes, calculamos a estatística em cada re-amostra, e usamos os percentis dessa distribuição empírica. Computacionalmente intensivo mas incrivelmente versátil!

Bootstrap na Prática

  • Gerar B re-amostras (B ≥ 1000)
  • Calcular estatística em cada uma
  • Ordenar os B valores
  • IC 95%: [percentil 2,5%, percentil 97,5%]
  • Funciona para medianas, correlações, etc.

Intervalos Unilaterais

Às vezes só nos importa um lado. "A resistência é pelo menos 100kg?" Intervalos unilaterais colocam toda a incerteza em um lado, dando limites superiores ou inferiores. São mais informativos quando a pergunta tem direção clara.

Quando Usar Unilateral

  • Limite inferior: [x̄ - z_α × σ/√n, ∞)
  • Limite superior: (-∞, x̄ + z_α × σ/√n]
  • Note: z_α, não z_{α/2}
  • Mais poder para detectar efeitos unidirecionais
  • Comum em controle de qualidade

Interpretações Erradas Comuns

Intervalos de confiança são mal interpretados com frequência alarmante! O intervalo calculado não "contém μ com 95% de probabilidade" — ele contém ou não contém, ponto. A probabilidade se refere ao processo de construção, não ao intervalo específico.

Evitando Armadilhas

  • IC não é intervalo de predição para observações futuras
  • IC não diz onde estão 95% dos dados
  • ICs que se sobrepõem podem ainda indicar diferença significativa
  • Largura zero impossível com dados finitos
  • Significância estatística ≠ importância prática

Intervalos de confiança transformam estimativas pontuais brutas em afirmações sofisticadas sobre incerteza. Como parênteses matemáticos, eles enquadram nossas estimativas com honestidade sobre suas limitações. Com essa ferramenta poderosa em mãos, estamos prontos para o próximo passo: testar afirmações específicas sobre o mundo. Bem-vindo ao tribunal da estatística — os testes de hipóteses!

Testes de Hipóteses

Bem-vindo ao tribunal da estatística! Aqui, hipóteses sobre o mundo são julgadas com base em evidências amostrais. Um novo medicamento realmente funciona ou foi apenas sorte? A moeda é viciada ou as 7 caras em 10 lançamentos são apenas acaso? Os testes de hipóteses fornecem um framework rigoroso para tomar decisões na presença de incerteza. Neste capítulo, aprenderemos a formular hipóteses, coletar evidências e chegar a veredictos estatísticos!

A Lógica do Teste

O teste de hipóteses segue uma lógica peculiar, similar ao sistema judicial. Começamos presumindo inocência (hipótese nula) e só rejeitamos essa presunção se as evidências forem muito fortes. Nunca "provamos" a hipótese nula — apenas falhamos em rejeitá-la. É conservador por design!

Estrutura de um Teste

  • H₀ (Nula): Status quo, sem efeito, igualdade
  • H₁ (Alternativa): Mudança, efeito existe, diferença
  • Estatística de teste: Resume evidência dos dados
  • Valor-p: Probabilidade de evidência tão extrema se H₀ verdadeira
  • Decisão: Rejeitar H₀ se valor-p < α

Erros Tipo I e II

Como em qualquer julgamento, podemos errar de duas formas. Erro Tipo I: condenar um inocente (rejeitar H₀ verdadeira). Erro Tipo II: absolver um culpado (não rejeitar H₀ falsa). Não podemos eliminar ambos simultaneamente — é um trade-off fundamental!

Os Dois Tipos de Erro

  • Tipo I (α): Falso positivo, alarme falso
  • Tipo II (β): Falso negativo, perder efeito real
  • Poder = 1 - β: Probabilidade de detectar efeito real
  • Reduzir α aumenta β (e vice-versa)
  • Aumentar n reduz ambos!

O Valor-p Desmistificado

O valor-p é talvez o conceito mais mal compreendido da estatística. Ele NÃO é a probabilidade de H₀ ser verdadeira! É a probabilidade de obter dados tão ou mais extremos que os observados, assumindo H₀ verdadeira. Sutil mas crucial!

Interpretando Valor-p

  • p < 0,01: Evidência muito forte contra H₀
  • 0,01 ≤ p < 0,05: Evidência forte contra H₀
  • 0,05 ≤ p < 0,10: Evidência fraca contra H₀
  • p ≥ 0,10: Pouca ou nenhuma evidência contra H₀
  • NUNCA: "probabilidade de H₀ ser verdadeira"

Teste para Uma Média

O teste mais básico: a média populacional é igual a um valor específico? Por exemplo, a altura média dos brasileiros é 1,70m? Calculamos quão longe nossa média amostral está do valor hipotético, em unidades de erro padrão.

Teste Z e Teste t

  • H₀: μ = μ₀
  • Estatística Z: (x̄ - μ₀)/(σ/√n) quando σ conhecido
  • Estatística t: (x̄ - μ₀)/(s/√n) quando σ desconhecido
  • Rejeitar se |estatística| > valor crítico
  • Ou: rejeitar se valor-p < α

Testes Unilaterais vs Bilaterais

Às vezes a pergunta tem direção. "O novo remédio é MELHOR?" (unilateral) vs "O novo remédio é DIFERENTE?" (bilateral). Testes unilaterais têm mais poder para detectar efeitos na direção especificada, mas são cegos para efeitos opostos.

Escolhendo a Direção

  • Bilateral: H₁: μ ≠ μ₀ (diferente)
  • Unilateral direito: H₁: μ > μ₀ (maior)
  • Unilateral esquerdo: H₁: μ < μ₀ (menor)
  • Unilateral: todo α em uma cauda
  • Decisão antes de ver os dados!

Teste para Proporções

Proporções aparecem em pesquisas, controle de qualidade, medicina. A taxa de aprovação é realmente 60%? A proporção de defeitos excede 5%? Usamos a aproximação normal quando np e n(1-p) são grandes o suficiente.

Testando Proporções

  • H₀: p = p₀
  • Estatística: (p̂ - p₀)/√(p₀(1-p₀)/n)
  • Aproximadamente N(0,1) para n grande
  • Condições: np₀ ≥ 10 e n(1-p₀) ≥ 10
  • Teste exato binomial para n pequeno

Comparando Dois Grupos

Muitas questões envolvem comparações. Homens e mulheres têm salários médios diferentes? Tratamento A é melhor que B? Construímos testes baseados em diferenças, considerando variabilidade em ambos os grupos.

Testes de Duas Amostras

  • H₀: μ₁ = μ₂ (ou μ₁ - μ₂ = 0)
  • Variâncias iguais: teste t com s_p pooled
  • Variâncias diferentes: teste t de Welch
  • Dados pareados: teste t para diferenças
  • Proporções: Z = (p̂₁ - p̂₂)/SE

Poder do Teste

O poder é a probabilidade de detectar um efeito quando ele realmente existe. Depende do tamanho do efeito, tamanho da amostra, variabilidade e nível α. Calcular poder antes do estudo evita desperdício de recursos em estudos fadados ao fracasso.

Fatores que Afetam o Poder

  • Tamanho do efeito: maior efeito = maior poder
  • Tamanho amostral: maior n = maior poder
  • Variabilidade: menor σ = maior poder
  • Nível α: maior α = maior poder (mas mais erro tipo I)
  • Meta comum: poder ≥ 80%

Testes Não-Paramétricos

Quando as suposições paramétricas (normalidade, etc.) são violadas, testes não-paramétricos salvam o dia. Wilcoxon, Mann-Whitney, Kruskal-Wallis — eles usam ranks em vez de valores, sendo robustos mas geralmente menos poderosos.

Alternativas Robustas

  • Wilcoxon signed-rank: alternativa ao teste t pareado
  • Mann-Whitney U: alternativa ao teste t duas amostras
  • Kruskal-Wallis: alternativa à ANOVA
  • Baseados em ordem, não magnitude
  • Menos suposições, mas menor poder se normal

Múltiplos Testes

Cuidado! Fazer muitos testes aumenta a chance de falsos positivos. Se fazemos 20 testes independentes com α = 0,05, esperamos 1 falso positivo por acaso! Correções como Bonferroni ajustam α para controlar erro global.

Problema das Múltiplas Comparações

  • Probabilidade de ao menos 1 erro tipo I aumenta
  • Bonferroni: usar α/m para m testes
  • FDR: controlar taxa de falsas descobertas
  • Importante em genômica, neuroimagem
  • Trade-off: proteção vs poder

Testes de hipóteses são a espinha dorsal da ciência experimental. Como juízes imparciais, pesam evidências contra o acaso, separando sinais reais do ruído aleatório. Mas lembre-se: significância estatística não é tudo! Tamanho do efeito, importância prática e contexto importam tanto quanto valores-p. Com essa base sólida em testes, vamos aplicar essas ideias a situações específicas, começando com inferências sobre médias!

Inferência para Médias

As médias estão no coração de inúmeras questões práticas. Qual o salário médio de uma profissão? O tempo médio de resposta de um sistema melhorou? A temperatura média global está aumentando? Neste capítulo, mergulharemos profundamente nas técnicas específicas para fazer inferências sobre médias — desde casos simples com uma população até comparações complexas entre múltiplos grupos. É aqui que a teoria geral se transforma em ferramentas práticas poderosas!

O Caso de Uma Amostra

Começamos com o cenário mais simples: temos uma amostra e queremos inferir sobre a média populacional. Mas mesmo esse caso "simples" tem nuances importantes. A população é normal? Conhecemos o desvio padrão? O tamanho da amostra é grande? Cada situação tem sua abordagem ideal.

Roteiro para Uma Média

  • n ≥ 30 ou população normal: Prosseguir com métodos padrão
  • σ conhecido: Usar distribuição normal (raro na prática)
  • σ desconhecido: Usar distribuição t (caso usual)
  • n pequeno e não-normal: Considerar transformações ou métodos não-paramétricos
  • Sempre: Verificar outliers e avaliar suposições

Construindo Intervalos Práticos

Na vida real, quase sempre usamos a distribuição t. O intervalo x̄ ± t₍ₙ₋₁,α/₂₎ × s/√n é nosso pão de cada dia. Mas atenção aos detalhes: graus de liberdade corretos, condições satisfeitas, interpretação cuidadosa.

Exemplo: Tempo de Atendimento

Um call center mediu 25 atendimentos: x̄ = 8,3 min, s = 2,1 min

  • GL = 24, t₀,₀₂₅ = 2,064 (para 95% confiança)
  • EP = 2,1/√25 = 0,42
  • ME = 2,064 × 0,42 = 0,87
  • IC 95%: [7,43; 9,17] minutos
  • Interpretação: Método captura μ em 95% das vezes

Tamanho de Amostra para Médias

Quantas observações precisamos? A fórmula n = (zσ/E)² conecta precisão desejada (E) com custo (n). Mas há um problema circular: precisamos conhecer σ! Soluções: usar estudos pilotos, literatura, ou a relação σ ≈ amplitude/4.

Planejando Estudos

  • Especificar margem de erro tolerável (E)
  • Escolher nível de confiança (geralmente 95%)
  • Estimar σ (piloto, literatura, experiência)
  • Calcular n = (z × σ/E)²
  • Arredondar para cima e adicionar margem para perdas

Comparando Duas Médias

Comparações são o motor da ciência. Novo método vs antigo, tratamento vs controle, antes vs depois. A abordagem depende crucialmente de um detalhe: as amostras são independentes ou pareadas?

Independentes vs Pareadas

  • Independentes: Grupos distintos (homens vs mulheres)
  • Pareadas: Mesmas unidades medidas duas vezes
  • Pareadas são mais poderosas: Eliminam variabilidade entre unidades
  • Mas requerem design especial: Antes/depois, gêmeos, matched
  • Análise errada: Resultados inválidos!

Teste t para Amostras Independentes

Quando grupos são independentes, comparamos médias considerando variabilidade em ambos. A questão técnica: as variâncias são iguais? O teste de Levene verifica isso. Se sim, pooling aumenta precisão. Se não, ajuste de Welch salva o dia.

Variâncias Iguais vs Diferentes

  • Teste de Levene: H₀: σ₁² = σ₂²
  • Se não rejeitar: s²ₚ = [(n₁-1)s₁² + (n₂-1)s₂²]/(n₁+n₂-2)
  • GL = n₁ + n₂ - 2
  • Se rejeitar: Usar erro padrão √(s₁²/n₁ + s₂²/n₂)
  • GL complexo (Welch): Fórmula aproximada

O Poder dos Dados Pareados

Dados pareados são uma joia estatística. Ao medir a mesma unidade duas vezes, eliminamos diferenças individuais. Analise as diferenças d = x₁ - x₂, não os valores originais! Um teste t simples nas diferenças é surpreendentemente poderoso.

Análise de Diferenças

  • Calcular dᵢ = x₁ᵢ - x₂ᵢ para cada par
  • Testar H₀: μd = 0
  • Estatística: t = d̄/(sd/√n)
  • GL = n - 1 (n = número de pares)
  • Poder maior que amostras independentes equivalentes

ANOVA: Comparando Múltiplos Grupos

E quando há mais de dois grupos? Múltiplos testes t inflam erro tipo I. ANOVA (Analysis of Variance) testa simultaneamente se todas as médias são iguais. Paradoxalmente, analisa médias decompondo variâncias!

A Lógica da ANOVA

  • H₀: μ₁ = μ₂ = ... = μₖ (todas iguais)
  • Decompor variabilidade: Total = Entre + Dentro
  • Se H₀ verdadeira: Var(Entre)/Var(Dentro) ~ F
  • F grande: evidência contra H₀
  • Seguir com comparações múltiplas se significativo

Comparações Múltiplas Pós-ANOVA

ANOVA significativa diz "nem todas médias são iguais", mas não diz quais diferem! Métodos post-hoc (Tukey, Bonferroni, Scheffé) fazem comparações pareadas controlando erro tipo I global.

Métodos Post-Hoc

  • Tukey HSD: Todas comparações pareadas possíveis
  • Bonferroni: Conservador, ajusta α
  • Dunnett: Comparar tratamentos com controle
  • Scheffé: Qualquer contraste, muito conservador
  • Trade-off: Proteção vs poder

Verificando Suposições

Métodos para médias assumem normalidade e variâncias iguais (homoscedasticidade). Gráficos de resíduos revelam violações. Q-Q plots checam normalidade. Transformações (log, raiz) podem salvar análises.

Diagnósticos Essenciais

  • Normalidade: Q-Q plot, teste Shapiro-Wilk
  • Variâncias iguais: Plot resíduos vs fitted, Levene
  • Independência: Conhecimento do design, autocorrelação
  • Outliers: Boxplots, resíduos studentizados
  • Soluções: Transformar, métodos robustos, não-paramétricos

Alternativas Robustas

Quando suposições falham, temos opções. Testes t robustos usam estimadores robustos de localização e escala. Métodos de bootstrap funcionam para estatísticas complexas. Transformações estabilizam variâncias e aproximam normalidade.

Caixa de Ferramentas Robusta

  • Trimmed means: Remover extremos antes de calcular
  • Teste de Welch: Robusto a variâncias desiguais
  • Bootstrap-t: Intervalos sem assumir distribuição
  • Transformação Box-Cox: Encontra transformação ótima
  • M-estimadores: Downweight outliers automaticamente

Inferência para médias é o cavalo de batalha da estatística aplicada. Desde o humilde teste t até a sofisticada ANOVA, essas ferramentas respondem perguntas fundamentais sobre localização e diferenças. Mas o mundo não é feito apenas de médias — proporções são igualmente importantes. Vamos explorar esse território complementar!

Inferência para Proporções

Proporções estão em toda parte no mundo moderno! Taxa de cliques em anúncios, índice de aprovação presidencial, eficácia de vacinas, taxa de defeitos em produção. Todas são proporções — frações que capturam a prevalência de uma característica. Neste capítulo, exploraremos as ferramentas especializadas para fazer inferências sobre proporções, desde estimação de uma única proporção até comparações sofisticadas entre grupos. Veremos como a natureza binomial dos dados cria desafios e oportunidades únicos!

A Natureza Especial das Proporções

Proporções têm personalidade própria. Vivem entre 0 e 1, sua variabilidade depende do próprio valor (máxima em 0,5), e vêm de contagens discretas. Essas peculiaridades exigem métodos adaptados, especialmente para amostras pequenas ou proporções extremas.

Características Únicas

  • Domínio restrito: 0 ≤ p ≤ 1
  • Variância depende da média: Var = p(1-p)
  • Distribuição exata: Binomial
  • Aproximação normal: Válida para np e n(1-p) grandes
  • Problemas nos extremos: p próximo de 0 ou 1

Estimando Uma Proporção

A proporção amostral p̂ = x/n é o estimador natural. É não-viesado e, para n grande, aproximadamente normal. Mas cuidado: a aproximação falha quando p está muito próximo de 0 ou 1, exatamente onde precisão é mais crítica!

IC Tradicional (Wald)

  • Estimativa: p̂ = sucessos/total
  • Erro padrão: SE = √(p̂(1-p̂)/n)
  • IC 95%: p̂ ± 1,96 × SE
  • Condições: np̂ ≥ 10 e n(1-p̂) ≥ 10
  • Problema: Pode dar limites fora de [0,1]!

Intervalos Modernos

Estatísticos desenvolveram intervalos melhores que o tradicional. O intervalo de Wilson adiciona correção inteligente. Agresti-Coull usa truque simples mas eficaz. Para qualquer n, esses métodos superam o intervalo tradicional.

Métodos Superiores

  • Wilson/Score: Inverte o teste de hipótese
  • Agresti-Coull: Adiciona 2 sucessos e 2 falhas fictícios
  • Clopper-Pearson: Exato mas conservador
  • Bayesiano: Com prior Beta(1/2, 1/2) (Jeffreys)
  • Recomendação: Wilson ou Agresti-Coull

Teste para Uma Proporção

Testar se uma proporção populacional equals valor específico é comum em controle de qualidade e pesquisas. A taxa de defeitos está abaixo de 5%? A aprovação do presidente caiu dos 60% anteriores?

Teste de Proporção

  • H₀: p = p₀
  • Estatística: z = (p̂ - p₀)/√(p₀(1-p₀)/n)
  • Usar p₀ no erro padrão (não p̂)!
  • Aproximação válida se np₀ e n(1-p₀) ≥ 10
  • Teste exato binomial para n pequeno

Comparando Duas Proporções

Comparações movem a ciência. Taxa de conversão A vs B? Eficácia de tratamento vs placebo? A chave é usar a proporção combinada p̂c no erro padrão sob H₀, mas proporções separadas para o intervalo de confiança.

Teste de Duas Proporções

  • H₀: p₁ = p₂
  • Proporção combinada: p̂c = (x₁ + x₂)/(n₁ + n₂)
  • SE sob H₀: √(p̂c(1-p̂c)(1/n₁ + 1/n₂))
  • z = (p̂₁ - p̂₂)/SE
  • IC usa SE = √(p̂₁(1-p̂₁)/n₁ + p̂₂(1-p̂₂)/n₂)

Teste Qui-Quadrado

Quando há múltiplas categorias ou queremos testar independência, o teste qui-quadrado brilha. Compara frequências observadas com esperadas sob H₀. É como perguntar: os dados se desviam do esperado mais que o acaso explicaria?

χ² em Ação

  • Estatística: χ² = Σ(Observado - Esperado)²/Esperado
  • GL = (linhas-1) × (colunas-1)
  • Condição: Todas células esperadas ≥ 5
  • Teste de bondade de ajuste: Uma variável
  • Teste de independência: Duas variáveis

Tamanho de Amostra para Proporções

Planejar estudos com proporções tem pegadinha: a variância depende do próprio p! Se não temos ideia, usar p = 0,5 dá o pior caso (maior variância). Para detectar diferenças entre grupos, cálculos de poder são essenciais.

Calculando n

  • Para estimar p com margem E: n = z²p(1-p)/E²
  • Pior caso: usar p = 0,5
  • Para comparar p₁ e p₂: Fórmulas mais complexas
  • Software: G*Power, R (pwr package)
  • Considerar taxa de resposta!

Proporções Pequenas ou Extremas

Quando eventos são raros (p < 0,01) ou muito comuns (p > 0,99), métodos padrão falham. A distribuição de Poisson aproxima bem eventos raros. Para proporções extremas, trabalhar com odds ou transformação logit ajuda.

Casos Especiais

  • Eventos raros: Aproximação Poisson
  • Regra de três: Se 0 eventos em n, IC superior ≈ 3/n
  • Transformação logit: log(p/(1-p))
  • Estabiliza variância, simetriza distribuição
  • Intervalos exatos sempre funcionam

Teste McNemar para Dados Pareados

Quando as mesmas unidades são classificadas duas vezes (antes/depois, dois avaliadores), os dados são pareados. McNemar testa mudanças, focando apenas nos pares discordantes — genial!

Análise de Mudanças

  • Tabela 2×2 de mudanças
  • b = mudou de não para sim
  • c = mudou de sim para não
  • Estatística: (b-c)²/(b+c)
  • χ² com 1 GL sob H₀: sem mudança líquida

Múltiplas Proporções

Comparar proporções em múltiplos grupos simultaneamente evita inflação do erro tipo I. Teste qui-quadrado global primeiro, depois comparações pareadas com ajuste para multiplicidade.

Estratégia para k Grupos

  • Teste χ² global: H₀: p₁ = p₂ = ... = pₖ
  • Se significativo: Quais diferem?
  • Comparações pareadas com Bonferroni
  • Ou partição de qui-quadrado
  • Análise de tendência se grupos ordenados

Aplicações Modernas

Na era digital, proporções dominam. Taxa de cliques (CTR), taxa de conversão, engajamento em redes sociais. Testes A/B comparam proporções continuamente. Métodos sequenciais permitem parar testes assim que significância é atingida.

Proporções no Mundo Digital

  • A/B testing: Comparar versões de websites
  • Multi-armed bandits: Otimizar enquanto testa
  • Intervalos de confiança em dashboards
  • Correção para "peeking" repetido
  • Métodos Bayesianos para decisões em tempo real

Proporções podem parecer simples — afinal, são apenas frações! Mas sua inferência tem sutilezas fascinantes. Desde a escolha do intervalo de confiança até o tratamento de eventos raros, dominar inferência para proporções abre portas em pesquisa de opinião, controle de qualidade, medicina, marketing digital e além. Agora, vamos explorar como relacionar duas variáveis contínuas através de regressão e correlação!

Regressão e Correlação

O mundo é cheio de relações! Altura e peso, anos de estudo e salário, temperatura e vendas de sorvete. Como podemos quantificar essas conexões e, mais ambiciosamente, usar uma variável para prever outra? Regressão e correlação são as ferramentas estatísticas que revelam e modelam relacionamentos entre variáveis. Neste capítulo, exploraremos desde a simples correlação até modelos de regressão sofisticados, aprendendo a extrair insights profundos sobre como o mundo se conecta!

Correlação: Medindo Associação Linear

A correlação de Pearson (r) captura a força e direção da relação LINEAR entre duas variáveis. Varia de -1 (relação negativa perfeita) a +1 (relação positiva perfeita), com 0 indicando ausência de relação linear. Mas cuidado: correlação zero não significa independência!

Interpretando Correlação

  • |r| < 0,3: Correlação fraca
  • 0,3 ≤ |r| < 0,7: Correlação moderada
  • |r| ≥ 0,7: Correlação forte
  • r² = proporção de variância compartilhada
  • Correlação ≠ Causação (mantra eterno!)

Visualizando Relações

Sempre, SEMPRE, faça um gráfico de dispersão antes de calcular correlações! O quarteto de Anscombe mostra conjuntos de dados com mesma correlação (0,816) mas padrões completamente diferentes. Visualização revela o que números escondem.

Padrões em Dispersão

  • Linear positiva/negativa: Correlação captura bem
  • Curvilínea: Correlação subestima relação
  • Outliers: Podem dominar correlação
  • Grupos distintos: Correlação espúria possível
  • Heteroscedasticidade: Variância não-constante

Regressão Linear Simples

Regressão vai além de correlação — constrói um modelo preditivo. A reta y = β₀ + β₁x + ε minimiza a soma dos quadrados dos erros. β₁ é a mudança em y para cada unidade de mudança em x. β₀ é o intercepto — valor de y quando x = 0.

Método dos Mínimos Quadrados

  • β₁ = Σ(x-x̄)(y-ȳ)/Σ(x-x̄)² = r × sy/sx
  • β₀ = ȳ - β₁x̄
  • Reta passa por (x̄,ȳ)
  • Minimiza Σ(yi - ŷi)²
  • ŷ = valores preditos/ajustados

Inferência em Regressão

Os coeficientes estimados têm incerteza! Podemos construir intervalos de confiança e testar hipóteses sobre os verdadeiros β's. O teste mais comum: H₀: β₁ = 0 (sem relação linear) vs H₁: β₁ ≠ 0.

Testes e Intervalos

  • SE(β₁) = s/√Σ(x-x̄)²
  • t = β₁/SE(β₁) ~ t(n-2)
  • IC: β₁ ± t₍n-2,α/2₎ × SE(β₁)
  • R² = proporção de variância explicada
  • Teste F global equivalente ao teste t em regressão simples

Suposições e Diagnósticos

Regressão assume linearidade, erros independentes com média zero, variância constante (homoscedasticidade) e normalidade. Violações invalidam inferências! Gráficos de resíduos são nossos melhores amigos para detectar problemas.

Checklist de Diagnósticos

  • Resíduos vs ajustados: Padrão aleatório?
  • Q-Q plot: Resíduos normais?
  • Scale-location: Variância constante?
  • Resíduos vs alavancagem: Pontos influentes?
  • Durbin-Watson: Autocorrelação?

Predição e Intervalos

Regressão permite predizer y para novos valores de x. Mas há duas incertezas: sobre a média de y naquele x (intervalo de confiança) e sobre uma observação individual (intervalo de predição). O segundo é sempre mais largo!

Dois Tipos de Intervalo

  • IC para E[Y|x]: Incerteza sobre a média
  • IP para Y: Incerteza sobre observação individual
  • IP = IC + variabilidade individual
  • Ambos mais largos longe de x̄
  • Extrapolação perigosa!

Transformações

Quando a relação não é linear, transformações podem salvar o dia. Log, raiz quadrada, recíproca — cada uma tem seu uso. Transformar y afeta a variância dos erros. Transformar x lineariza a relação.

Transformações Comuns

  • Log(y): Para crescimento exponencial, estabilizar variância
  • √y: Para dados de contagem
  • 1/y: Para relações hiperbólicas
  • Log(x): Para lei de potência
  • Box-Cox: Encontra transformação ótima

Regressão Múltipla

O mundo real tem múltiplas causas! Regressão múltipla estende o modelo: y = β₀ + β₁x₁ + β₂x₂ + ... + βₚxₚ + ε. Cada βᵢ representa o efeito de xᵢ mantendo outras variáveis constantes — interpretação crucial!

Complexidades Adicionais

  • Multicolinearidade: Preditores correlacionados
  • Seleção de variáveis: Quais incluir?
  • R² ajustado: Penaliza complexidade
  • Interações: Efeitos não-aditivos
  • Validação: Treino vs teste

Correlação Não É Causação!

O mantra mais importante da estatística! Correlação entre sorvete e afogamentos não significa que sorvete causa afogamentos — ambos aumentam no verão. Variáveis confundidoras, causalidade reversa, coincidência — muitos mecanismos criam correlações espúrias.

Estabelecendo Causalidade

  • Experimentos randomizados: Padrão ouro
  • Critérios de Hill: Força, consistência, temporalidade...
  • Variáveis instrumentais: Quase-experimentos
  • DAGs: Diagramas causais
  • Sempre considerar explicações alternativas!

Correlação de Spearman

Quando a relação é monótona mas não linear, Pearson falha. Spearman usa ranks em vez de valores, capturando associações monótonas. É também mais robusta a outliers. Para dados ordinais, é a escolha natural.

Alternativas Robustas

  • Spearman: Correlação de ranks
  • Kendall τ: Baseada em concordância
  • Correlação policórica: Variáveis ordinais
  • Correlação de distância: Detecta qualquer dependência
  • Informação mútua: Medida não-linear geral

Aplicações Modernas

Regressão é onipresente em ciência de dados. Desde previsão de preços imobiliários até sistemas de recomendação, modelos lineares (e suas extensões) são cavalos de batalha. Regularização (Ridge, Lasso) permite lidar com muitos preditores.

Regressão Hoje

  • Machine Learning: Base para métodos complexos
  • A/B Testing: Ajustar para covariáveis
  • Séries temporais: Tendências e sazonalidade
  • Modelos mistos: Dados hierárquicos
  • Big Data: Métodos escaláveis

Regressão e correlação são lentes poderosas para examinar relações no mundo. Como detetives estatísticos, usamos essas ferramentas para descobrir conexões ocultas, fazer previsões informadas e entender mecanismos complexos. Mas lembre-se sempre: com grande poder vem grande responsabilidade. Use essas ferramentas com sabedoria, sempre questionando causalidade e validando suposições. Agora, vamos ver como toda essa teoria se aplica no mundo moderno de ciência de dados!

Aplicações em Ciência de Dados

A inferência estatística encontrou um novo lar vibrante na era do Big Data! Neste capítulo final, exploraremos como os conceitos clássicos que estudamos se transformam e se expandem no contexto moderno de ciência de dados. Dos testes A/B que otimizam cada pixel da web aos modelos que preveem comportamento do consumidor, veremos como a inferência estatística continua fundamental mesmo em um mundo de algoritmos complexos e datasets massivos. Prepare-se para conectar teoria atemporal com prática cutting-edge!

A/B Testing: O Laboratório Digital

Cada vez que você visita um grande website, provavelmente está participando de dezenas de experimentos! A/B testing é a aplicação industrial de testes de hipóteses, comparando versões de páginas, botões, algoritmos. É inferência estatística em escala massiva e tempo real.

Anatomia de um Teste A/B

  • Hipótese: Nova versão aumenta conversão
  • Randomização: Usuários aleatoriamente alocados
  • Métricas: CTR, conversão, engajamento, receita
  • Análise: Teste de proporções ou médias
  • Decisão: Implementar se significativo E prático

Desafios de Múltiplos Testes

Empresas tech rodam milhares de testes simultaneamente. Com α = 0,05, esperamos 5% de falsos positivos — centenas de "melhorias" falsas! Controle de False Discovery Rate (FDR) e métodos Bayesianos ajudam a navegar esse campo minado.

Controlando Falsos Positivos

  • Bonferroni: Conservador demais para muitos testes
  • Benjamini-Hochberg: Controla FDR
  • Hierarquia de métricas: Primária vs secundárias
  • Bayesiano: Prior skeptical para mudanças grandes
  • Meta-análise: Combinar resultados de múltiplos testes

Bootstrap em Machine Learning

Bootstrap não é apenas para intervalos de confiança! Em ML, é base para Random Forests (bootstrap de linhas), bagging (bootstrap aggregating) e estimação de incerteza em previsões. É inferência estatística potencializada por computação.

Bootstrap Além do Básico

  • Bagging: Reduz variância de modelos instáveis
  • OOB error: Validação "grátis" em Random Forest
  • Intervalos para previsões de redes neurais
  • Seleção de features estáveis
  • Calibração de probabilidades

Inferência Causal

Ciência de dados moderna vai além de previsão — quer entender causas! Métodos como propensity score matching, variáveis instrumentais e causal forests trazem inferência causal para dados observacionais. É a fronteira mais excitante!

Além da Correlação

  • RCT online: Padrão ouro quando possível
  • Diferença-em-diferenças: Mudanças naturais
  • Regression discontinuity: Explorar cut-offs
  • Synthetic controls: Criar controles artificiais
  • Causal ML: Efeitos heterogêneos de tratamento

Inferência com Big Data

Paradoxo moderno: com dados massivos, tudo é "significativo"! Um teste t com n = 1 milhão detecta diferenças irrelevantes. Foco muda de significância estatística para significância prática e estimação precisa de efeitos.

Novos Desafios

  • Significância ≠ Importância com n enorme
  • Intervalos de confiança ultraprecisos
  • Viés > Variância como preocupação
  • Validação em dados futuros crucial
  • Interpretabilidade vs complexidade

Métodos Bayesianos Modernos

Computação moderna ressuscitou métodos Bayesianos. MCMC, Variational Inference e Stan tornam modelos complexos tratáveis. Em A/B testing, Bayes permite parar testes cedo e quantificar probabilidade de sucesso diretamente.

Revolução Bayesiana

  • Thompson Sampling: Explorar vs explotar
  • Hierarchical models: Emprestar força entre grupos
  • Probabilistic programming: PyMC3, Stan
  • Online learning: Atualizar com cada dado
  • Decisões ótimas incorporando incerteza

Validação e Reprodutibilidade

Com modelos complexos e datasets enormes, validação rigorosa é crucial. Cross-validation, hold-out sets e backtesting garantem que resultados generalizam. Reprodutibilidade exige código aberto e documentação meticulosa.

Boas Práticas

  • Train/Validation/Test split sagrado
  • Temporal validation para séries temporais
  • Sementes aleatórias fixas
  • Version control de dados e código
  • Pré-registro de hipóteses

Viés e Fairness

Modelos estatísticos podem perpetuar e amplificar vieses sociais. Inferência moderna deve considerar fairness: diferentes grupos recebem tratamento equitativo? Métricas de fairness e métodos de debiasing são áreas ativas de pesquisa.

Estatística Responsável

  • Disparate impact: Resultados diferem por grupo?
  • Calibração por grupo: Probabilidades confiáveis?
  • Counterfactual fairness: E se atributos fossem diferentes?
  • Trade-offs entre métricas de fairness
  • Transparência e auditabilidade

Streaming e Inferência Online

Dados chegam continuamente em aplicações modernas. Métodos online atualizam estimativas incrementalmente. Detectar mudanças em tempo real (change point detection) e adaptar modelos dinamicamente são desafios únicos.

Inferência em Tempo Real

  • Online mean/variance: Algoritmos de Welford
  • Sliding windows: Esquecer dados antigos
  • Sequential testing: Parar quando significativo
  • Anomaly detection: Identificar outliers online
  • Bandits: Aprender enquanto otimiza

Comunicação de Incerteza

Em ciência de dados aplicada, comunicar resultados para não-estatísticos é crucial. Visualizações de incerteza, narrativas claras e foco em impacto prático fazem a ponte entre análise técnica e decisões de negócio.

Da Análise à Ação

  • Visualizações interativas de incerteza
  • Scenarios em vez de point estimates
  • Custo de decisões erradas explícito
  • Dashboards com intervalos de confiança
  • Storytelling com dados

O Futuro da Inferência

Inferência estatística continua evoluindo. Causal ML promete revolucionar como entendemos efeitos. Quantificação de incerteza em deep learning é área ativa. Privacidade diferencial permite inferência preservando privacidade individual.

Fronteiras Emergentes

  • Conformal prediction: Intervalos distribution-free
  • Federated learning: Inferência sem centralizar dados
  • Synthetic data: Preservar privacidade estatística
  • Quantum statistics: Preparando para computação quântica
  • Automated statistician: IA que faz inferência

A jornada da inferência estatística, de Fisher aos cientistas de dados modernos, mostra como ideias fundamentais se adaptam e prosperam em novos contextos. Os desafios mudaram — de amostras pequenas para big data, de cálculos manuais para computação massiva — mas os princípios permanecem: quantificar incerteza, separar sinal de ruído, tomar decisões informadas. Ao dominar tanto fundamentos clássicos quanto aplicações modernas, você está equipado para navegar o excitante mundo onde dados encontram decisões. A inferência estatística não é apenas sobre o passado da análise de dados — é muito sobre seu futuro!

Referências Bibliográficas

Esta obra sobre inferência estatística foi construída sobre o trabalho de gerações de estatísticos, matemáticos e cientistas de dados. As referências a seguir representam desde os textos fundamentais que estabeleceram as bases da inferência até obras contemporâneas que exploram aplicações modernas em ciência de dados. Esta bibliografia oferece recursos para aprofundamento em cada aspecto da inferência estatística, desde teoria clássica até métodos computacionais modernos.

Obras Fundamentais de Inferência Estatística

AGRESTI, Alan; CAFFO, Brian. Simple and Effective Confidence Intervals for Proportions and Differences of Proportions Result from Adding Two Successes and Two Failures. The American Statistician, v. 54, n. 4, p. 280-288, 2000.

BERGER, James O. Statistical Decision Theory and Bayesian Analysis. 2nd ed. New York: Springer-Verlag, 1985.

BICKEL, Peter J.; DOKSUM, Kjell A. Mathematical Statistics: Basic Ideas and Selected Topics. 2nd ed. Upper Saddle River: Prentice Hall, 2015.

BOX, George E. P.; HUNTER, J. Stuart; HUNTER, William G. Statistics for Experimenters: Design, Innovation, and Discovery. 2nd ed. New York: Wiley, 2005.

BRASIL. Base Nacional Comum Curricular: Educação é a Base. Brasília: MEC/CONSED/UNDIME, 2018.

BROWN, Lawrence D.; CAI, T. Tony; DASGUPTA, Anirban. Interval Estimation for a Binomial Proportion. Statistical Science, v. 16, n. 2, p. 101-133, 2001.

CASELLA, George; BERGER, Roger L. Statistical Inference. 2nd ed. Pacific Grove: Duxbury, 2002.

COX, David R.; HINKLEY, David V. Theoretical Statistics. London: Chapman and Hall, 1974.

DAVISON, Anthony C.; HINKLEY, David V. Bootstrap Methods and Their Application. Cambridge: Cambridge University Press, 1997.

DEGROOT, Morris H.; SCHERVISH, Mark J. Probability and Statistics. 4th ed. Boston: Addison-Wesley, 2012.

EFRON, Bradley. The Jackknife, the Bootstrap and Other Resampling Plans. Philadelphia: SIAM, 1982.

EFRON, Bradley; TIBSHIRANI, Robert J. An Introduction to the Bootstrap. New York: Chapman and Hall, 1993.

FISHER, Ronald A. Statistical Methods for Research Workers. 14th ed. Edinburgh: Oliver and Boyd, 1970.

GELMAN, Andrew et al. Bayesian Data Analysis. 3rd ed. Boca Raton: CRC Press, 2013.

HOGG, Robert V.; McKEAN, Joseph; CRAIG, Allen T. Introduction to Mathematical Statistics. 8th ed. Boston: Pearson, 2019.

KOHAVI, Ron; TANG, Diane; XU, Ya. Trustworthy Online Controlled Experiments: A Practical Guide to A/B Testing. Cambridge: Cambridge University Press, 2020.

LEHMANN, Erich L.; CASELLA, George. Theory of Point Estimation. 2nd ed. New York: Springer, 1998.

LEHMANN, Erich L.; ROMANO, Joseph P. Testing Statistical Hypotheses. 3rd ed. New York: Springer, 2005.

MONTGOMERY, Douglas C.; RUNGER, George C. Applied Statistics and Probability for Engineers. 7th ed. New York: Wiley, 2018.

MOOD, Alexander M.; GRAYBILL, Franklin A.; BOES, Duane C. Introduction to the Theory of Statistics. 3rd ed. New York: McGraw-Hill, 1974.

MOORE, David S.; McCABE, George P.; CRAIG, Bruce A. Introduction to the Practice of Statistics. 9th ed. New York: W. H. Freeman, 2017.

NEYMAN, Jerzy; PEARSON, Egon S. On the Problem of the Most Efficient Tests of Statistical Hypotheses. Philosophical Transactions of the Royal Society A, v. 231, p. 289-337, 1933.

PEARL, Judea. Causality: Models, Reasoning, and Inference. 2nd ed. Cambridge: Cambridge University Press, 2009.

RICE, John A. Mathematical Statistics and Data Analysis. 3rd ed. Belmont: Duxbury Press, 2007.

ROSENBAUM, Paul R. Design of Observational Studies. 2nd ed. New York: Springer, 2020.

ROSS, Sheldon M. Introduction to Probability and Statistics for Engineers and Scientists. 6th ed. London: Academic Press, 2021.

SCHERVISH, Mark J. Theory of Statistics. New York: Springer-Verlag, 1995.

SILVEY, Samuel D. Statistical Inference. London: Chapman and Hall, 1975.

STUART, Alan; ORD, Keith; ARNOLD, Steven. Kendall's Advanced Theory of Statistics: Classical Inference and Relationships. 6th ed. London: Arnold, 2004.

TUKEY, John W. Exploratory Data Analysis. Reading: Addison-Wesley, 1977.

WACKERLY, Dennis; MENDENHALL, William; SCHEAFFER, Richard L. Mathematical Statistics with Applications. 7th ed. Belmont: Brooks/Cole, 2008.

WASSERMAN, Larry. All of Statistics: A Concise Course in Statistical Inference. New York: Springer, 2004.

WILD, Christopher J.; SEBER, George A. F. Introduction to Probability and Statistics. Auckland: University of Auckland, 2022.

Aplicações Modernas e Ciência de Dados

ANGRIST, Joshua D.; PISCHKE, Jörn-Steffen. Mostly Harmless Econometrics: An Empiricist's Companion. Princeton: Princeton University Press, 2009.

BRUCE, Peter; BRUCE, Andrew; GEDECK, Peter. Practical Statistics for Data Scientists. 2nd ed. Sebastopol: O'Reilly Media, 2020.

DENG, Alex; SHI, Xiaolin. Data-Driven Metric Development for Online Controlled Experiments. KDD Tutorial, 2016.

GRUS, Joel. Data Science from Scratch. 2nd ed. Sebastopol: O'Reilly Media, 2019.

HASTIE, Trevor; TIBSHIRANI, Robert; FRIEDMAN, Jerome. The Elements of Statistical Learning. 2nd ed. New York: Springer, 2009.

IMBENS, Guido W.; RUBIN, Donald B. Causal Inference for Statistics, Social, and Biomedical Sciences. Cambridge: Cambridge University Press, 2015.

JAMES, Gareth et al. An Introduction to Statistical Learning with Applications in R. 2nd ed. New York: Springer, 2021.

McELREATH, Richard. Statistical Rethinking: A Bayesian Course with Examples in R and Stan. 2nd ed. Boca Raton: CRC Press, 2020.

PROVOST, Foster; FAWCETT, Tom. Data Science for Business. Sebastopol: O'Reilly Media, 2013.

WICKHAM, Hadley; GROLEMUND, Garrett. R for Data Science. 2nd ed. Sebastopol: O'Reilly Media, 2023.