Prévia do material em texto
Em uma manhã em que os painéis LED do centro de operações piscavam dados em tempo real, a engenheira de dados Mariana recebeu um pedido que sintetizava a urgência contemporânea da TI: prever a demanda de energia de uma cidade costeira para as próximas 72 horas. A narrativa que se segue é ao mesmo tempo cronológica e técnica — um relato jornalístico com linguagem de laboratório — sobre como a Análise de Séries Temporais em Tecnologia da Informação transforma sinais brutos em decisões operacionais. Primeiro ato: entender os dados. Mariana começou por mapear metadados, frequenceamento e granularidade — leituras horárias de consumo, temperatura, velocidade do vento e eventos públicos. Diagnósticos estatísticos orientaram as escolhas: testes ADF para estacionariedade, inspeção de ACF/PACF para autocorrelações e decomposição aditiva/multiplicativa para isolar tendência, sazonalidade e ruído. Em cenários reais, a preparação inclui preenchimento de faltantes por interpolação ou modelos de imputação, normalização e criação de variáveis de calendário (hora, dia da semana, feriados) e lags relevantes. Segundo ato: escolher modelos. No repertório técnico, métodos clássicos (ARIMA, SARIMA) oferecem interpretabilidade e bom desempenho em séries com estruturas lineares e sazonalidade definida. Modelos exponenciais e state-space (ETS, Kalman filters) tratam componentes estruturais. Para padrões não lineares ou quando há forte dependência de regressoras externas, árvores de decisão (XGBoost, LightGBM) com features temporais e janelas deslizantes funcionam bem. Na fronteira, redes neurais recorrentes (LSTM, GRU), redes convolucionais temporais (TCN) e arquiteturas Transformer adaptadas lidam com longas dependências e múltiplas séries simultâneas — úteis em cenários multivariados e de alta dimensionalidade. Terceiro ato: validação e métricas. Ao contrário da validação aleatória, séries temporais exigem validação temporal (time series cross-validation, walk-forward). Métricas devem refletir o impacto de erros: MAE e RMSE são padrão; MAPE e sMAPE trazem contexto percentual, mas penalizam zeros. Em energia, sob- e sobreprevisões têm custos distintos; assim, métricas customizadas ponderadas por custo operacional são essenciais. Quarto ato: engenharia e infraestrutura. Mariana arquitetou pipelines com ingestão via Kafka, armazenamento em Delta Lake e processamento em Spark para agregações e feature store. Experimentação foi orquestrada com Airflow e MLflow, enquanto modelos foram empacotados em containers e orquestrados em Kubernetes para escala. Para modelos de aprendizado profundo, GPUs em clusters gerenciados reduziram tempo de treinamento. Observabilidade incluiu logs, monitoramento de latência e métricas de produção via Prometheus/Grafana. Quinto ato: implantação e governança. A implantação considerou modelos híbridos: um modelo rápido, heurístico, como fallback, e um modelo complexo on-line para previsões críticas. Estratégias de MLOps garantiram re-treinamentos automáticos via triggers de drift (mudança de distribuição detectada por testes estatísticos ou degradação de métricas). Explicabilidade foi tratada com SHAP e análise de importância de features para tradutores de domínio (operadores e gestores). Segurança e compliance foram aplicadas sobre o pipeline de dados, com mascaramento de informações sensíveis e controle de acesso baseado em RBAC. Conflito e solução: os primeiros resultados mostraram boa previsão agregada, mas falha em eventos atípicos — festas de fim de ano e tempestades. Mariana implementou um módulo de eventos exógenos e um detector de anomalias baseado em isolamento forest e modelos autoregressivos residuais. A integração dessas camadas diminuiu picos de erro e permitiu alertas proativos para a equipe de redistribuição de carga. Epílogo: impacto e lições. A iniciativa reduziu perdas operacionais e melhorou SLA de resposta. Do ponto de vista jornalístico, o case ilustra como a Análise de Séries Temporais é interdisciplinar: estatística, engenharia de dados, aprendizado de máquina, operações e políticas públicas convergem. Tecnicamente, o sucesso depende de pipeline robusto, validação temporal rigorosa, modelos apropriados ao problema e governança contínua de modelos em produção. Narrativas como a de Mariana mostram que, em TI, previsões são menos sobre certezas e mais sobre reduzir incerteza operacional de forma mensurável e auditável — transformando séries temporais em instrumentos de decisão estratégicos. PERGUNTAS E RESPOSTAS 1) O que diferencia ARIMA de modelos baseados em aprendizado profundo? Resposta: ARIMA é linear, interpretável e eficiente em séries estacionárias; DL captura não linearidades e dependências longas, mas exige mais dados e recursos. 2) Como validar modelos de séries temporais? Resposta: Use validação temporal (walk-forward), preserve ordem cronológica e avalie com métricas pertinentes ao custo de erro (MAE, RMSE, MAPE ajustado). 3) Quais são os principais desafios na produção? Resposta: Drift de dados, latência, escalabilidade, explicabilidade, integração com pipelines e governança/segurança. 4) Quando usar features exógenas? Resposta: Sempre que variáveis externas (tempo, promoções, feriados) influenciam a série; ajudam a reduzir erros em eventos não recorrentes. 5) Como monitorar degradação de modelo? Resposta: Monitorar métricas preditivas em produção, detectar mudanças nas distribuições (KS, PSI), e automatizar gatilhos de re-treinamento. 4) Quando usar features exógenas? Resposta: Sempre que variáveis externas (tempo, promoções, feriados) influenciam a série; ajudam a reduzir erros em eventos não recorrentes. 5) Como monitorar degradação de modelo? Resposta: Monitorar métricas preditivas em produção, detectar mudanças nas distribuições (KS, PSI), e automatizar gatilhos de re-treinamento. Resposta: Sempre que variáveis externas (tempo, promoções, feriados) influenciam a série; ajudam a reduzir erros em eventos não recorrentes. 5) Como monitorar degradação de modelo? Resposta: Monitorar métricas preditivas em produção, detectar mudanças nas distribuições (KS, PSI), e automatizar gatilhos de re-treinamento. 4) Quando usar features exógenas? Resposta: Sempre que variáveis externas (tempo, promoções, feriados) influenciam a série; ajudam a reduzir erros em eventos não recorrentes. 5) Como monitorar degradação de modelo? Resposta: Monitorar métricas preditivas em produção, detectar mudanças nas distribuições (KS, PSI), e automatizar gatilhos de re-treinamento.