Apoio:
Parceiro institucional:
Metodologias de previsão estão entre os temas mais quentes na literatura e nas conferências sobre inteligência artificial e estatística. (Me 3645 Studio/Getty Images)
Colunista
Publicado em 10 de julho de 2024 às 15h00.
Vivemos rodeados de previsões. Qual é a chance de seu time ser campeão brasileiro? Qual é a temperatura que vai fazer nos próximos dias? Qual será a demanda por energia amanhã? Essas previsões afetam nosso dia a dia. Um torcedor quer fazer suas contas antes de comprar o ingresso para o próximo jogo. Queremos ter uma ideia da temperatura para decidir qual roupa vestir. O operador do sistema elétrico precisa de uma previsão da carga para determinar quais usinas serão acionadas a cada momento do dia.
Tradicionalmente, a qualidade das previsões é avaliada pelos seus erros. Matematicamente, esses erros são as diferenças entre as previsões e a realidade medida. Diversas métricas são usadas por estatísticos, cientistas de dados, engenheiros e físicos. Algumas famosas são a média dos valores absolutos dos erros ou a média dos quadrados dos erros. Quanto maiores esses números, mais distantes as previsões se mostram da realidade.
Então, quanto menores os erros, melhor a previsão, certo? Nem sempre. Um exemplo clássico é a previsão do tempo. Como descrito no livro “O sinal e o ruído” de Nate Silver, muitos provedores de previsão do tempo revelaram aumentar artificialmente as probabilidades de chuva. Os usuários dessas previsões são tipicamente avessos à chuva. Se a plataforma indica alta probabilidade de chuva, porém essa não se realiza, não há grandes problemas, apenas levamos um guarda-chuva à toa. No caso contrário, a viagem planejada para a praia ou o piquenique viram uma tragédia com uma chuva que deveria ser improvável.
Se olhamos para previsões sem nos importarmos em como elas são usadas – previsões de uso geral –, de fato, menores erros são o que devemos buscar. Por outro lado, se conhecermos a aplicação em questão, podemos fazer melhor.
O fenômeno por trás dessa questão é a assimetria de custos da aplicação que utiliza da previsão. É o que ocorre no caso da previsão do tempo: chuvas inesperadas tendem a ser menos bem recebidas que dias de sol inesperados. No caso do sistema elétrico, uma projeção de demanda consistentemente maior que a realidade gera um sobrecusto, pois alguns geradores são acionados sem necessidade, porém projeções menores que a realidade deixam o sistema despreparado e necessitando de ajustes de última hora que podem ser muito mais caros.
Metodologias de previsão estão entre os temas mais quentes na literatura e nas conferências sobre inteligência artificial e estatística. Muitos nomes vêm sendo usados para tal área efervescente: “application-driven learning”, “decision-focused learning”, “smart predict-and-optimize”, etc. O tema claramente é importante para diversas áreas. E a pesquisa nacional tem condições de colaborar. Não é necessária a compra de computadores: basta estudo, software e algumas horas de computação em nuvem.
Vamos continuar rodeados de previsões e dependendo delas para tomar as melhores decisões possíveis. Portanto, é essencial nos envolvermos cada vez mais no conhecimento e no desenvolvimento das melhores práticas e do estado da arte dessas metodologias. O Brasil e a comunidade científica nacional precisam estar inseridos ativamente nessa discussão.