-
Oi, eu sou Heloiza,
estagiária de Data "Science.
-
Olá, eu sou a Sara,
Cientista de Dados.
-
E nós somos da Data Storm.
-
Bom, no início de 2024, a minha
insight procurou a FIAP
-
para ajudar a entender como
a gente poderia utilizar IA e dados
-
para ajudar a prever a queda
de energia na cidade de São Paulo.
-
Bom, a gente sabe
que a cidade de São Paulo
-
sempre enfrentou
muitos problemas
-
em relação a falta
de energia elétrica.
-
Ano passado, em 2024, a gente teve
um recorde de apagão histórico,
-
3 milhões de pessoas foram
afetadas por esse apagão,
-
a gente teve um prejuízo
de mais de R$ 400 milhões
-
por conta desse apagão,
-
então a gente sabe que é um problema
frequente na nossa cidade,
-
e como a gente pode
utilizar IA e dados
-
para a gente ajudar a prever
-
e ser proativo em relação
a esse problema.
-
Bom, para resolver
esse desafio,
-
a gente tinha como
principal objetivo
-
trazer uma infraestrutura
centralizada de dados
-
que pudesse organizar
e padronizar dados climáticos,
-
de previsão de tempo,
-
de interrupção de energia elétrica
de toda a região de São Paulo,
-
uma arquitetura,
um pipeline de dados
-
que suportasse toda
essa infraestrutura
-
e, além disso, um modelo preditivo
que nos ajudasse a entender
-
quais seriam as próximas
regiões mais afetadas,
-
onde a gente deveria focar
e ter uma ação planejada
-
da equipe operacional da minha
insight mais efetiva e mais acurada.
-
E para isso
a gente utilizou diversas fontes de dados,
-
como dados públicos da Subprefeitura
de São Paulo, do Geraldo Sampa, da
-
Dados Privados, também da Anatel, métricas
-
para a gente
construir e desenvolver essa solução.
-
Pensando nisso,
-
nós criamos uma arquitetura de dados
extremamente robusta e completa.
-
Ela trabalha com dados em tempo real
e dados históricos.
-
Então os dados históricos,
-
eles entram na arquitetura
através de Bates e os dados em tempo real.
-
Eles entram através de
uma perícia questionada pelo airflow.
-
Na primeira camada a gente limpou
bem por cima esses dados a camada roll.
-
Então tiramos só o
que não era somente necessário
-
para conseguir armazenar
eles dentro do Google Cloud
-
Plataform e só então conseguir trabalhar
efetivamente em cima deles.
-
Na segunda camada, a camada transparente,
nós pegamos esses dados já mais limpos
-
e refinamos eles de fato, para
então integrá los
-
e construir a última camada de tratamento,
que é a camada wi fi,
-
onde nós criamos uma tabela gigante
com todos os dados necessários
-
já filtrados e prontos para serem jogados
no nosso modelo de predição e treinado
-
nosso modelo de machine
-
learning
e então conseguir trabalhar de fato
-
esses dados
para uma visualização no Power BI.
-
O nosso modelo preditivo
passou por alguns testes e no último
-
que eu li tbm
nós decidimos que era o mais acurado.
-
Aqui nós temos uma matriz de confusão,
-
recall, acuracidade, precisão.
-
Mas o mais interessante
-
é falar sobre a matriz de confusão,
onde aqui temos os testes de True False.
-
Verdade ou falso?
-
Onde eu digo se vai faltar
e falta energia ou
-
eu digo se não vai faltar e falta energia,
se vai faltar e não falta
-
e se não vai faltar
e realmente não falta energia.
-
Olhando o quadrante, o azulzinho
e o roxinho mais escuro,
-
nós vemos os dois números principais,
-
onde eu digo no azul que não vai faltar
e ele falta é um número alto.
-
Mas pensando no negócio desse problema,
-
nos compensa mais deslocar uma equipe.
-
Quando eu falo que não vai faltar
é falta do que é deslocar uma equipe.
-
Quando eu falo que vai faltar e não falta,
é um dos focos da nossa solução
-
é a minimização de recursos
e operacionais.
-
Então, por isso nós escolhemos um modelo
que tem um erro menor
-
quando diz que vai locomover a equipe
e ele erra.
-
Então e por isso o modelo vai de BM.
-
Bom, é para analisar todas essas
resultados aí, para a gente entender
-
onde as equipes operacionais da mensagem
poderiam atuar.
-
A gente desenvolveu um dashboard
onde a gente mostra todo o histórico
-
que a gente tem,
tanto de dados climatológicas
-
quanto de dados de interrupção
de energia elétrica
-
e com os dados da previsão em tempo real,
-
da falha
e da interrupção de energia elétrica.
-
Então, no nosso dashboard hoje
a gente consegue ver, por exemplo,
-
qual é a média de previsão de interrupção
de energia elétrica para São Paulo
-
nos próximos sete dias.
-
A gente consegue ver isso
por datas também.
-
Então você tem um dia onde a equipe
tem que planejar recursos a mais.
-
A gente consegue analisar isso
por subprefeitura em um mapa de calor,
-
onde a gente consegue ver
as regiões mais críticas.
-
Então já ir trazendo
-
com base nos dados climatológicas
de interrupção de energia elétrica,
-
onde a equipe operacional
deveria atuar mais forte.
-
Então a gente consegue também
ver a média histórica para entender
-
o comportamento histórico
de cada subprefeitura
-
e entender
e ajudar e analisar esses pontos.
-
O ponto forte da nossa solução é essa
-
tabelinha aqui, onde nós ponderamos
-
qual local deve ser socorrido primeiro.
-
Assim, quer dizer.
-
Então aqui nós trazemos diversos dados
-
demográficos de
-
hospitais, escolas, creches,
comunidades e etc.
-
E aqui nós ponderamos
-
por que não necessariamente onde mais
chove e onde mais vai ser afetado.
-
Então a gente conseguiu trazer
todos esses dados aqui para dentro também
-
e assim indicar onde as equipes de resgate
e onde as operações devem ir
-
e tomar uma atitude assim, por exemplo.
-
E aqui a gente traz a visão do nosso MVP
até onde a gente desenvolveu
-
e da proposta da nossa solução final,
onde a gente poderia chegar
-
com possíveis investimentos.
-
Então, hoje
a gente tem uma API que faz a previsão.
-
Como o nosso modelo
vai de até sete dias de previsão
-
para todas as prefeituras de São Paulo
e com uma possível investimento,
-
a gente conseguiria chegar em até 15 dias
e ampliar isso
-
para gerar um melhor planejamento,
inclusive operacional, para a equipe.
-
Então, saber qual
-
em qual período eu vou ter que deslocar
recursos para qual região.
-
Então isso seria possível
na nossa solução final também.
-
Além disso,
a gente também teria a possibilidade de.
-
Hoje a gente traz a nível de subprefeitura
esses dados.
-
Então, com o possível investimento,
-
a gente também poderia ter
-
uma granularidade maior
e trazer tantos dados históricos a nível
-
de saber o que a ventura
de interrupção de rede elétrica,
-
mas também os dados de climatologia
em uma granularidade maior
-
e trazer uma previsão mais acurada
para a região mais acurada de São Paulo,
-
trazendo assim
até uma eficiência operacional
-
para a equipe
-
que está ali, atendendo as regiões
que estão com falta de energia elétrica.
-
E, além disso,
-
a gente ainda teria como oportunidade
de trazer para nós a solução final
-
retroalimentar os dados operacionais
mensais,
-
para que a gente possa ter uma solução
ainda mais eficaz.
-
Então, entender onde as equipes trazer
os dados de feedback das equipes,
-
onde as equipes estão atuando
-
e a gente deveria começar, atua mais
o tempo de deslocamento dessas equipes
-
para a gente ainda ter um planejamento
ainda mais acurado e eficaz.
-
Para mim, site.
-
Essa foi a nossa solução final,
porque além de desenvolvida em 2024,
-
gostaríamos de deixar aqui
um agradecimento a todo o time
-
bem desse enorme
e desejamos uma boa sorte.