< Return to Video

PBL TSC ANO 02 FASE 03 2025 VIDEO EXTRA PITCH DATA STORM

  • 0:08 - 0:10
    Oi, eu sou Heloiza,
    estagiária de Data "Science.
  • 0:10 - 0:13
    Olá, eu sou a Sara,
    Cientista de Dados.
  • 0:13 - 0:15
    E nós somos da Data Storm.
  • 0:15 - 0:19
    Bom, no início de 2024,
    a Minsait procurou a FIAP
  • 0:19 - 0:22
    para ajudar a entender como
    a gente poderia utilizar IA e dados
  • 0:22 - 0:26
    para ajudar a prever a queda
    de energia na cidade de São Paulo.
  • 0:26 - 0:29
    Bom, a gente sabe
    que a cidade de São Paulo
  • 0:29 - 0:31
    sempre enfrentou
    muitos problemas
  • 0:31 - 0:34
    em relação a falta
    de energia elétrica.
  • 0:34 - 0:41
    Ano passado, em 2024, a gente teve
    um recorde de apagão histórico,
  • 0:41 - 0:44
    3 milhões de pessoas foram
    afetadas por esse apagão,
  • 0:44 - 0:49
    a gente teve um prejuízo
    de mais de R$ 400 milhões
  • 0:49 - 0:50
    por conta desse apagão,
  • 0:50 - 0:53
    então a gente sabe que é um problema
    frequente na nossa cidade,
  • 0:53 - 0:55
    e como a gente pode
    utilizar IA e dados
  • 0:55 - 0:57
    para a gente ajudar a prever
  • 0:57 - 1:00
    e ser proativo em relação
    a esse problema.
  • 1:00 - 1:02
    Bom, para resolver
    esse desafio,
  • 1:02 - 1:04
    a gente tinha como
    principal objetivo
  • 1:04 - 1:07
    trazer uma infraestrutura
    centralizada de dados
  • 1:07 - 1:10
    que pudesse organizar
    e padronizar dados climáticos,
  • 1:10 - 1:12
    de previsão de tempo,
  • 1:12 - 1:15
    de interrupção de energia elétrica
    de toda a região de São Paulo,
  • 1:15 - 1:16
    uma arquitetura,
    um pipeline de dados
  • 1:16 - 1:19
    que suportasse toda
    essa infraestrutura
  • 1:19 - 1:22
    e, além disso, um modelo preditivo
    que nos ajudasse a entender
  • 1:22 - 1:25
    quais seriam as próximas
    regiões mais afetadas,
  • 1:25 - 1:28
    onde a gente deveria focar
    e ter uma ação planejada
  • 1:28 - 1:32
    da equipe operacional da Minsait
    mais efetiva e mais acurada.
  • 1:32 - 1:35
    E, para isso, a gente utilizou
    diversas fontes de dados,
  • 1:35 - 1:37
    como dados públicos
    da subprefeitura de São Paulo,
  • 1:37 - 1:42
    do GeoSampa, da Aneel, dados
    privados, também, da Mateomatics
  • 1:42 - 1:45
    para a gente construir
    e desenvolver essa solução.
  • 1:45 - 1:48
    Pensando nisso, nós criamos
    uma arquitetura de dados
  • 1:48 - 1:51
    extremamente robusta
    e completa.
  • 1:51 - 1:54
    Ela trabalha com dados em tempo
    real e dados históricos,
  • 1:54 - 1:57
    então os dados históricos entram
    na arquitetura através de batches
  • 1:57 - 2:01
    e os dados, em tempo real,
    entram através de uma API
  • 2:01 - 2:03
    orquestrada pelo Airflow.
  • 2:03 - 2:04
    Na primeira camada,
  • 2:04 - 2:08
    a gente limpou bem por cima
    esses dados, a camada raw,
  • 2:08 - 2:12
    então, tiramos só o que não
    era extremaente necessário
  • 2:12 - 2:17
    para conseguir armazenar eles
    dentro do Google Cloud Plataform
  • 2:17 - 2:20
    e, só então, conseguir trabalhar
    efetivamente em cima deles.
  • 2:20 - 2:22
    Na segunda camada,
    a camada trusted,
  • 2:22 - 2:24
    nós pegamos esses
    dados já mais limpos
  • 2:24 - 2:28
    e refinamos eles, de fato,
    para, então, integrá-los
  • 2:28 - 2:31
    e construir a última
    camada de tratamento,
  • 2:31 - 2:36
    que é a camada refined, onde
    nós criamos uma tabela gigante
  • 2:36 - 2:39
    com todos os dados
    necessários já filtrados
  • 2:39 - 2:43
    e prontos para serem jogados
    no nosso modelo de predição
  • 2:43 - 2:47
    e treinados no nosso modelo
    de machine learning
  • 2:47 - 2:50
    e, então, conseguir trabalhar,
    de fato, esses dados
  • 2:50 - 2:52
    para uma visualização
    no Power BI.
  • 2:52 - 2:56
    O nosso modelo preditivo
    passou por alguns testes,
  • 2:56 - 3:01
    e o último, que é o LightGBM, nós
    decidimos que era o mais acurado.
  • 3:01 - 3:04
    Aqui, nós temos
    uma matriz de confusão,
  • 3:04 - 3:06
    recall, acuracidade, precisão,
  • 3:06 - 3:09
    mas o mais interessante é falar
    sobre a matriz de confusão,
  • 3:09 - 3:14
    onde temos testes de true
    e false, verdadeiro ou falso,
  • 3:14 - 3:18
    onde eu digo se vai
    faltar e falta energia,
  • 3:18 - 3:21
    onde eu digo se não vai
    faltar e falta energia,
  • 3:21 - 3:22
    se vai faltar e não falta
  • 3:22 - 3:26
    e se não vai faltar e realmente
    não falta energia.
  • 3:26 - 3:31
    Olhando os quadrantes, o azulzinho
    e o roxinho mais escuro,
  • 3:31 - 3:34
    nós vemos os dois
    números principais,
  • 3:34 - 3:37
    onde eu digo, no azul,
    que não vai faltar e falta,
  • 3:37 - 3:43
    é um número alto, mas pensando
    no negócio desse problema,
  • 3:43 - 3:46
    nos compensa mais
    deslocar uma equipe
  • 3:46 - 3:48
    quando eu falo que não
    vai faltar e falta
  • 3:48 - 3:52
    do que deslocar uma equipe quando
    eu falo que vai faltar e não falta.
  • 3:52 - 3:54
    E um dos focos
    da nossa solução
  • 3:54 - 3:58
    é a minimização
    de recursos operacionais,
  • 3:58 - 4:02
    então, por isso, nós escolhemos
    um modelo que tem um erro menor
  • 4:02 - 4:07
    quando diz que vai locomover
    a equipe e ele erra.
  • 4:07 - 4:10
    Então, é por isso
    o modelo LightGBM.
  • 4:10 - 4:13
    Bom, e para analisar todos
    esses resultados da IA,
  • 4:13 - 4:15
    para a gente entender
  • 4:15 - 4:18
    onde as equipes operacionais
    da minha insight poderiam atuar,
  • 4:18 - 4:19
    a gente desenvolveu
    um dashboard
  • 4:19 - 4:22
    onde a gente mostra todo
    o histórico que a gente tem
  • 4:22 - 4:24
    tanto de dados climatológicos
  • 4:24 - 4:27
    quanto de dados de interrupção
    de energia elétrica,
  • 4:27 - 4:30
    e com os dados da previsão,
    em tempo real,
  • 4:30 - 4:33
    da falha e da interrupção
    de energia elétrica.
  • 4:33 - 4:36
    Então, no nosso dashboard, hoje,
    a gente consegue ver, por exemplo,
  • 4:36 - 4:39
    qual é a média de previsão
    de interrupção de energia elétrica
  • 4:39 - 4:42
    para São Paulo
    nos próximos 7 dias,
  • 4:42 - 4:43
    a gente consegue ver
    isso por datas também,
  • 4:43 - 4:47
    então se tem um dia em que a equipe
    tem que planejar recursos a mais,
  • 4:47 - 4:50
    a gente consegue analisar
    isso por subprefeitura,
  • 4:50 - 4:51
    em um mapa de calor
  • 4:51 - 4:54
    onde a gente consegue ver
    as regiões mais críticas,
  • 4:54 - 4:57
    então onde a IA está dizendo,
    com base nos dados climatológicos
  • 4:57 - 4:59
    e de interrupção
    de energia elétrica,
  • 4:59 - 5:02
    onde a equipe operacional
    deveria atuar mais forte.
  • 5:02 - 5:06
    Então, a gente consegue
    também ver a média histórica
  • 5:06 - 5:10
    para entender o comportamento
    histórico de cada subprefeitura
  • 5:10 - 5:13
    e entender, e ajudar,
    e analisar esses pontos.
  • 5:13 - 5:18
    Um ponto forte da nossa
    solução é essa tabelinha aqui,
  • 5:18 - 5:23
    onde nós ponderamos qual local
    deve ser socorrido primeiro,
  • 5:23 - 5:24
    assim por dizer.
  • 5:24 - 5:29
    Então, aqui, nós trazemos diversos
    dados demográficos de hospitais,
  • 5:29 - 5:34
    escolas, creches,
    comunidades etc.
  • 5:34 - 5:35
    E, aqui, nós ponderamos
  • 5:35 - 5:37
    porque não necessariamente
    onde mais chove
  • 5:37 - 5:39
    é onde mais
    vai ser afetado.
  • 5:39 - 5:41
    Então, a gente conseguiu
    trazer todos esses dados
  • 5:41 - 5:46
    aqui para dentro também e, assim,
    indicar onde as equipes de resgate,
  • 5:46 - 5:51
    onde as operações devem ir e tomar
    uma atitude, assim por dizer.
  • 5:51 - 5:54
    E, aqui, a gente traz
    a visão do nosso MVP,
  • 5:54 - 5:56
    até onde a gente
    desenvolveu,
  • 5:56 - 5:58
    e da proposta da nossa
    solução final,
  • 5:58 - 6:00
    onde a gente poderia chegar
    com possíveis investimentos.
  • 6:00 - 6:04
    Então, hoje, a gente tem
    uma API que faz a previsão,
  • 6:04 - 6:08
    com o o nosso modelo de AI,
    de até 7 dias de previsão
  • 6:08 - 6:10
    para todas as subprefeituras
    de São Paulo
  • 6:10 - 6:11
    e, com um possível
    investimento,
  • 6:11 - 6:14
    a gente conseguiria chegar
    em até 15 dias e ampliar isso
  • 6:14 - 6:18
    para gerar um melhor planejamento,
    inclusive operacional para a equipe,
  • 6:18 - 6:21
    então, saber em qual período
    vão ter que deslocar recursos,
  • 6:21 - 6:22
    para qual região.
  • 6:22 - 6:25
    Então, isso seria possível
    na nossa solução final também.
  • 6:25 - 6:28
    Além disso, a gente também
    teria a possibilidade
  • 6:28 - 6:31
    de, hoje, a gente traz a nível
    de subprefeitura esses dados,
  • 6:31 - 6:32
    então, com um possível
    investimento,
  • 6:32 - 6:35
    a gente também poderia ter
    uma granularidade maior
  • 6:35 - 6:38
    e trazer tantos dados históricos
    a nível de subprefeitura,
  • 6:38 - 6:40
    de interrupção
    de rede elétrica,
  • 6:40 - 6:45
    mas também os dados de climatologia
    em uma granularidade maior
  • 6:45 - 6:47
    e trazer uma previsão
    mais acurada
  • 6:47 - 6:49
    para a região mais
    acurada de São Paulo,
  • 6:49 - 6:51
    trazendo, assim, até
    uma eficiência operacional
  • 6:51 - 6:54
    para a equipe que está
    atendendo as regiões
  • 6:54 - 6:56
    que estão com falta
    de energia elétrica.
  • 6:56 - 6:59
    E, além disso, a gente ainda
    teria como oportunidade
  • 6:59 - 7:02
    trazer para a nossa
    solução final
  • 7:02 - 7:05
    retroalimentar os dados
    operacionais da Minsait
  • 7:05 - 7:08
    para que a gente possa ter
    uma solução ainda mais eficaz.
  • 7:08 - 7:12
    Então, entender as equipes, trazer
    os dados de feedback das equipes,
  • 7:12 - 7:13
    onde as equipes
    estão atuando
  • 7:13 - 7:15
    e a gente deveria
    começar a atua mais,
  • 7:15 - 7:17
    o tempo de deslocamento
    dessas equipes
  • 7:17 - 7:21
    para a gente ter um planejamento
    ainda mais acurado e eficaz
  • 7:21 - 7:22
    para a Minsait.
  • 7:22 - 7:26
    Essa foi a nossa solução final para
    o challenge desenvolvido em 2024,
  • 7:26 - 7:28
    gostaríamos de deixar,
    aqui, um agradecimento
  • 7:28 - 7:32
    a todo o time Data Storm
    e desejamos uma boa sorte.
Title:
PBL TSC ANO 02 FASE 03 2025 VIDEO EXTRA PITCH DATA STORM
Video Language:
Portuguese, Brazilian
Duration:
07:35

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions