< Return to Video

GBA CAP01 2025 VA06 DESAFIOS ETICOS E TECNICOS

  • 0:08 - 0:13
    Vamos para o seguinte problema:
    o modelo de IA, para qualquer fim,
  • 0:13 - 0:18
    fim médico, fim policial,
    gerou um dado incorreto,
  • 0:18 - 0:22
    você, como parte do time
    de governança de IA,
  • 0:22 - 0:26
    precisa explicar o que aconteceu
    dentro do modelo
  • 0:26 - 0:31
    para poder gerar aquele
    tipo de informação incorreta.
  • 0:31 - 0:34
    Só que a gente começa
    a entrar no seguinte problema:
  • 0:34 - 0:38
    modelos de IA tem aquilo
    que chamamos de caixa preta,
  • 0:38 - 0:40
    e como a gente vai
    conseguir analisar,
  • 0:40 - 0:46
    interpretar, explicar aquilo, sendo
    que muitas vezes é inacessível?
  • 0:46 - 0:49
    Vamos entender melhor
    como figura a governança de IA
  • 0:49 - 0:52
    dentro das famosas caixas
    pretas dos modelos de IA.
  • 0:52 - 0:54
    Mas para quem
    caiu de paraquedas,
  • 0:54 - 0:56
    que nunca desenvolveu
    modelos de IA,
  • 0:56 - 0:58
    que nunca teve contato
    com modelos de IA,
  • 0:58 - 1:00
    o que é caixa preta?
  • 1:00 - 1:05
    Bom, dentro do nosso modelo de IA,
    sobretudo o modelo de Deep Learning,
  • 1:05 - 1:07
    você tem as suas camadas,
    seus neurônios,
  • 1:07 - 1:10
    e eles vão gerar
    seu resultado.
  • 1:10 - 1:13
    Mas a caixa preta é como eles
    geraram aquele resultado,
  • 1:13 - 1:17
    de que forma, qual foram
    os pesos, as medidas.
  • 1:17 - 1:21
    Por mais que o modelo tenha
    sua arquitetura bem definida,
  • 1:21 - 1:26
    tenha seu desenho pronto, muitos
    modelos têm a sua caixa preta,
  • 1:26 - 1:29
    e muitas vezes
    é difícil explicar.
  • 1:29 - 1:32
    Então, por exemplo, eu já
    trabalhei com modelos
  • 1:32 - 1:35
    que têm pelo menos três
    camadas e, a cada camada,
  • 1:35 - 1:39
    ele vai aumentando em oito
    o volume de neurônios.
  • 1:39 - 1:42
    Como você consegue explicar
    o resultado com isso?
  • 1:42 - 1:46
    E esse é um problema muito gerado
    em redes neurais, essa caixa preta.
  • 1:46 - 1:50
    E a terminologia é similar
    à terminologia utilizada na aviação,
  • 1:50 - 1:52
    porque a caixa preta
    do avião é inacessível,
  • 1:52 - 1:56
    assim como a caixa preta
    da inteligência artificial,
  • 1:56 - 1:57
    que é bastante inacessível.
  • 1:57 - 1:58
    E aí, você deve estar
    se perguntando:
  • 1:58 - 2:02
    "bom, a caixa preta deve
    gerar riscos na governança".
  • 2:02 - 2:04
    Sim, ela gera riscos
    na governança.
  • 2:04 - 2:07
    Como você consegue
    explicar esse modelo?
  • 2:07 - 2:11
    Como esse modelo consegue ser
    aderente à legislação vigente
  • 2:11 - 2:15
    ou a práticas corretas
    de governança e ética?
  • 2:15 - 2:19
    Esse tipo de problema gerado por
    modelos que contém caixa preta
  • 2:19 - 2:24
    é um desafio muito grande e é,
    inclusive, um foco de discurso
  • 2:24 - 2:28
    dentro das legislações que estão
    sendo discutidas de IA e Big Data.
  • 2:28 - 2:33
    Por exemplo, a legislação voltada
    para IA dentro da Europa
  • 2:33 - 2:36
    trabalha muito a transparência
    que um modelo deve ter
  • 2:36 - 2:39
    em cima da sua
    geração de informação.
  • 2:39 - 2:42
    Então, é uma coisa que já
    vem sendo debatida.
  • 2:42 - 2:45
    Mas, além da caixa preta, a gente
    também tem um termo bastante comum
  • 2:45 - 2:49
    dentro da inteligência artificial,
    que é o viés histórico,
  • 2:49 - 2:54
    problemas que estão na nossa
    sociedade que afetam o nosso modelo.
  • 2:54 - 2:57
    E, aqui na ilustração,
    a gente traz o seguinte:
  • 2:57 - 2:59
    o que é esse viés histórico?
  • 3:01 - 3:03
    O viés histórico parte
    quando os dados utilizados
  • 3:03 - 3:07
    para treinar aquela IA refletem
    desigualdades, preconceitos
  • 3:07 - 3:12
    ou distorções sociais que já
    existiam, que não existem mais.
  • 3:13 - 3:15
    E a gente colocou alguns
    exemplos práticos,
  • 3:15 - 3:18
    por exemplo, o menor número
    de mulheres em cargos de liderança
  • 3:18 - 3:21
    ocasiona que a IA vai
    repetir esse padrão
  • 3:21 - 3:25
    para poder gerar
    a amostra, a análise.
  • 3:25 - 3:31
    Além disso, pessoas com menor
    acesso a crédito, minorias,
  • 3:31 - 3:34
    a IA vai também
    penalizar essas pessoas
  • 3:34 - 3:38
    quando elas tentarem conseguir
    algum crédito no mercado.
  • 3:38 - 3:43
    E a consequência é que a IA vai
    amplificar esse tipo de problema.
  • 3:43 - 3:45
    Antes de a gente começar
    a trabalhar com a IA gerativa
  • 3:45 - 3:50
    ou estatística multivariada, a gente
    já tinha as nossas previsões,
  • 3:50 - 3:53
    por exemplo,
    realizar um forecast,
  • 3:53 - 3:56
    a gente pode até fazer
    uma comparação meio boba,
  • 3:56 - 4:01
    por exemplo, ao seguinte fator:
    vamos supor que você tenha ali
  • 4:01 - 4:08
    uma linha do tempo que tem
    dados de janeiro até junho, ok?
  • 4:08 - 4:12
    E você vai prever o próximo
    mês baseado, por exemplo,
  • 4:12 - 4:16
    nos cinco meses anteriores, e aí,
    você vai arrastando essa previsão,
  • 4:16 - 4:19
    ela vai fazer uma média
    para prever os próximos meses.
  • 4:19 - 4:22
    Concorda que vai chegar
    uma altura do campeonato
  • 4:22 - 4:26
    que se você não travar ou não
    tratar, por exemplo, essa previsão,
  • 4:26 - 4:29
    os dados utilizados
    para poder prever o futuro
  • 4:29 - 4:33
    vão ser os resultados
    das últimas médias geradas?
  • 4:33 - 4:36
    Quando a gente fala que a IA
    pode amplificar problemas sociais
  • 4:36 - 4:38
    se ela parte de vieses
    históricos, é isso.
  • 4:38 - 4:43
    Você vai utilizar um dado que não
    se adequa à realidade de hoje
  • 4:43 - 4:47
    para poder gerar modelos
    que podem gerar decisões,
  • 4:47 - 4:51
    podem gerar tomadas de decisões,
    e aí, vai gerar um ciclo vicioso.
  • 4:51 - 4:56
    E, fora o viés histórico, nós temos
    também o paradoxo da explicabilidade,
  • 4:56 - 5:01
    que inclusive afeta
    muito a caixa preta.
  • 5:01 - 5:04
    Então, a gente tem modelos
    que são mais simples
  • 5:04 - 5:05
    e modelos mais complexos.
  • 5:05 - 5:07
    Então, modelos que forem
    mais complexos
  • 5:07 - 5:09
    entende-se como os modelos
    de Deep Learning.
  • 5:09 - 5:12
    E, hoje, entra o paradoxo
    da explicabilidade.
  • 5:12 - 5:17
    Modelos mais simples,
    como árvores de decisão,
  • 5:17 - 5:21
    geram resultados mais simples,
    porque a sua configuração,
  • 5:21 - 5:23
    a sua arquitetura é
    mais simplificada,
  • 5:23 - 5:25
    porém, eles são muito
    mais fáceis de explicar.
  • 5:25 - 5:29
    Enquanto modelos mais complexos,
    como modelos de redes neurais,
  • 5:29 - 5:33
    respondem a problemas
    mais complexos.
  • 5:33 - 5:39
    Então, por exemplo, uma análise
    que tem uma alta variância
  • 5:39 - 5:42
    de dados de entrada e saída, ele
    vai conseguir atender muito bem,
  • 5:42 - 5:46
    porém, ali a gente tem o nosso
    problema de explicabilidade,
  • 5:46 - 5:47
    ali a gente tem caixa preta.
  • 5:47 - 5:50
    Então, vamos comparar
    os dois modelos.
  • 5:50 - 5:53
    Modelos mais simples
    vão ter alta explicabilidade
  • 5:53 - 5:57
    enquanto modelos mais complexos
    terão uma baixa explicabilidade.
  • 5:57 - 6:00
    Modelos mais simples, então,
    são mais fáceis de auditar.
  • 6:00 - 6:02
    Então, o comitê de ética
    em IA e Big Data
  • 6:02 - 6:04
    consegue, então,
    reger melhor aqui.
  • 6:04 - 6:08
    Modelos mais complexos têm
    uma dificuldade maior de explicar
  • 6:08 - 6:11
    por conta da sua
    caixa preta.
  • 6:11 - 6:14
    Só que, aí, a gente começa a entrar
    no problema dos modelos mais simples.
  • 6:14 - 6:17
    Modelos mais simples têm
    uma performance menor
  • 6:17 - 6:21
    para tarefas mais complexas,
    então eles têm uma limitação ali.
  • 6:21 - 6:27
    E aí, exige que eu use modelos
    complexos, como o Deep Learning,
  • 6:27 - 6:30
    para problemas que exigem
    uma alta performance
  • 6:30 - 6:32
    por terem um grande
    volume de dados.
  • 6:32 - 6:34
    Então, ali é o nosso paradoxo.
  • 6:34 - 6:38
    Como eu consigo resolver
    um problema extremamente complexo,
  • 6:38 - 6:40
    que tem um alto volume
    de dados e, ao mesmo tempo,
  • 6:40 - 6:43
    conseguir explicar o que ele fez
    para resolver aquele problema?
  • 6:43 - 6:44
    E, por conta disso,
    a gente entra muito
  • 6:44 - 6:47
    no panorama de regulamentações.
  • 6:47 - 6:53
    Como, hoje, está, por exemplo,
    o Brasil em relação a outros países
  • 6:53 - 6:55
    no que tange
    regulamentar a IA?
  • 6:55 - 6:57
    E aí, a gente pode pensar
    também em regulamentar
  • 6:57 - 7:00
    como a gente pode trabalhar
    e explicar essa caixa preta.
  • 7:00 - 7:05
    O AI Act, da União Europeia, vai
    classificar as aplicações de IA
  • 7:05 - 7:08
    por risco, nível de risco,
    desde o inaceitável,
  • 7:08 - 7:12
    passando por alto
    risco, médio e baixo.
  • 7:12 - 7:17
    Então, ali tem riscos
    que o modelo de IA pode tomar
  • 7:17 - 7:21
    e modelos de IA que, legalmente,
    já têm que ser evitados,
  • 7:21 - 7:22
    não pode dar sequência.
  • 7:22 - 7:25
    Então, a regulamentação europeia
  • 7:25 - 7:29
    vai ter regras mais rígidas
    para IAs de alto risco.
  • 7:29 - 7:31
    Quando a gente começa
    a olhar o panorama
  • 7:31 - 7:33
    do cenário nacional brasileiro,
  • 7:33 - 7:35
    a gente não tem
    uma regulamentação vigente de IA,
  • 7:35 - 7:38
    a gente tem um marco legal
    para IA, que está em discussão,
  • 7:38 - 7:43
    mas a gente já tem a LGPD,
    então vamos analisar a LGPD.
  • 7:43 - 7:46
    A LGPD se baseia em proteção
    de dados pessoais,
  • 7:46 - 7:49
    ela busca entender
    e garantir direitos
  • 7:49 - 7:52
    como explicação
    de decisões automatizadas
  • 7:52 - 7:56
    e entra também com consentimento
    e bases legais para uso de dados.
  • 7:56 - 8:01
    Então, por mais que a LGPD não
    atue especificamente sobre IA,
  • 8:01 - 8:06
    seja abrangente, ela já tem alguns
    fatores que impactam na IA,
  • 8:06 - 8:09
    como a explicabilidade
    do modelo
  • 8:09 - 8:12
    e como o consentimento
    do uso da informação.
  • 8:12 - 8:15
    Falando do marco legal,
    que está em discussão,
  • 8:15 - 8:16
    o que nós temos aqui?
  • 8:16 - 8:19
    O marco legal vai
    definir as diretrizes
  • 8:19 - 8:22
    para o desenvolvimento ético
    e responsável do modelo de IA
  • 8:22 - 8:25
    e, a partir disso, vai
    entrar a discussão
  • 8:25 - 8:28
    sobre as categorias de risco
    e os deveres de transparência.
  • 8:28 - 8:34
    O nosso marco legal de IA
    está um pouco baseado
  • 8:34 - 8:38
    na regulamentação europeia,
    ele tem, ali, as suas fontes.
  • 8:38 - 8:41
    Dentro do nosso conteúdo, vocês vão
    observar que a gente tem também
  • 8:41 - 8:45
    outras regulamentações
    de IA ao redor do mundo,
  • 8:45 - 8:48
    tem a regulamentação chinesa,
    tem a regulamentação americana,
  • 8:48 - 8:50
    cada uma tem
    um objetivo diferente.
  • 8:50 - 8:54
    O objetivo da regulamentação de IA
    europeia e, consequentemente,
  • 8:54 - 8:57
    o caminho que está tomando
    a regulamentação de IA brasileira,
  • 8:57 - 9:01
    é muito na transparência
    e explicabilidade dos dados,
  • 9:01 - 9:03
    sempre pensando
    no usuário final,
  • 9:03 - 9:07
    que é o usuário que vai consumir
    os dados, consumir o modelo
  • 9:07 - 9:09
    e também vai prover,
  • 9:09 - 9:12
    vai repassar os seus dados
    para o modelo trabalhar.
  • 9:12 - 9:15
    E como reflexão, vamos
    pensar no seguinte:
  • 9:15 - 9:18
    a empresa que você trabalha
    já está preparada para explicar
  • 9:18 - 9:21
    como o modelo já
    está funcionando?
  • 9:21 - 9:22
    Ou ela apenas está
    desenvolvendo
  • 9:22 - 9:25
    e gerando o modelo de acordo
    com a necessidade, sem entrar,
  • 9:25 - 9:28
    por exemplo, em compromissos
    éticos ou, eventualmente,
  • 9:28 - 9:32
    se tiver alguma auditoria, não vai
    conseguir saber lidar, por exemplo,
  • 9:32 - 9:35
    com explicar como aquele
    modelo gerou aquela informação?
Title:
GBA CAP01 2025 VA06 DESAFIOS ETICOS E TECNICOS
Video Language:
Portuguese, Brazilian
Duration:
09:39

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions