< Return to Video

GBA CAP01 2025 VA06 DESAFIOS ETICOS E TECNICOS

  • 0:08 - 0:13
    Vamos para o seguinte problema, o modelo de IA, e para qualquer fim,
  • 0:13 - 0:18
    fim médico, fim policial, gerou um dado incorreto.
  • 0:18 - 0:24
    Você como parte do time de governança de IA, precisa explicar o que
  • 0:24 - 0:29
    aconteceu dentro do modelo, para poder gerar aquele tipo de
  • 0:29 - 0:30
    informação incorreta.
  • 0:31 - 0:35
    Só que a gente começa a entrar num seguinte problema, modelos de IA
  • 0:35 - 0:38
    tem aquilo que chamamos de caixa preta, e como que a gente vai
  • 0:38 - 0:43
    conseguir analisar, interpretar, explicar aquilo, sendo que por
  • 0:43 - 0:45
    muitas vezes é inacessível.
  • 0:46 - 0:50
    Vamos entender melhor como que figura a governança de IA dentro das
  • 0:50 - 0:52
    famosas caixas pretas dos modelos de IA.
  • 0:52 - 0:55
    Mas para quem caiu de paraquedas, que nunca desenvolveu um modelo de
  • 0:55 - 0:59
    IA, que nunca teve contato com um modelo de IA, o que é caixa
  • 0:59 - 0:59
    preta?
  • 1:00 - 1:04
    Bom, dentro do nosso modelo, do modelo de IA, sobretudo o modelo de
  • 1:04 - 1:08
    Deep Learning, você tem ali as suas camadas, seus neurônios, eles vão
  • 1:08 - 1:09
    gerar seu resultado.
  • 1:10 - 1:14
    Mas a caixa preta é como que ele gerar aquele resultado, de que
  • 1:14 - 1:16
    forma, qual que foram os pesos, as medidas.
  • 1:17 - 1:22
    Por mais que o modelo tenha sua arquitetura bem definida, tenha seu
  • 1:22 - 1:27
    desenho pronto, muitos modelos têm a sua caixa preta, e por muitas
  • 1:27 - 1:29
    vezes é difícil explicar.
  • 1:29 - 1:32
    Então, por exemplo, eu já trabalhei com modelos que eles têm pelo
  • 1:32 - 1:38
    menos três camadas e cada camada ele vai aumentando em oito o volume
  • 1:38 - 1:39
    de neurônios.
  • 1:39 - 1:42
    Como que você consegue explicar o resultado com isso?
  • 1:43 - 1:45
    E esse é um problema muito gerado em redes neurais.
  • 1:45 - 1:46
    Essa caixa preta.
  • 1:47 - 1:50
    E a terminologia, ela é similar à terminologia utilizada na aviação,
  • 1:50 - 1:53
    porque a caixa preta do avião era inacessível, assim como a caixa
  • 1:53 - 1:57
    preta ali da inteligência artificial, que ela é bastante inacessível.
  • 1:57 - 2:00
    E aí você deve estar se perguntando, bom, a caixa preta, ela deve
  • 2:00 - 2:02
    gerar riscos na governança.
  • 2:02 - 2:04
    Sim, ela gera risco na governança.
  • 2:04 - 2:07
    Como que você consegue explicar esse modelo?
  • 2:07 - 2:12
    Como esse modelo, ele consegue ser aderente à legislação vigente, ou
  • 2:12 - 2:15
    a práticas corretas de governança e ética.
  • 2:15 - 2:20
    Esse tipo de problema, gerado por modelos que contém a caixa preta, é
  • 2:20 - 2:24
    um desafio muito grande e é, inclusive, um foco de discurso dentro
  • 2:24 - 2:28
    das legislações que estão sendo discutidas de AI Big Data.
  • 2:28 - 2:33
    Por exemplo, a legislação voltada para a IA dentro da Europa, ela
  • 2:33 - 2:38
    trabalha muito a transparência que o modelo deve ter em cima da sua
  • 2:38 - 2:39
    geração de informação.
  • 2:39 - 2:42
    Então é uma coisa que já vem sendo debatida.
  • 2:42 - 2:46
    Mas além da caixa preta, a gente também tem um termo bastante comum
  • 2:46 - 2:49
    dentro da inteligência artificial, que é o viés histórico.
  • 2:50 - 2:54
    Problemas que estão na nossa sociedade que afetam o nosso modelo.
  • 2:54 - 2:58
    E aqui na industria a gente traz o seguinte, o que é esse viés
  • 2:58 - 2:59
    histórico?
  • 3:01 - 3:04
    O viés histórico, ele parte quando os dados utilizados para treinar
  • 3:04 - 3:09
    aquela IA refletem desigualdades, preconceitos ou distorções sociais
  • 3:09 - 3:11
    que já existiam, que não existem mais.
  • 3:13 - 3:15
    E a gente colocou alguns exemplos práticos.
  • 3:15 - 3:18
    Por exemplo, o menor número de mulheres em cargos de liderança
  • 3:18 - 3:23
    ocasiona que a IA vai repetir seu padrão para poder gerar a amostra,
  • 3:23 - 3:24
    a análise.
  • 3:25 - 3:32
    Além disso, pessoas com menor acesso a crédito, minorias, a IA vai
  • 3:32 - 3:36
    também penalizar essa pessoa quando ela tentar conseguir algum
  • 3:36 - 3:37
    crédito no mercado.
  • 3:37 - 3:43
    E a consequência é que a IA vai amplificar esse tipo de problema.
  • 3:43 - 3:47
    Antes de a gente começar a trabalhar com a IA gerativa ou estatística
  • 3:47 - 3:51
    multivariada, a gente já tinha as nossas previsões, por exemplo,
  • 3:51 - 3:56
    realizar um FORTEST, a gente pode até fazer uma comparação meio que
  • 3:56 - 3:58
    boba, por exemplo, ao seguinte fator.
  • 3:59 - 4:04
    Vamos supor que você tenha ali uma linha do tempo que ela tem dados
  • 4:04 - 4:06
    de janeiro até junho.
  • 4:06 - 4:07
    Ok?
  • 4:08 - 4:13
    E você vai prever o próximo mês baseado, por exemplo, nos cinco meses
  • 4:13 - 4:14
    anteriores.
  • 4:15 - 4:18
    E aí você vai arrastando essa previsão, ela vai fazer uma média para
  • 4:18 - 4:19
    prever os próximos meses.
  • 4:19 - 4:23
    Concorda que vai chegar uma altura do campeonato que se você não
  • 4:23 - 4:28
    travar ou não tratar, por exemplo, essa previsão, os dados utilizados
  • 4:28 - 4:31
    para poder prever o futuro vão ser os resultados das últimas médias
  • 4:31 - 4:32
    geradas?
  • 4:33 - 4:36
    Quando a gente fala que a IA pode amplificar problemas sociais se ela
  • 4:36 - 4:38
    parte de viéses históricos, é isso.
  • 4:39 - 4:43
    Você vai utilizar um dado que não se adequa à realidade de hoje para
  • 4:43 - 4:48
    poder gerar modelos que podem gerar decisões, podem gerar tomadas de
  • 4:48 - 4:49
    decisões.
  • 4:49 - 4:51
    E aí vai gerar um ciclo vicioso.
  • 4:51 - 4:55
    E fora o viés histórico, nós temos também o paradoxo da
  • 4:55 - 5:01
    explicabilidade, que inclusive afeta muito a caixa preta.
  • 5:01 - 5:05
    Então, a gente tem modelos que são mais simples e modelos mais
  • 5:05 - 5:05
    complexos.
  • 5:05 - 5:08
    Então, modelos que forem mais complexos, entendem-se como os modelos
  • 5:08 - 5:09
    de Deep Learning.
  • 5:09 - 5:12
    E hoje entra o paradoxo da explicabilidade.
  • 5:13 - 5:18
    Modelos mais simples, como árvores de decisão, eles geram resultados
  • 5:18 - 5:22
    mais simples, porque a sua configuração, a sua arquitetura é mais
  • 5:22 - 5:25
    simplificada, porém, eles são muito mais fáceis de explicar.
  • 5:25 - 5:29
    Enquanto modelos mais complexos, como modelos de redes neurais, eles
  • 5:29 - 5:32
    respondem a problemas mais complexos.
  • 5:33 - 5:39
    Então, por exemplo, uma análise que ela tenha uma alta variância de
  • 5:39 - 5:42
    dados de entrada e saída, ele vai conseguir atender muito bem, porém,
  • 5:42 - 5:47
    ali a gente tem o nosso problema de explicabilidade, ali a gente tem
  • 5:47 - 5:47
    a caixa preta.
  • 5:48 - 5:49
    Então, vamos comparar os dois modelos.
  • 5:50 - 5:54
    Modelos mais simples, eles vão ter alta explicabilidade, enquanto
  • 5:54 - 5:56
    modelos mais complexos, uma baixa explicabilidade.
  • 5:57 - 6:00
    Modelos mais simples, então, são mais fáceis de auditar.
  • 6:00 - 6:03
    Então, o comitê de ética em AI Big Data consegue, então, regir melhor
  • 6:03 - 6:04
    aqui.
  • 6:05 - 6:08
    Modelos mais complexos, tem uma dificuldade maior de explicar, por
  • 6:08 - 6:10
    conta da sua caixa preta.
  • 6:10 - 6:13
    Só que aí a gente começa a entrar no problema dos modelos mais
  • 6:13 - 6:13
    simples.
  • 6:14 - 6:18
    Modelos mais simples, tem uma performance menor para tarefas mais
  • 6:18 - 6:20
    complexas, então esse tem uma limitação ali.
  • 6:21 - 6:27
    E aí, exige que eu use modelos complexos, como o Deep Learning, para
  • 6:27 - 6:31
    problemas que exigem uma alta performance por terem um grande volume
  • 6:31 - 6:32
    de dados.
  • 6:33 - 6:34
    Então, ali é o nosso paradoxo.
  • 6:35 - 6:38
    Como que eu consigo resolver um problema extremamente complexo, que
  • 6:38 - 6:41
    tem um alto volume de dados, e ao mesmo tempo conseguir explicar o
  • 6:41 - 6:43
    que ele fez para resolver aquele problema?
  • 6:43 - 6:46
    E por conta disso, a gente entra muito no panorama de
  • 6:46 - 6:47
    regulamentações.
  • 6:47 - 6:52
    Como que hoje está, por exemplo, o Brasil em relação a outros países,
  • 6:52 - 6:55
    por exemplo, no que tange de regulamentar a IA.
  • 6:55 - 6:58
    E aí a gente pode pensar também em regulamentar como que a gente pode
  • 6:58 - 7:00
    trabalhar e explicar essa caixa preta.
  • 7:00 - 7:05
    O AI Act, da União Europeia, ele vai classificar as aplicações de IA
  • 7:05 - 7:07
    por risco, nível de risco.
  • 7:07 - 7:12
    Desde o inaceitável, passando por alto, risco, médio e baixo.
  • 7:13 - 7:18
    Então, ali tem riscos que o modelo de IA pode tomar e modelos de
  • 7:18 - 7:22
    IA que legalmente já tem que ser evitado, não pode dar sequência.
  • 7:22 - 7:28
    Então, a regulamentação europeia vai ter regras mais rígidas para IAs
  • 7:28 - 7:29
    de alto risco.
  • 7:29 - 7:32
    Quando a gente começa a olhar no panorama do cenário nacional
  • 7:32 - 7:35
    brasileiro, a gente não tem uma regulamentação vigente de IA.
  • 7:35 - 7:39
    A gente tem um marco legal para IA, que está em discussão, mas a
  • 7:39 - 7:40
    gente já tem a LGPD.
  • 7:40 - 7:41
    Então, vamos analisar a LGPD.
  • 7:43 - 7:45
    A LGPD, ela se baseia em proteção de dados pessoais.
  • 7:46 - 7:51
    Ela busca entender e garantir direitos como explicação de decisões
  • 7:51 - 7:55
    automatizadas e entra também com consentimento e bases legais para
  • 7:55 - 7:56
    uso de dados.
  • 7:57 - 8:01
    Então, por mais que a LGPD, ela não atua especificamente sobre IA,
  • 8:02 - 8:06
    ela é abrangente, ela já tem alguns fatores que a IA é impactada,
  • 8:06 - 8:11
    como a explicabilidade do modelo e como a o consentimento do uso da
  • 8:11 - 8:12
    informação.
  • 8:12 - 8:16
    Falando do marco legal, que está em discussão, o que nós temos aqui?
  • 8:16 - 8:20
    O marco legal, ele vai definir as diretrizes para o desenvolvimento
  • 8:20 - 8:24
    ético e responsável do modelo de IA e, a partir disso, vai entrar a
  • 8:24 - 8:28
    discussão sobre as categorias de risco e os deveres de transparência.
  • 8:29 - 8:34
    O nosso marco legal de IA, ele está um pouco baseado na
  • 8:34 - 8:37
    regulamentação europeia, ele tem ali as suas fontes.
  • 8:38 - 8:42
    Dentro do nosso conteúdo, vocês vão observar que a gente tem também
  • 8:42 - 8:45
    outras regulamentações de IA ao redor do mundo, então tem a
  • 8:45 - 8:49
    regulamentação chinesa, tem a regulamentação americana, cada um tem
  • 8:49 - 8:50
    um objetivo diferente.
  • 8:50 - 8:54
    O objetivo da regulamentação de IA europeia e, consequentemente, como
  • 8:54 - 8:58
    o caminho que está tomando a regulamentação de IA brasileira, é muito
  • 8:58 - 9:02
    na transparência e explicabilidade dos dados, sempre pensando no
  • 9:02 - 9:06
    usuário final, que é o usuário que vai consumir os dados, vai
  • 9:06 - 9:11
    consumir o modelo e também vai prover, vai repassar os seus dados
  • 9:11 - 9:12
    para o modelo trabalhar.
  • 9:12 - 9:16
    E como reflexão, vamos pensar no seguinte, a empresa que você
  • 9:16 - 9:20
    trabalha, ela já está preparada para explicar como o modelo já está
  • 9:20 - 9:23
    funcionando ou ela apenas está desenvolvendo e gerando o modelo de
  • 9:23 - 9:27
    acordo com a necessidade, sem entrar, por exemplo, em compromissos
  • 9:27 - 9:30
    éticos ou, eventualmente, se tiver alguma auditoria, não vai
  • 9:30 - 9:33
    conseguir saber lidar, por exemplo, com quem explicar como aquele
  • 9:33 - 9:34
    modelo gerou aquela informação.
Title:
GBA CAP01 2025 VA06 DESAFIOS ETICOS E TECNICOS
Video Language:
Portuguese, Brazilian
Duration:
09:39

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions