< Return to Video

RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS

  • 0:08 - 0:11
    Deep Learning é muito
    guloso por dados, ou seja,
  • 0:11 - 0:15
    ele exige uma base de dados grande
    para poder treinar os modelos.
  • 0:15 - 0:18
    Agora, nem sempre nós temos
    muitos dados a disposição
  • 0:18 - 0:22
    para treinar o modelo
    de classificação, por exemplo.
  • 0:22 - 0:24
    Claro que no caso
    de uma rede geral
  • 0:24 - 0:27
    que verifica se uma imagem
    tem um gato, um cachorro,
  • 0:27 - 0:29
    um passarinho ou um piano,
    é muito simples
  • 0:29 - 0:32
    é fácil você conseguir
    dados de internet
  • 0:32 - 0:35
    para compor uma base
    grande desse tipo de dado.
  • 0:35 - 0:37
    Agora, em aplicações
    mais específicas,
  • 0:37 - 0:38
    como imagens médicas,
  • 0:38 - 0:43
    nem sempre podemos garantir
    a existência desses dados.
  • 0:43 - 0:45
    Quando nós não
    temos disponíveis,
  • 0:45 - 0:48
    a primeira alternativa é
    tentar buscar novos dados,
  • 0:48 - 0:50
    por exemplo, coletando
    novas imagens.
  • 0:50 - 0:54
    Novamente, em um caso geral,
    a coleta de dados é mais fácil,
  • 0:54 - 0:58
    no entanto, em casos específicos
    e domínios muito particulares,
  • 0:58 - 1:02
    você conquistar uma nova imagem,
    um novo caso daquele exemplo
  • 1:02 - 1:03
    pode ser mais difícil.
  • 1:03 - 1:07
    Portanto, podemos lançar mão
    de três estratégias principais.
  • 1:07 - 1:09
    A primeira estratégia é
    o data augmentation
  • 1:09 - 1:12
    ou seja, o aumento
    artificial desses dados.
  • 1:12 - 1:16
    Cada linha representa uma imagem
    de lesão de pele original, ou seja,
  • 1:16 - 1:20
    é uma lesão real, coletada
    de um caso verídico.
  • 1:20 - 1:22
    Cada coluna possui
    essa mesma imagem
  • 1:22 - 1:26
    com alguma perturbação artificial
    feita por processamento de imagem.
  • 1:26 - 1:29
    Podemos ter maior
    zoom, menos zoom,
  • 1:29 - 1:31
    aumentar o brilho,
    diminuir o brilho,
  • 1:31 - 1:34
    aumentar o contraste,
    fazer uma rotação,
  • 1:34 - 1:37
    remover partes
    da imagem também,
  • 1:37 - 1:41
    combinar essas características
    e assim sucessivamente.
  • 1:41 - 1:44
    Podemos ter essas mesmas operações
    para cada uma das imagens.
  • 1:44 - 1:47
    Então, em cada um desses
    exemplos de entrada,
  • 1:47 - 1:50
    podemos fazer n
    pertubações diferentes.
  • 1:50 - 1:52
    A principal vantagem
    do data augmentation
  • 1:52 - 1:54
    é que, a partir de uma única
    imagem de entrada,
  • 1:54 - 1:57
    nós conseguimos produzir
    n cópias diferentes,
  • 1:57 - 2:00
    é um dado diferente, não
    é bem a mesma imagem,
  • 2:00 - 2:03
    mas são cópias que representam
    aquele mesmo conceito.
  • 2:03 - 2:07
    Ou seja, eu posso fazer pertubações
    leves na imagem de um gato
  • 2:07 - 2:10
    e aquela imagem resultante
    também continua sendo um gato.
  • 2:10 - 2:12
    Outra mutação interessante
    é utilizar uma GAN
  • 2:12 - 2:14
    para gerar dados artificiais
  • 2:14 - 2:16
    que representam aquele
    mesmo dado de entrada.
  • 2:16 - 2:20
    Por exemplo, eu posso pegar
    imagens reais de lesão de pele
  • 2:20 - 2:24
    e ensinar uma GAN a reproduzir
    essa imagem artificialmente,
  • 2:24 - 2:27
    gerando imagens falsas,
    que não são reais,
  • 2:27 - 2:29
    mas que representam
    com grande precisão
  • 2:29 - 2:32
    as características
    de uma lesão de pele real,
  • 2:32 - 2:34
    por exemplo, as que foram
    geradas na próxima imagem.
  • 2:34 - 2:37
    Todas essas imagens parecem
    imagens reais de lesão de pele,
  • 2:37 - 2:40
    parecem, de fato, um caso
    de um ser humano
  • 2:40 - 2:42
    que foi documentado
    por um dermatologista.
  • 2:42 - 2:45
    Mas, na verdade, essas
    imagens são imagens falsas.
  • 2:45 - 2:49
    A rede neural artificial
    profunda do tipo GAN
  • 2:49 - 2:53
    aprendeu a imitar as características
    desse tipo de imagem
  • 2:53 - 2:57
    e gerou essas imagens artificiais
    para imitar uma imagem real.
  • 2:57 - 3:01
    Note o grau de precisão
    em trazer pelos
  • 3:01 - 3:06
    ou essa reguinha que mede
    o tamanho da lesão na vida real.
  • 3:06 - 3:08
    Essa geração
    de dados é tão boa
  • 3:08 - 3:09
    que pode até confundir
    um ser humano
  • 3:09 - 3:12
    para distinguir se a imagem
    é real ou falsa.
  • 3:12 - 3:14
    Essa é uma forma
    artificial de aumentar
  • 3:14 - 3:18
    a quantidade de dados disponível
    para treinar as suas redes.
  • 3:18 - 3:22
    E a terceira estratégia é trabalhar
    com transfer learning e fine-tuning.
  • 3:22 - 3:24
    Isso aqui é uma técnica
    bem interessante
  • 3:24 - 3:25
    no trabalho com qualquer
    tipo de rede neural,
  • 3:25 - 3:29
    porque isso permite fazer
    a transferência de conhecimento
  • 3:29 - 3:32
    ou, então, o ajuste fino
    desse aprendizado.
  • 3:32 - 3:33
    Como ele funciona?
  • 3:33 - 3:37
    Nós partimos de uma rede neural
    artificial profunda treinada do zero
  • 3:37 - 3:39
    e um conjunto de dados
    muito grande,
  • 3:39 - 3:42
    e pode ser, até mesmo,
    uma imagem generalista,
  • 3:42 - 3:46
    distinguir se uma imagem
    é um passarinho, uma flor,
  • 3:46 - 3:51
    uma árvore, um instrumento
    musical e outras coisas.
  • 3:51 - 3:53
    Nós utilizamos
    milhões de imagens
  • 3:53 - 3:55
    para treinar, do zero,
    uma rede neural profunda
  • 3:55 - 4:01
    que classifica qual tipo de objeto
    está presente nessa imagem.
  • 4:01 - 4:04
    Quando
    a rede está treinada, você chega ao fim.
  • 4:04 - 4:07
    Todos os pesos de cada camada
    já estão no lugar.
  • 4:07 - 4:11
    Nós podemos fazer uma transferência
    de conhecimento, ou seja,
  • 4:11 - 4:12
    o transfer learning.
  • 4:12 - 4:15
    Copiamos essa arquitetura
  • 4:15 - 4:18
    para uma outra rede, ou seja,
    copiamos arquitetura.
  • 4:18 - 4:22
    A quantidade de camadas,
    como elas são encadeadas
  • 4:22 - 4:25
    e também os pesos
    já treinados para essa efígies
  • 4:25 - 4:30
    e utilizamos uma leve alteração
    na última camada que é a decisão.
  • 4:30 - 4:33
    Aqui no caso,
    estou partindo de uma crítica geral
  • 4:33 - 4:36
    de uma base de dados geral bem grande
  • 4:36 - 4:39
    para aprender a distinguir
    uma lesão de pele e câncer de pele.
  • 4:39 - 4:44
    Ou não é melanoma ou é, ou seja,
    a minha rede neural artificial.
  • 4:45 - 4:49
    Ela não está aprendendo
    a extrair fatores desses dados.
  • 4:49 - 4:52
    Eu uso a rede já treinada
    como extrator de filtros padrão
  • 4:52 - 4:56
    para distinguir
    features relevantes dessas imagens.
  • 4:56 - 4:59
    Aí eu vou aprender na camada de decisão
  • 5:00 - 5:04
    como seus filhos são relacionadas
    com câncer de pele ou lesão benigna.
  • 5:05 - 5:07
    Transfer lane Essencialmente como nós
  • 5:07 - 5:10
    aprendemos uma coisa nova,
    nós nunca aprendemos algo do zero.
  • 5:10 - 5:11
    Sempre.
  • 5:11 - 5:14
    O nosso cérebro está tentando fazer
    associação com algo que nós já conhecemos,
  • 5:15 - 5:18
    que é parecido ou diferente de algo
    que estamos vendo pela primeira vez.
  • 5:19 - 5:21
    Ou seja,
    estamos aprendendo por uma transferência
  • 5:21 - 5:23
    de conhecimento
    de um domínio para o outro.
  • 5:23 - 5:27
    o transfer lane que por si só é justamente
    essa transferência de conhecimento,
  • 5:27 - 5:28
    de transferir os pesos aprendidos,
  • 5:28 - 5:31
    uma rede em um domínio,
    em um novo domínio.
  • 5:32 - 5:35
    Nós podemos refinar um pouquinho
    mais aprendizado com o fair Tune,
  • 5:35 - 5:36
    que é o ajuste fino.
  • 5:36 - 5:41
    Ou seja, além de deixar o dado e os pesos
    copiados de uma tarefa para outra,
  • 5:41 - 5:42
    podemos permitir que
  • 5:42 - 5:46
    em tempo de treinamento,
    esses pesos sejam levemente alterados,
  • 5:46 - 5:49
    levemente ajustados à tarefa de destino.
  • 5:49 - 5:52
    Isso melhora
    ainda mais a precisão da classificação.
Title:
RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS
Video Language:
Portuguese, Brazilian
Duration:
05:56

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions