< Return to Video

RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS

  • 0:08 - 0:11
    Deep Learning é muito
    guloso por dados, ou seja,
  • 0:11 - 0:15
    ele exige uma base de dados grande
    para poder treinar os modelos.
  • 0:15 - 0:17
    Agora, nem sempre nós temos
    muitos dados a disposição
  • 0:17 - 0:21
    para treinar o modelo
    de classificação, por exemplo.
  • 0:21 - 0:24
    Claro que, no caso
    de uma rede geral
  • 0:24 - 0:27
    que verifica se uma imagem
    tem um gato, um cachorro,
  • 0:27 - 0:29
    um passarinho ou um piano,
    é muito simples,
  • 0:29 - 0:31
    é fácil você conseguir
    dados da internet
  • 0:31 - 0:35
    para compor uma base
    grande desse tipo de dado.
  • 0:35 - 0:38
    Agora, em aplicações mais
    específicas como imagens médicas,
  • 0:38 - 0:42
    nem sempre podemos garantir
    a existência desses dados.
  • 0:42 - 0:45
    Quando nós não
    temos disponíveis,
  • 0:45 - 0:48
    a primeira alternativa é
    tentar buscar novos dados,
  • 0:48 - 0:50
    por exemplo, coletando
    novas imagens.
  • 0:50 - 0:54
    Novamente, em um caso geral,
    a coleta de dados é mais fácil,
  • 0:54 - 0:58
    no entanto, em casos específicos
    e domínios muito particulares,
  • 0:58 - 1:02
    você conquistar uma nova imagem,
    um novo caso daquele exemplo
  • 1:02 - 1:03
    pode ser mais difícil.
  • 1:03 - 1:07
    Portanto, podemos lançar mão
    de três estratégias principais.
  • 1:07 - 1:09
    A primeira estratégia é
    o data augmentation,
  • 1:09 - 1:12
    ou seja, o aumento
    artificial desses dados.
  • 1:12 - 1:15
    Cada linha representa uma imagem
    de lesão de pele original, ou seja,
  • 1:15 - 1:20
    é uma lesão real, coletada
    de um caso verídico.
  • 1:20 - 1:22
    Cada coluna possui
    essa mesma imagem
  • 1:22 - 1:26
    com alguma perturbação artificial
    feita por processamento de imagem.
  • 1:26 - 1:28
    Podemos ter maior
    zoom, menor zoom,
  • 1:28 - 1:31
    aumentar o brilho,
    diminuir o brilho,
  • 1:31 - 1:34
    aumentar o contraste,
    fazer uma rotação,
  • 1:34 - 1:37
    remover partes
    da imagem também,
  • 1:37 - 1:41
    combinar essas características
    e assim sucessivamente.
  • 1:41 - 1:44
    Podemos ter essas mesmas operações
    para cada uma das imagens.
  • 1:44 - 1:47
    Então, em cada um desses
    exemplos de entrada,
  • 1:47 - 1:49
    podemos fazer n
    perturbações diferentes.
  • 1:49 - 1:51
    A principal vantagem
    do data augmentation
  • 1:51 - 1:54
    é que, a partir de uma única
    imagem de entrada,
  • 1:54 - 1:56
    nós conseguimos produzir
    n cópias diferentes,
  • 1:56 - 2:00
    é um dado diferente, não
    é bem a mesma imagem,
  • 2:00 - 2:03
    mas são cópias que representam
    aquele mesmo conceito.
  • 2:03 - 2:06
    Ou seja, eu posso fazer perturbações
    leves na imagem de um gato
  • 2:06 - 2:09
    e aquela imagem resultante
    também continua sendo um gato.
  • 2:09 - 2:12
    Outro aumento interessante
    é utilizar uma GAN
  • 2:12 - 2:14
    para gerar dados artificiais
  • 2:14 - 2:16
    que representam aquele
    mesmo dado de entrada.
  • 2:16 - 2:20
    Por exemplo, eu posso pegar
    imagens reais de lesão de pele
  • 2:20 - 2:24
    e ensinar uma GAN a reproduzir
    essa imagem artificialmente,
  • 2:24 - 2:27
    gerando imagens falsas,
    que não são reais,
  • 2:27 - 2:29
    mas que representam
    com grande precisão
  • 2:29 - 2:32
    as características
    de uma lesão de pele real,
  • 2:32 - 2:34
    por exemplo, as que foram
    geradas na próxima imagem.
  • 2:34 - 2:37
    Todas essas imagens parecem
    imagens reais de lesão de pele,
  • 2:37 - 2:39
    parecem, de fato, um caso
    de um ser humano
  • 2:39 - 2:42
    que foi documentado
    por um dermatologista.
  • 2:42 - 2:45
    Mas, na verdade, essas
    imagens são imagens falsas.
  • 2:45 - 2:48
    A rede neural artificial
    profunda do tipo GAN
  • 2:48 - 2:53
    aprendeu a imitar as características
    desse tipo de imagem
  • 2:53 - 2:57
    e gerou essas imagens artificiais
    para imitar uma imagem real.
  • 2:57 - 3:01
    Note o grau de precisão
    em trazer pelos
  • 3:01 - 3:05
    ou essa reguinha que mede
    o tamanho da lesão na vida real.
  • 3:05 - 3:07
    Essa geração
    de dados é tão boa
  • 3:07 - 3:09
    que pode até confundir
    um ser humano
  • 3:09 - 3:12
    para distinguir se a imagem
    é real ou falsa.
  • 3:12 - 3:14
    Essa é uma forma
    artificial de aumentar
  • 3:14 - 3:17
    a quantidade de dados disponível
    para treinar as suas redes.
  • 3:17 - 3:22
    E a terceira estratégia é trabalhar
    com transfer learning e fine-tuning.
  • 3:22 - 3:23
    Isso aqui é uma técnica
    bem interessante
  • 3:23 - 3:25
    no trabalho com qualquer
    tipo de rede neural,
  • 3:25 - 3:29
    porque isso permite fazer
    a transferência de conhecimento
  • 3:29 - 3:31
    ou, então, o ajuste fino
    desse aprendizado.
  • 3:31 - 3:33
    Como ele funciona?
  • 3:33 - 3:37
    Nós partimos de uma rede neural
    artificial profunda treinada do zero
  • 3:37 - 3:39
    e um conjunto de dados
    muito grande,
  • 3:39 - 3:42
    e pode ser, até mesmo,
    uma imagem generalista,
  • 3:42 - 3:46
    distinguir se uma imagem
    é um passarinho, uma flor,
  • 3:46 - 3:50
    uma árvore, um instrumento
    musical e outras coisas.
  • 3:50 - 3:53
    Nós utilizamos
    milhões de imagens
  • 3:53 - 3:55
    para treinar, do zero,
    uma rede neural profunda
  • 3:55 - 4:01
    que classifica qual tipo de objeto
    está presente nessa imagem.
  • 4:01 - 4:04
    Quando a rede está treinada,
    o treinamento chega ao fim,
  • 4:04 - 4:07
    todos os pesos de cada
    camada já estão no lugar.
  • 4:07 - 4:11
    Nós podemos fazer uma transferência
    de conhecimento, ou seja,
  • 4:11 - 4:12
    o transfer learning.
  • 4:12 - 4:17
    Nós copiamos essa arquitetura
    para uma outra rede, ou seja,
  • 4:17 - 4:20
    copiamos a arquitetura,
    a quantidade de camadas,
  • 4:20 - 4:21
    como elas são encadeadas
  • 4:21 - 4:25
    e também os pesos já
    treinados para extrair features.
  • 4:25 - 4:29
    E utilizamos uma leve
    alteração na última camada
  • 4:29 - 4:30
    que é a camada de decisão.
  • 4:30 - 4:34
    Aqui no caso, estou partindo
    de uma característica geral,
  • 4:34 - 4:36
    de uma base de dados
    geral bem grande,
  • 4:36 - 4:38
    para aprender a distinguir
    se uma lesão de pele
  • 4:38 - 4:42
    é câncer de pele ou não,
    se é um melanoma ou não é,
  • 4:42 - 4:45
    ou seja, a minha rede
    neural artificial
  • 4:45 - 4:49
    não está aprendendo a extrair
    features desses dados,
  • 4:49 - 4:52
    eu uso a rede já treinada
    como extrator de features padrão
  • 4:52 - 4:56
    para distinguir features
    relevantes dessas imagens.
  • 4:56 - 5:00
    Aí, eu vou aprender,
    na camada de decisão,
  • 5:00 - 5:02
    como essas features
    são relacionadas
  • 5:02 - 5:04
    com câncer de pele
    ou lesão benigna.
  • 5:05 - 5:08
    O transfer learning é essencialmente
    como nós aprendemos uma coisa nova.
  • 5:08 - 5:10
    Nós nunca aprendemos
    algo do zero sempre,
  • 5:10 - 5:13
    o nosso cérebro está
    tentando fazer associação
  • 5:13 - 5:17
    com algo que nós já conhecemos
    que é parecido ou diferente
  • 5:17 - 5:19
    de algo que estamos
    vendo pela primeira vez.
  • 5:19 - 5:21
    Ou seja, estamos aprendendo
    por uma transferência
  • 5:21 - 5:23
    de conhecimento
    de um domínio para o outro.
  • 5:23 - 5:25
    O transfer learning
    por si só
  • 5:25 - 5:27
    é justamente essa transferência
    de conhecimento,
  • 5:27 - 5:30
    transferir os pesos aprendidos
    de uma rede, em um domínio,
  • 5:30 - 5:31
    em um novo domínio.
  • 5:31 - 5:33
    Nós podemos refinar um pouquinho
    mais esse aprendizado
  • 5:33 - 5:36
    com o fine-tuning,
    que é o ajuste fino.
  • 5:36 - 5:38
    Ou seja, além
    de deixar o dado,
  • 5:38 - 5:41
    os pesos copiados
    de uma tarefa para outra,
  • 5:41 - 5:43
    podemos permitir que,
    em tempo de treinamento,
  • 5:43 - 5:46
    esses pesos sejam
    levemente alterados,
  • 5:46 - 5:48
    levemente ajustados
    à tarefa de destino.
  • 5:48 - 5:52
    E isso melhora ainda mais
    a precisão da classificação.
Title:
RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS
Video Language:
Portuguese, Brazilian
Duration:
05:56

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions