< Return to Video

RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS

  • 0:08 - 0:11
    Deep Learning
    é muito guloso por dados, ou seja,
  • 0:11 - 0:14
    ele exige uma base de dados grande
    para poder treinar os modelos.
  • 0:15 - 0:17
    Agora, nem sempre nós temos muitos dados
  • 0:17 - 0:21
    a disposição para treinar
    o modelo de classificação, por exemplo.
  • 0:22 - 0:24
    Claro que no caso de uma rede geral
  • 0:24 - 0:29
    que verifica a sua imagem, tem um gato,
    um cachorro, um passarinho ou um piano.
  • 0:29 - 0:32
    É muito simples e fácil
    você conseguir dados internet
  • 0:32 - 0:35
    para compor uma base grande
    desse tipo de dado.
  • 0:35 - 0:38
    Agora, em aplicações mais específicas,
    como por exemplo, imagens médicas,
  • 0:39 - 0:42
    nem sempre
    podemos garantir a existência desses dados
  • 0:43 - 0:45
    quando nós não temos disponíveis.
  • 0:45 - 0:48
    A primeira alternativa
    tentar buscar novos dados,
  • 0:48 - 0:51
    por exemplo, coletando novas imagens
    O novamente.
  • 0:51 - 0:54
    Num caso geral,
    a coleta de dados é mais fácil.
  • 0:54 - 0:57
    No entanto,
    em casos específicos e domínios
  • 0:57 - 1:00
    muito bem particulares,
    você conquistar uma nova imagem.
  • 1:00 - 1:03
    O novo caso daquele exemplo
    pode ser mais difícil.
  • 1:03 - 1:06
    Portanto, podemos lançar
    mão de três estratégias principais.
  • 1:07 - 1:11
    A primeira estratégia é a D também,
    ou seja, alimentação artificial de dados.
  • 1:12 - 1:16
    Cada linha representa uma imagem
    em direção de pele original, ou seja,
  • 1:16 - 1:19
    é uma lesão real
    coletada de um caso verídico.
  • 1:20 - 1:22
    Cada coluna possui essa mesma imagem
  • 1:22 - 1:26
    como uma perturbação artificial
    feita por processamento de imagem.
  • 1:26 - 1:31
    Podemos ter maior zoom, menos aumentar
    o brilho diminui ou diminui o brilho.
  • 1:31 - 1:34
    Aumentar o contraste,
    fazer uma rotação e remover
  • 1:34 - 1:37
    partes da imagem também
  • 1:37 - 1:41
    Combinar essas características
    e assim sucessivamente.
  • 1:41 - 1:44
    Podemos ter essa mesma
    operações para cada uma das imagens.
  • 1:44 - 1:46
    Então em cada uma dessas
  • 1:46 - 1:49
    exemplos de entrada
    podemos fazer n pertubações diferentes.
  • 1:50 - 1:54
    A principal vantagem de comentei é que
    a partir de uma única imagem de entrada,
  • 1:54 - 1:57
    nós conseguimos produzir
    N cópias diferentes
  • 1:57 - 2:00
    e um dado diferente
    Não é bem a mesma imagem,
  • 2:00 - 2:03
    mas são cópias que representam
    aquele mesmo conceito.
  • 2:03 - 2:06
    Ou seja, eu posso fazer pertubações
    leves na imagem de um gato
  • 2:07 - 2:10
    e aquela imagem resultante
    também continua sendo um gato.
  • 2:10 - 2:12
    Outra mutação interessante
    utilizar uma gama para gerar
  • 2:12 - 2:16
    dados artificiais
    que representam o mesmo dado de entrada.
  • 2:16 - 2:20
    Por exemplo, eu posso pegar
    imagens reais, lesão de pele
  • 2:20 - 2:24
    e ensinar a reproduzir essa imagem
    artificialmente,
  • 2:24 - 2:29
    gerando imagens falsas que não são reais,
    mas que apresentam com grande precisão
  • 2:29 - 2:32
    as características de uma lesão de pele
    real,
  • 2:32 - 2:34
    por exemplo,
    as que foram geradas na própria imagem.
  • 2:34 - 2:37
    Todas as imagens parecem imagens reais
    de lesão de pele.
  • 2:37 - 2:38
    Parece, de fato,
  • 2:38 - 2:42
    um caso de um ser humano
    que foi documentado por um dermatologista.
  • 2:42 - 2:45
    Mas na verdade, essas imagens são imagens
    falsas.
  • 2:45 - 2:48
    A rede neural artificial é profunda.
  • 2:48 - 2:48
    Um tipo.
  • 2:48 - 2:52
    Alguém aprendeu a imitar
    as características desse tipo de imagem
  • 2:53 - 2:56
    e gerou essas imagens artificiais
    para imitar uma imagem real.
  • 2:57 - 3:02
    Note o grau de precisão
    em trazer pelos com essa regrinha
  • 3:02 - 3:05
    que mede o tamanho da lesão na vida real.
  • 3:06 - 3:09
    Essa seleção de dados é tão boa
    que pode até confundir o ser humano
  • 3:09 - 3:12
    para distinguir
    se a imagem é real ou falsa.
  • 3:12 - 3:16
    Essa é uma forma artificial de aumentar
    a quantidade de dados disponível
  • 3:16 - 3:18
    para treinar as suas redes.
  • 3:18 - 3:21
    E a terceira estratégia é trabalhar
    com transfer learning e fine tuning.
  • 3:22 - 3:25
    Isso aqui é uma técnica bem interessante
    no trabalho, qualquer tipo de rede neural,
  • 3:25 - 3:29
    porque isso permite fazer
    a transferência de conhecimento
  • 3:29 - 3:32
    ou então o ajuste fino desse aprendizado.
  • 3:32 - 3:33
    Como ele funciona?
  • 3:33 - 3:37
    Nós partimos de uma rede neural artificial
    profunda treinada do zero
  • 3:37 - 3:41
    e um conjunto de dados muito grande,
    e pode até mesmo uma imagem
  • 3:41 - 3:45
    generalista distinguir
    se uma imagem é um passarinho,
  • 3:46 - 3:48
    uma flor, uma árvore,
  • 3:48 - 3:51
    um instrumento musical e outras coisas.
  • 3:51 - 3:55
    Nós utilizamos milhões de imagens
    para treinar do zero uma geral profunda
  • 3:55 - 4:00
    que classifica a qual tipo de objeto
    está presente nessa imagem.
  • 4:01 - 4:04
    Quando
    a rede está treinada, você chega ao fim.
  • 4:04 - 4:07
    Todos os pesos de cada camada
    já estão no lugar.
  • 4:07 - 4:11
    Nós podemos fazer uma transferência
    de conhecimento, ou seja,
  • 4:11 - 4:12
    o transfer learning.
  • 4:12 - 4:15
    Copiamos essa arquitetura
  • 4:15 - 4:18
    para uma outra rede, ou seja,
    copiamos arquitetura.
  • 4:18 - 4:22
    A quantidade de camadas,
    como elas são encadeadas
  • 4:22 - 4:25
    e também os pesos
    já treinados para essa efígies
  • 4:25 - 4:30
    e utilizamos uma leve alteração
    na última camada que é a decisão.
  • 4:30 - 4:33
    Aqui no caso,
    estou partindo de uma crítica geral
  • 4:33 - 4:36
    de uma base de dados geral bem grande
  • 4:36 - 4:39
    para aprender a distinguir
    uma lesão de pele e câncer de pele.
  • 4:39 - 4:44
    Ou não é melanoma ou é, ou seja,
    a minha rede neural artificial.
  • 4:45 - 4:49
    Ela não está aprendendo
    a extrair fatores desses dados.
  • 4:49 - 4:52
    Eu uso a rede já treinada
    como extrator de filtros padrão
  • 4:52 - 4:56
    para distinguir
    features relevantes dessas imagens.
  • 4:56 - 4:59
    Aí eu vou aprender na camada de decisão
  • 5:00 - 5:04
    como seus filhos são relacionadas
    com câncer de pele ou lesão benigna.
  • 5:05 - 5:07
    Transfer lane Essencialmente como nós
  • 5:07 - 5:10
    aprendemos uma coisa nova,
    nós nunca aprendemos algo do zero.
  • 5:10 - 5:11
    Sempre.
  • 5:11 - 5:14
    O nosso cérebro está tentando fazer
    associação com algo que nós já conhecemos,
  • 5:15 - 5:18
    que é parecido ou diferente de algo
    que estamos vendo pela primeira vez.
  • 5:19 - 5:21
    Ou seja,
    estamos aprendendo por uma transferência
  • 5:21 - 5:23
    de conhecimento
    de um domínio para o outro.
  • 5:23 - 5:27
    o transfer lane que por si só é justamente
    essa transferência de conhecimento,
  • 5:27 - 5:28
    de transferir os pesos aprendidos,
  • 5:28 - 5:31
    uma rede em um domínio,
    em um novo domínio.
  • 5:32 - 5:35
    Nós podemos refinar um pouquinho
    mais aprendizado com o fair Tune,
  • 5:35 - 5:36
    que é o ajuste fino.
  • 5:36 - 5:41
    Ou seja, além de deixar o dado e os pesos
    copiados de uma tarefa para outra,
  • 5:41 - 5:42
    podemos permitir que
  • 5:42 - 5:46
    em tempo de treinamento,
    esses pesos sejam levemente alterados,
  • 5:46 - 5:49
    levemente ajustados à tarefa de destino.
  • 5:49 - 5:52
    Isso melhora
    ainda mais a precisão da classificação.
Title:
RDAG CAP02 2025 VA04 DEEP LEARNING QUANDO FALTAM DADOS
Video Language:
Portuguese, Brazilian
Duration:
05:56

Portuguese, Brazilian subtitles

Incomplete

Revisions Compare revisions