-
Será que as máquinas
conseguem aprender?
-
Sendo bem direto
e objetivo, sim,
-
graças ao poder
da Inteligência Artificial,
-
um grande leque de opções
que, dentro dele,
-
tem o tal do Machine Learning.
-
E esse é o assunto
do nosso bate-papo de hoje.
-
Vamos falar sobre tipos
de Machine Learning,
-
polêmicas, e o que vem por aí.
-
Eu sou o Gustavo Torrente,
professor da FIAP,
-
e não estou sozinho.
-
Estou aqui com grandes
especialistas da área.
-
Professor Flávio Marques,
professor Henrique,
-
sejam muito bem-vindos.
-
Tudo bom, Flávio?
-
Tudo bom, Gustavo.
-
Olá a todos e a todas.
-
Sou o Flávio, especialista
em infraestrutura
-
e instrutor da Cisco Systems.
-
Sensacional!
-
Seja bem-vindo, Henrique.
-
Obrigado, Gustavo,
obrigado, Fábio.
-
Vai ser um prazer
conversar com vocês.
-
Sou Henrique Ferreira, sou
pesquisador na área de IA,
-
engenheiro de informação,
-
e estou envolvido na construção
de Inteligências Artificiais
-
usando Machine Learning.
-
Bom, para começar esse bate-papo,
não é novidade para ninguém
-
que a Inteligência Artificial
é um grande guarda-chuva
-
que abriga várias ramificações,
-
e uma delas é o tal
do Machine Learning.
-
Onde se encaixa
o Machine Learning
-
dentro desse universo
da IA, Flávio?
-
Todo mundo fala hoje em ChatGPT,
e fica com esse foco.
-
Mas a gente não pode esquecer
que Machine Learning
-
é uma subárea
da Inteligência Artificial,
-
e é para deixar
muito claro isso.
-
Então a gente tem, dentro
da Inteligência Artificial,
-
uma subárea que é
a Machine Learning.
-
E um pouco mais aprofundado,
que também faz parte disso
-
quando a gente trabalha
com redes neurais,
-
a gente vai começar
a trabalhar com Deep Learning.
-
Perfeito.
-
Henrique, Machine Learning,
-
o professor Flávio
falou muito bem,
-
é uma subárea dentro da IA,
que não é de hoje.
-
E, na sua visão, onde se encaixa
dentro desse universo?
-
É muito interessante...
-
A gente falou de ChatGPT hoje,
-
mas Machine Learning,
aprendizado de máquina, na verdade,
-
é um artigo seminal
da década de 1950.
-
É uma velha senhora
de 80 anos, né?
-
É algo que tem há muito tempo.
-
Só que, o poder computacional
-
para conseguir
extrair valor disso,
-
teve que ser desenvolvido.
-
Então a gente precisou
ter as placas de vídeo
-
para conseguir treinar
redes neurais profundas
-
que utilizam o aprendizado
de máquina
-
para conseguir extrair valor
-
e conseguir criar sistemas,
como o ChatGPT.
-
Então é algo antigo que está
sendo pesquisado há muito tempo.
-
O objetivo do Machine Learning,
dentro da Inteligência Artificial,
-
é fazer as máquinas aprenderem.
-
Muito bom!
-
E dentro desse tal
de aprendizado máquina,
-
nós temos o aprendizado
não supervisionado
-
e o supervisionado.
-
Tem pior, melhor?
-
Quando eu uso um,
quando eu uso o outro?
-
Quem quer responder essa?
-
Eu vou falar de uma forma
um pouco mais...
-
Generalista.
-
A gente tem os dois grandes
paradigmas do Machine Learning,
-
o supervisionado
e o não supervisionado.
-
Quando você tem algo controlado,
-
que você já tem medições feitas,
-
e você consegue já tem a certeza
do que é certo, do que é errado,
-
do que você está querendo medir,
-
você está falando
em modelo supervisionado.
-
Quando você tem
uma situação caótica
-
em que você não sabe
o que você tem,
-
a gente fala em modelo
não supervisionado.
-
E se a gente for falar em algo
um pouco mais concreto,
-
se eu estiver falando,
por exemplo, de roupas,
-
se eu quiser fazer
uma classificação
-
para poder separar gravatas
de pequenas ou grandes,
-
eu faço o modelo de regressão,
que é supervisionado.
-
Se eu quiser classificar
se uma roupa
-
tem um padrão de uma gravata,
-
uma cueca, ou
algo nesse sentido,
-
eu faço um processo
de classificação.
-
Agora, se eu tiver uma prerrogativa
de agrupar as roupas,
-
separar gravata, separar
cuecas e camisas,
-
aí vou ter que trabalhar
em um modelo não supervisionado,
-
porque eu não sei
o que eu vou encontrar.
-
Eu vou encontrar um padrão.
-
Então isso é uma das grandes
diferenças entre os dois tipos.
-
Um é caótico, que é
o não supervisionado,
-
e o outro já é
muito bem conhecido
-
e possível de ser treinado.
-
Muito bom!
-
Quais são as outras características
desses modelos, Henrique?
-
Como o professor Flávio
falou aqui perfeitamente,
-
no supervisionado,
você precisa dos rótulos.
-
Então existe um certo custo
de ter esses rótulos.
-
E o não supervisionado,
você não precisa dos rótulos.
-
Então é um pouco mais barato
de você explorar aquilo
-
porque você não precisa ter
esses rótulos naquele momento.
-
Mas aí vem as nuances,
-
por exemplo, o aprendizado
autossupervisionado,
-
onde você quer algo que tenha
as características do supervisionado,
-
mas você ainda não tem aqueles
rótulos escritos por humanos,
-
e aí você tem que usar
algumas estratégias
-
que é, por exemplo, o que está por trás
de grandes modelos de linguagem,
-
como o ChatGPT.
-
A ideia do auto supervisionado
é você pegar texto
-
da internet, de diversas fontes,
-
e mascarar algumas palavras
para fazer o modelo prever
-
qual é a próxima palavra
com os dados que você já tem.
-
Então é o que a gente chama
de autossupervisionado.
-
Ele aprende com aqueles dados
-
sem nenhum ser humano
ter que rotular o que ele significa.
-
E por trás desses ambos modelos,
-
cá entre nós, tem
muita matemática, né?
-
As pessoas acham que é mágica.
-
"Meu Deus! Ele adivinhou
o que eu estava pensando.
-
Ele adivinhou qual era
a próxima palavra",
-
ou qual era o próximo texto.
-
E, na verdade, o professor
Flávio falou de regressão,
-
mas tem estatística,
probabilidade.
-
E é muito interessante
esses modelos,
-
a entrada desses dados,
processamento e as saídas,
-
como no caso
de um cartão de crédito,
-
quando vai bloquear uma transação
por segurança ou não.
-
Não é mais alguém que fica
ali atrás do computador
-
bloqueando, mas sim um algoritmo.
-
E o não supervisionado,
no nosso dia a dia,
-
está presente
no algoritmo da Netflix
-
na hora de sugerir
um filme baseado em padrões,
-
ou no Spotify, e por aí vai.
-
- São exemplos mais clichês, né?
- Um exemplo bem interessante...
-
Quando ele fala
em não se posicionado
-
é, por exemplo,
a questão de cancelamento.
-
Por que uma empresa tem um grande
número de cancelamentos?
-
É uma situação caótica.
-
Ela não sabe por que está
sendo cancelado o serviço,
-
então ela vai recorrer a esse tipo
de modelo, não supervisionado,
-
para entender qual é o padrão,
dentre os meus clientes,
-
que está acontecendo
nesse tipo de cancelamento.
-
Então ela vai começar
a trabalhar com clusters,
-
identificar padrões dentro
do que ela não conhece, a priori,
-
no que está acontecendo.
-
E quando a gente
conecta essas buzzwords
-
com outras áreas da tecnologia,
-
e aqui eu quero falar
do Data Science, né,
-
de que maneira o aprendizado
de máquina, Henrique,
-
se conecta com Data Science,
-
sobretudo quando nós falamos
da manipulação dos bancos de dados?
-
Perfeito.
-
Essa pergunta é excelente.
-
Basicamente, a Ciência de Dados
é você extrair valor
-
de um certo conjunto de dados.
-
E o Machine Learning, que são
algoritmos computacionais,
-
faz esse trabalho de extrair
valor dos dados.
-
Então hoje, nas empresas,
você tem as áreas de dados
-
onde você tem
profissionais especializados
-
em tentar extrair valor dos dados
que a empresa produz.
-
Então a ideia é você encontrar
um padrão, por exemplo,
-
do porquê está sendo
cancelado, ou, de repente,
-
como eu recomendo um novo
produto para o meu cliente,
-
seja a Netflix ou a Amazon.
-
Eu quero fazer um sistema automático
com os dados que eu já tenho
-
e aí eu vou usar Machine Learning,
vou usar algoritmos.
-
Então, a Ciência de Dados
é um profissional,
-
um cientista de dados
é um profissional,
-
que está por trás ali
para entender esse padrão
-
que a máquina está descobrindo
e atrelar isso a alguma coisa
-
que vai trazer valor
para a empresa.
-
Então ele precisa entender
o produto da empresa,
-
entender
o que a empresa pode fazer,
-
e pegar esses algoritmos automáticos
para que a empresa entregue
-
e você consiga extrair
valor dos dados.
-
Poxa, que bacana!!
-
Esse universo
do Data Science hoje,
-
eu poderia falar, Flávio, que é
imprescindível a gente ter ali
-
Machine Learning,
outros algoritmos?
-
Olha, hoje, todas as empresas,
para sobreviverem,
-
precisam ser data-driven,
-
então elas precisam
ser orientadas a dados.
-
É justamente por causa desse
grande volume de dados
-
que começou a ser possível
a gente ter novos algoritmos,
-
Chegar nesse nível, né?
-
Para chegar nesse nível,
para você ter novos algoritmos.
-
A gente está falando mais
de 400, 500 algoritmos,
-
que você poderia utilizar
-
usando bibliotecas
do próprio Python,
-
como o scikit-learn.
-
E, a partir daí, você tem diversos
algoritmos que vão trabalhar,
-
seja usando regressão, seja usando
o modelo não supervisionado,
-
seja random forest,
enfim, diversos algoritmos,
-
para tentar resolver o problema
de uma forma ou outra.
-
O que é legal é que as empresas
procurem também utilizar
-
uma metodologia, qualquer
que seja a metodologia.
-
Uma das mais conhecidas
é a CRISP-DM,
-
que é uma metodologia em que você
consegue fazer projetos
-
envolvendo dados desde
o entendimento do negócio...
-
Porque se não tiver
entendimento do negócio,
-
nada vai funcionar.
-
Entendimento dos dados,
preparação.
-
Aí entra na parte de modelagem,
-
algoritmos que envolvem
Machine Learning
-
para depois
você ter a avaliação.
-
Então é aí que entra
a estatística.
-
Qual é a acurácia
do meu modelo?
-
Quanto que ele acerta?
-
Então a gente vai chegar
em fases do modelo CRISP,
-
e isso ajuda a sustentar muito
projetos relacionados à dados.
-
Olha só!
-
Isso é muito importante,
Henrique,
-
porque toda empresa hoje
quer ter Inteligência Artificial.
-
Eu falo que, nos anos 2000,
-
toda empresa
queria ter o seu site,
-
nos anos nos anos 2010, toda
empresa queria ter seu aplicativo,
-
e agora toda empresa quer ter
a sua Inteligência Artificial.
-
Todo mundo quer, mas e aí,
como está a sua casinha?
-
Como estão os seus dados?
-
Onde eles estão armazenados?
-
Como?
-
Quais são os níveis
de permissão, os rótulos,
-
a classificação disso?
-
Todo mundo quer o que está
no final do arco íris, né?
-
Mas a gente tem que fazer
esse trabalho dentro de casa.
-
Eu, quando era um profissional
de início de carreira,
-
há 15 anos,
-
quando eu quis ir
para a área de tecnologia,
-
eu comecei a pesquisar
sobre ferramentas,
-
linguagens de programação,
-
seguir profissionais,
os cursos que eles faziam.
-
Então, para aproveitar esse
momento que nós estamos aqui,
-
Flávio, quais são as ferramentas
e os principais comandos
-
que um profissional
de tecnologia precisa saber
-
para aplicar Machine Learning
dentro do seu dia a dia?
-
Bom, se a gente for por um caminho
que envolva a Ciência de Dados,
-
é muito importante que primeiro
tenha a base de sustentação no SQL.
-
Então, a linguagem
de consulta estruturada
-
é extremamente importante
para dados estruturados.
-
Ponto.
-
O primeiro passo é SQL?
-
O SQL é importantíssimo.
-
É claro que não é só ele,
ele aponta uma linguagem,
-
ou algumas linguagens
de programação,
-
com conhecimento quase
fluente, como Python e R.
-
Então R é uma linguagem
mais estatística.
-
O Python é algo
que é muito mais...
-
A gente fala que é muito mais
apropriado para o mercado,
-
quando você fala
em projetos de dados.
-
Agora, se for por um caminho
de Engenharia de Dados,
-
quem fica nos bastidores
de toda essa parte,
-
aí eu teria que falar um pouquinho
em microsserviços,
-
a parte de orquestração
de software.
-
Então vai depender muito da área
que o profissional quer seguir,
-
seja Ciência de Dados
ou Engenharia de Dados.
-
Perfeito.
-
E na sua opinião,
na sua visão, Henrique,
-
nessas ferramentas do dia a dia,
-
quais são as suas dicas
para esse profissional
-
que vai adentrar
em Ciência de Dados?
-
Eu vou até pegar
o que o Flávio disse
-
e colocar mais uma profissão.
-
A gente tem o cientista de dados,
o engenheiro de dados,
-
e também temos
um engenheiro de IA,
-
que é aquele que vai
construir, por exemplo,
-
uma rede neural, ou um sistema
que conecta várias outras IAs,
-
para gerar um resultado final,
-
por exemplo, um carro autônomo.
-
Então, para esse profissional,
as ferramentas adicionais
-
poderiam ser, por exemplo,
um Keras TensorFlow,
-
um PyTorch, que hoje está por trás
dos grandes modelos de linguagem.
-
Então, são ferramentas que você
pode utilizar com Python, né,
-
e eles dão um subsídio para você
construir as redes neurais,
-
que é o Deep Learning.
-
E não precisa
reinventar a roda, né,
-
não precisa fazer
um negócio do zero,
-
do PyTorch, entre
outras ferramentas,
-
para alguém já resolver
alguns problemas, né?
-
Exatamente. Tem uma coisa
bem interessante,
-
que hoje muitos modelos
já estão disponibilizados,
-
por exemplo, no Hugging Face.
-
Então você pode pegar
um modelo pré-treinado...
-
O que seria um modelo
pré-treinado?
-
Uma rede neural onde você já descobriu
quais são os pesos sinápticos,
-
ela já está apta a resolver
uma determinada tarefa,
-
por exemplo,
de classificação ou regressão.
-
Você pode baixar esse modelo
-
e colocá-lo para fazer
as inferências em produção.
-
E aí vem a parte de como eu faço
para colocar isso em produção.
-
Aí você vai precisar de alguns
outros detalhes profissionais.
-
Por exemplo, o Machine
Learning DevOps, né?
-
MLDevOps.
-
MLDevOps.
-
MLOps, e por aí vai.
-
Para quem não sabe
o que é o Hugging Face,
-
é a primeira vez que o pessoal está
escutando esse termo Hugging Face,
-
posso falar que é um GitHub
da Inteligência Artificial?
-
Mais ou menos isso?
-
Sim, eu acho que é
uma boa forma de colocar.
-
Eles são uma empresa,
e têm um repositório de modelos.
-
Então todo mundo que produz
um modelo de linguagem
-
quer disponibilizá-lo.
-
Llama, por exemplo, é um modelo
de linguagem da Meta, do Facebook,
-
que é basicamente
igual ao ChatGPT...
-
- Só que ele está disponibilizado...
- Open source.
-
Open source, exatamente.
-
Isso me lembrou
muito o RM Studio,
-
que foi o que eu
comecei a brincar.
-
É um software que você instala,
-
e, por ele, você consegue baixar
os modelos já pré-treinados
-
e a rodar local sem
a necessidade da internet.
-
Fantástico isso.
-
Agora você levantou
um gancho importante aqui
-
para a continuação do nosso
bate-papo, que é a nuvem.
-
Como a gente está
usando esses recursos,
-
vantagens, os desafios
do Machine Learning,
-
dentro da Cloud Computing?
-
Eu diria que, a primeira coisa,
-
pensando especificamente
em redes neurais,
-
é o custo de treinamento.
-
Porque além de você
ter muitos dados,
-
você vai precisar
de placas de vídeo,
-
e são Parks com muitas...
-
É custoso você construir essa
infraestrutura dentro da sua empresa,
-
e às vezes é muito
mais vantajoso
-
você contratar
um serviço de cloud
-
para você ter essa
etapa de treinamento.
-
Além disso, na nuvem,
as coisas estão disponíveis 24/7.
-
Então, mesmo que o modelo
já esteja treinado
-
e agora está em produção,
está sendo utilizado,
-
você tem a garantia
de que ele vai ficar disponível.
-
A solução, se você quiser fazer
-
dentro da sua empresa
ou na sua casa,
-
você vai ter que conseguir
disponibilizar isso em 24/7
-
então você tem esses
custos associados.
-
O que eu vejo normalmente é...
-
Por exemplo, eu quero
um modelo de linguagem
-
para fazer um papel,
por exemplo, como o Copilot.
-
Ele vai auxiliar os meus
desenvolvedores, os meus devs,
-
na produção de código.
-
Então, o modelo de linguagem
que vai auxiliar na produção de código.
-
Só que eu não quero
expor esse código,
-
eu não quero que uma empresa
de terceiro veja esse código.
-
Então às vezes é melhor
eu criar um servidor local
-
com uma placa de vídeo,
um modelo já pré-treinado,
-
eu o coloco disponibilizado...
-
Aquela NVIDIA, que eu
posso programar agora.
-
E aí você consegue disponibilizar
para todos seus devs
-
um Copilot, ou algo semelhante,
-
que vai ajudar
na produção de código
-
e não expor o seu código
para nenhum terceiro.
-
Então essa é uma solução caseira
-
que eu tenho visto
muitas empresas adotando.
-
Prós e contras, né, Flávio?
-
A nuvem sem dúvida é o caminho
-
quando você quer
ter algo escalonável.
-
Não tem como você fazer isso
que não seja em nuvem.
-
Agora, existem estratégias para que você
não gaste muito em nuvem.
-
Então, por exemplo, você pode
subir uma máquina virtual,
-
colocar um Spark nela,
-
e começar a brincar
de forma profissional,
-
mas sem gastar muito
-
quando você usar o serviço
diretamente na nuvem,
-
como as empresas às vezes fazem.
-
Então você sobe
máquinas virtuais
-
e coloca um Spark ali
de uma forma parruda
-
para conseguir resolver
problemas mais sofisticados.
-
E dependendo do que você
faz em dados...
-
Me corrijam se eu estiver errado,
-
porque eu estou tirando
a certificação da AWS agora.
-
Tem algumas instâncias
que você pode comprar
-
que são muito mais baratas,
-
mas é aquela história, né...
-
"Olha, qualquer hora pode
parar de funcionar.
-
Mas é muito mais barato.
-
Você pode consumir esse recurso
que eu não estou utilizando".
-
É uma forma de economizar
também, né?
-
Às vezes eles fazem isso,
-
usam, mas deixam, por exemplo,
alguma instância no BigQuery
-
porque você consegue ter
uma rotatividade mensal
-
para diminuir custo,
-
e aí você consegue realmente
-
direcionar os esforços
para outros pontos
-
que não só a nuvem, né,
porque senão fica muito custoso.
-
Dúvidas sanadas,
-
vamos para o nosso próximo
bloco aqui do bate-papo.
-
Vamos falar agora sobre ética,
-
um assunto muito importante.
-
Depois desse hype da IA,
-
a gente precisa
voltar uma casinha
-
e falar quais são as principais
responsabilidades éticas,
-
na visão de vocês,
-
para a gente treinar esses
modelos de Machine Learning.
-
Olha, tem uma questão que eu
sempre falo para os meus alunos,
-
que é a questão
da escolha das features.
-
Digamos que você
vai construir, por exemplo,
-
um sisteminha para o RH
-
para fazer seleção
de próximos profissionais
-
e você quer automatizar
usando Machine Learning.
-
Será que faz sentido você colocar
uma coluna, ou uma feature,
-
ali na entrada do seu modelo
de sexo do profissional?
-
Pra quê, né?
-
Você não quer
selecionar o profissional
-
usando esse tipo de informação.
-
Agora você está criando
um sistema de diagnóstico médico.
-
- Faz sentido trazer feature?
- Ah, sim!
-
Então, esse é o primeiro
pensamento ético
-
do profissional
que está construindo a IA
-
porque é a primeira linha de frente
na hora que ele seleciona as features.
-
E depois essas coisas
ficam meio que ocultadas,
-
por uma vez que o modelo está pronto,
você não sabe exatamente
-
o que está sendo usado,
o que ele aprendeu.
-
Então esse é o primeiro ponto
-
que a gente tem
que tomar cuidado.
-
E outro ponto, também ainda
relacionado com isso,
-
é a questão do envenenamento
de corpos que a gente diz,
-
que é: qualquer coisa
que tiver ruim
-
no seu corpus de treinamento,
-
e, corpus, eu quero dizer os dados
que você está usando, por exemplo.
-
para treinar
o modelo de linguagem,
-
que envolve grandes
quantidades de texto,
-
todo aquele viés
que está no texto
-
pode ser aprendido pelo modelo.
-
Então a gente pode tentar fazer
algo autossupervisionado
-
para economizar na rotulagem,
-
na etapa ali que a gente
está analisando,
-
mas tem uma hora
que a gente precisa avaliar
-
o que está sendo
escrito de fato.
-
Então, por exemplo, a OpenAI,
-
que está por trás do ChatGPT,
-
contrataram profissionais
-
para verificar o grosso do texto
-
que foi usado durante
o treinamento
-
para eliminar,
durante o treinamento,
-
assuntos, vamos dizer assim,
muito polêmicos.
-
Então...
-
Abuso sexual, qualquer
tipo de texto que...
-
Crimes?
-
Crimes.
-
Então, esse tipo de assunto
eles eliminavam
-
para o modelo não aprender
-
e não reproduzir esse tipo de...
-
E é uma constância, né, Flávio,
-
é um trabalho que não tem fim.
-
Porque mesmo eles
contratando esses profissionais,
-
como o Henrique
muito bem trouxe,
-
no início ali,
-
quando a OpenAI
-
disponibilizou para os usuários
aquele modelo 3.5,
-
depois, em paralelo,
teve o DALL-E, e juntou,
-
você pedia ali:
"Desenhe um CEO".
-
E aí tinha o viés de sempre ser
-
um homem, branco, mais velho...
-
Realmente esse viés,
como ela é treinada,
-
e os humanos é que vão gerar
-
os dados para esse treinamento,
-
pode ter sim um viés,
e às vezes é proposital.
-
Então, o que as empresas
precisam entender
-
é que é preciso,
-
dentro dessa fase, dentro
do entendimento dos dados,
-
como o Henrique mencionou...
-
Se ela não tiver noção
-
se aquela feature vai ser
considerada ou não,
-
que use uma matriz de correlação
-
para ver o quanto aquela
feature vai impactar
-
na medida que você
está querendo fazer.
-
Então, entender se é
significativa ou não
-
a presença daquela feature
-
para um determinado
treinamento que você vai fazer.
-
O pessoal fala já há muito tempo
sobre os vieses algoritmos.
-
E não é só o desenvolvedor.
-
É também quem usa, porque
quem usa é quem está alimentando,
-
então é dos dois lados.
-
Vocês se recordam, se lembram,
de algum caso emblemático
-
que tem relação com esse mau
treinamento desses dados?
-
Eu lembro de um caso
bastante emblemático,
-
que tem a ver com a ideia
de você fazer o próprio usuário
-
fornecer dados para treinar,
-
um treinamento constante.
-
Chamava-se "Microsoft Tay".
-
Era um chatbot que foi
disponibilizado no Twitter,
-
e em 24 horas, a Microsoft teve
que desligar esse chatbot
-
porque os trolls
da internet ensinaram
-
o bot a falar "hue hue hue".
-
Então eles tiveram que desligar.
-
É um risco, né,
quando você coloca ali
-
porque o usuário pode...
-
É o risco do não supervisionado.
-
Como você não está observando
aquela realimentação dos dados
-
que os usuários estão
imputando no sistema,
-
o sistema aprendeu
com os usuários, e aí...
-
Foram ingênuos demais.
-
Exatamente.
-
Tempos atrás também, a Amazon
teve um processo seletivo
-
e quis fazer algo automatizado.
-
E o que acabou acontecendo?
-
Como ela tinha uma base
totalmente formada por homens,
-
então ela acabou,
no processo de escolha,
-
deixando as mulheres de lado.
-
Então, nesse processo em que você
usa algo automatizado,
-
você tem que entender que, se você
usar uma base histórica de profissionais
-
que fazem parte de uma empresa,
você tem que identificar que...
-
"Opa, eu não posso fazer isso
com o processo seletivo,
-
porque senão eu só
vou contratar homens".
-
E como a gente pode evitar de isso
acontecer daqui para frente, Flávio?
-
A gente precisa
identificar a amostra, tá?
-
A amostra realmente
vai ser usada...
-
Uma parte é para treino
e a outra é para teste.
-
É sempre assim que a gente
trabalha com Machine learning.
-
Então, dentro da sua mostra,
-
você tem que verificar se ela tem
o balanceamento correto.
-
Se ela estiver desbalanceada,
você tem que usar algumas técnicas
-
para poder fazer esse
balanceamento acontecer
-
de forma probabilística
ou de uma forma apropriada.
-
Isso pode acarretar problemas
se você não observar.
-
Então, se você tem um dataset
totalmente desbalanceado,
-
você vai ter problemas.
-
Isso é fato.
-
Mesmo que a acurácia seja alta,
-
você pode ter um problema
de overfitting.
-
Mas eu preciso entender dos dados
para saber o que eu tenho...
-
Eu tenho que enriquecer
os dados às vezes,
-
eu tenho que fazer alguma coisa
-
para que a minha amostra
realmente seja significativa,
-
para que eu tenha
o treinamento adequado.
-
É dessa forma que você está ensinando
em sala de aula, Henrique?
-
Sim.
-
Tem duas coisas
que eu gostaria de adicionar
-
ao que o Flávio disse aqui.
-
A primeira é que eu me
recordo de um caso,
-
o COMPAS software,
-
que foi um software
de Machine Learning proposto...
-
Em 2013, 2014,
-
para auxiliar juízes
-
a tomarem decisões de casos.
-
Por exemplo, um prisioneiro
dos tribunais americanos chega e fala:
-
"Ah, quero liberdade condicional".
-
Aí avaliava se ele tinha chance
de reincidir no crime.
-
O que aconteceu
é que o algoritmo era racista.
-
O algoritmo decidia muito mais
a favor de pessoas brancas
-
do que de pessoas negras.
-
E aí foram analisar
do porquê isso acontecia.
-
Isso tem a ver com o viés nos dados
do sistema prisional americano.
-
Você tem uma população
carcerária de maioria negra,
-
por isso que acabou
criando esse tipo de viés,
-
e o algoritmo aprendeu.
-
Mas isso levanta uma questão
mais fundamental.
-
Será que faz sentido você criar
um software para fazer isso?
-
Será que é justo avaliar
as pessoas, nesse sentido,
-
com um software?
-
Então a gente também
tem uma defesa de:
-
será que faz sentido
automatizar esse processo?
-
Será que, ao automatizar
esse processo,
-
eu não estou tirando o julgamento
necessário de um ser humano,
-
que um ser humano
que realmente teria que avaliar?
-
Então isso é uma coisa que a gente
também tem que se preocupar,
-
e é uma questão que vai
além da parte técnica.
-
E a outra questão técnica
que a gente tem desenvolvido
-
para melhorar os modelos
-
para a gente entendê-los
-
é a explicabilidade
e a interpretabilidade.
-
Então o modelo não tem só
que inferir uma resposta, dizer...
-
"Esse prisioneiro não pode
ter liberdade condicional".
-
Ele também tem que dizer por que
e como ele chegou nessa conclusão.
-
É isso que a gente está tentando
fazer os modelos conseguirem produzir,
-
a explicação de como ele
chegou na resposta
-
para a gente conseguir interpretar
com detalhe e ver se foi justo.
-
Até mesmo no prompt
a gente recomenda
-
que você não
só peça o resultado,
-
mas também explique para mim
como você chegou a ele.
-
Isso é uma forma interessante
de você entender se ela alucinou ou não.
-
Então é até uma dica
para quem vai trabalhar
-
com a parte
de engenharia de prompt,
-
não só pedir algo, uma tarefa,
mas depois explicar por que,
-
ou como ela chegou
nesse resultado.
-
Ou você pergunta ou você fala:
-
"Olha, eu quero que você use
esse raciocínio, essa lógica".
-
Decisões mais complexas
vão precisar de instruções
-
mais complexas.
-
Bom, estamos indo
para o nosso último bloco.
-
Vamos falar agora
de tendências e futuros.
-
E diante do que vocês estão
vendo, essas novidades,
-
aplicações, ferramentas,
-
na sua opinião, Flávio,
-
quais são as tendências
que se destacam
-
quando nós pensamos nesse
mercado de Machine Learning?
-
Eu vejo duas grandes tendências.
-
Uma delas são
os agentes autônomos.
-
Estão vindo com tudo,
principalmente com assistentes virtuais.
-
Estou falando em conversação,
algo conversacional,
-
por voz, que é fantástico.
-
E a diferença é que os agentes
conseguem tomar
-
decisões autônomas.
-
Isso que é interessante.
-
Não é assim... "Olha, deixe-me
ver o que ele pode fazer".
-
Não. Ele já tem ações para serem
tomadas de forma autônoma.
-
E um outro ponto que também
está crescendo muito
-
para poder empoderar os profissionais
que trabalham com negócios,
-
mas não são especialistas
em tecnologia,
-
é o Auto Machine Learning.
-
Então eu consigo trabalhar
com ferramentas
-
que, dentro dela, eu já
tenho todo o pacote,
-
os algoritmos em que você
não vai precisar programar,
-
e sim clicar para que você tenha
um modelo preditivo feito
-
e aí você resolva problemas
dentro da empresa
-
e consiga tomar decisões
mais assertivas.
-
Muito bom!
-
E na sua visão, Henrique,
-
o que o futuro nos aguarda?
-
O que o Flávio disse é perfeito,
a questão dos agentes.
-
Mas eu quero falar uma coisa específica
dos agentes que eu tenho visto,
-
e eu acho que em 2025
vai estourar isso aí,
-
que é a questão de robótica.
-
Hoje nós conseguimos
construir muito melhor robôs
-
do que a gente
conseguia construir...
-
Décadas atrás.
-
Não, durante a história
da humanidade, né?
-
E agora a gente consegue colocar
um modelo de linguagem dentro dele.
-
Então, algumas questões aí,
até de ficção científica...
-
Eu ia falar isso agora.
-
É que a robótica permite
que o robô sinta.
-
Então a questão é que agora a gente
consegue criar um modelo de linguagem
-
que, de certa forma,
parece pensar.
-
Será que pensar e sentir
pode gerar consciência?
-
Então, essa é
uma questão interessante,
-
e é óbvio que a gente
ainda vai explorar,
-
tem muita coisa a ser feita,
-
mas eu diria que, 2025, é um ano
de inflexão em relação a isso.
-
A gente vai começar a explorar
um novo cenário.
-
Superagentes, não só virtuais,
mas também robóticos.
-
Essa é uma teoria que...
-
É claro, não tem nada factível ainda,
mas é chamada a teoria da mente, né,
-
que a própria IA
teria uma consciência.
-
Que loucura, gente!
-
Estamos chegando ao fim
dessa nossa conversa.
-
Mas antes de vocês darem as dicas
finais para os nossos alunos,
-
uma das perguntas
que eu mais recebo,
-
principalmente em palestras
dentro de empresas,
-
enfim, em grandes eventos, é:
-
"Gustavo, as pessoas vão
ficar mais preguiçosas?".
-
Essa nova geração...
-
Na nossa, a gente pesquisava
mais, argumentava mais.
-
Agora está tudo muito
na mão, tudo mais rápido.
-
Como você enxerga essa
relação homem-máquina
-
a longo prazo, Flávio Marques?
-
Eu pensei que você fosse perguntar
se a IA ia roubar os nossos empregos.
-
Ah, não, isso aí já
está batido, né, gente?
-
Mas com relação à questão
de interface homem-máquina,
-
a gente começa a perceber que,
com o avanço da robótica
-
e a própria Inteligência
Artificial, juntas,
-
a gente está começando a ter
uma forma de atendimento
-
mais personalizada.
-
Se você perceber,
-
existem atendimentos
virtuais 24/7,
-
então eu consigo colocar
uma IA por vídeo
-
em que ela faça
a venda de produtos.
-
Então existem formas
em que o ser humano
-
vai ser substituído sim,
-
e é bastante importante
levar isso em consideração.
-
E não é que as pessoas
vão ficar mais preguiçosas.
-
Elas vão ter que começar
a ser direcionadas
-
para outros tipos de tarefas que não
seja possível a automatização,
-
ou elas vão começar a ter
um nível intelectual mais alto,
-
por isso precisam ser
preparadas para isso.
-
Esse é o grande problema, que as pessoas
não têm oportunidade para isso,
-
então elas vão ficar estagnadas,
e aí sim a gente vai ter...
-
Dependentes, né...
-
A gente vai ter
um grande problema.
-
À uma resposta que pode
ser alucinada ou não.
-
E ao mesmo tempo, se as pessoas
não estiverem preparadas,
-
elas não vão conseguir
alcançar os cargos
-
que são necessários hoje.
-
Eu preciso de um pouco mais
de intelecto, às vezes, para uma tarefa,
-
porque as outras,
que são mais fáceis,
-
vão ser substituídas
pela IA com certeza.
-
Então eu vejo esse problema,
esse paradoxo, né,
-
como eu faço para que os seres
humanos sejam treinados,
-
para que eles consigam
sobreviver nessa nova era.
-
E você, Henrique, o que acha desse
impacto homem-máquina a longo prazo?
-
Eu acho que tem vários pontos
que a gente precisa destacar.
-
Pegando a fala do Flávio,
eu acho que uma das coisas
-
seria uma tarefa
um pouco mais fácil.
-
O que, de fato, é uma tarefa
um pouco mais fácil?
-
Eu diria que as pessoas
têm que estar preparadas,
-
porque tarefas
altamente repetitivas,
-
sejam elas mecânicas
ou burocráticas...
-
Hoje a gente tem
processos automáticos
-
usando ferramentas de IA
que aceleram esses processos.
-
Então, se é um processo que pode
ser automatizado, ele é repetitivo,
-
não exige muita decisão,
ou a decisão é muito pontual,
-
isso vai ser substituído.
-
Não tem por que ser manual,
não faz sentido.
-
É, a máquina vai substituir
o ser humano.
-
Agora, tem uma questão que,
-
usando essas ferramentas,
interagindo com elas,
-
essa simbiose entre o que nós,
humanos, fazemos,
-
e as máquinas
que nós construímos...
-
Tem uma charge muito legal,
eu gosto muito dessa charge,
-
que mostra uma pessoa
digitando um e-mail,
-
e aí ela pede para uma ferramenta
de linguagem fazer um e-mail,
-
aí ela fala: "Desse ponto,
crie um e-mail de 30 linhas",
-
e a pessoa do outro lado fala:
-
"Resuma esse e-mail
de 30 linhas em 1 ponto".
-
Então isso vem dizer um pouco
-
sobre como a gente
realiza as nossas tarefas.
-
Eu acho que a ideia é que a máquina
está sendo construída
-
na medida do homem.
-
Então a gente precisa pensar: "Será
que essa tarefa que a gente está fazendo
-
não é sem sentido
na origem dela?".
-
Então isso vai facilitar a forma
-
como a gente vai integrar
IA com o nosso dia a dia.
-
O que eu quero dizer?
-
Por que eu tenho que escrever
um e-mail grande
-
se eu posso simplesmente
escrever um ponto
-
e mandar o ponto
direto para a pessoa?
-
Então isso é um pouco
de como a gente se comporta.
-
E aí, permitindo a questão
da ficção científica,
-
eu acho que todo mundo hoje
tem um celular no bolso,
-
a gente está cada vez mais indo
por uma questão de transumanismo,
-
a gente realmente está
indo por uma questão
-
de a tecnologia estar aumentando
as nossas capacidades cognitivas.
-
Hoje a gente consegue
fazer tantas coisas.
-
Essas ferramentas, essas tecnologias,
desde o celular à roupa,
-
permitem que o homem vá além
que as características biológicas dele.
-
Isso é muito interessante.
-
O futuro é incerto,
a gente não tem como dizer,
-
mas eu fico superempolgado
em saber o que vai acontecer.
-
Eu acho que tem grandes oportunidades
que podem vir no futuro.
-
Sensacional!
-
Gente, que papo incrível
que a gente teve.
-
Passou super-rápido.
-
Chegamos ao fim
de mais um podcast,
-
então eu quero agradecer
a presença de vocês,
-
e agradecer a sua presença,
que ficou até agora aqui com a gente.
-
Então, palavrinhas finais?
-
Querem dar uma última dica,
-
uma última palavra?
-
Eu acho que muitos
não vão pensar nisso,
-
mas você que está nos assistindo,
-
eu falei para vocês investirem
em português, inglês,
-
na parte gramatical,
-
porque é isso que vai
vai ditar os novos rumos
-
relacionados
à Inteligência Artificial.
-
Não é só a tecnologia, é
como você pede para a IA.
-
- Então é isso que a gente não pode esquecer.
- Não é o quê, é o como.
-
Então tem que investir sim
em língua portuguesa, em inglês,
-
uma segunda ou terceira língua,
-
porque isso vai fazer
diferença no futuro.
-
Boa!
-
E você, Henrique,
qual é o recado final?
-
Olha, eu vou pegar aqui a ideia
-
que as ferramentas estão aí
-
e temos a oportunidade
de usá-las,
-
temos que nos adaptar a elas,
-
mas a gente também
precisa se conectar
-
com os outros seres humanos.
-
Eu acho que é a oportunidade
que você, aluno,
-
nós, como professores,
-
que estamos sempre aprendendo,
-
ter esse bate-papo.
-
Então, a possibilidade de conversar
e usar a inteligência humana,
-
porque isso é que vai criar
a tecnologia do depois de amanhã.
-
Porque a tecnologia do amanhã
já está sendo feita.
-
Mas a do depois de amanhã,
-
que vão ser vocês, alunos,
que vão fazer,
-
só através da interação
que vocês vão ter entre vocês
-
que vocês vão conseguir vislumbrar
o que é possível de ser feito.
-
Muito bom!
-
Chegamos ao fim
de mais um podcast.
-
Nós vimos aqui
que o Machine Learning
-
conecta, une,
os poderes dos algoritmos
-
com os conhecimentos humanos,
-
e que, desse match,
surgem muitas soluções
-
que estão guiando
o nosso futuro.
-
Muito obrigado e até a próxima!