-
Será que as máquinas
conseguem aprender?
-
Sendo bem direto
e objetivo, sim,
-
graças ao poder
da Inteligência Artificial,
-
um grande leque de opções
que, dentro dele,
-
tem o tal do Machine Learning.
-
E esse é o assunto
do nosso bate-papo de hoje.
-
Vamos falar sobre tipos
de Machine Learning,
-
polêmicas, e o que vem por aí.
-
Eu sou o Gustavo Torrente,
professor da FIAP,
-
e não estou sozinho.
-
Estou aqui com grandes
especialistas da área.
-
Professor Flávio Marques,
professor Henrique,
-
sejam muito bem-vindos.
-
Tudo bom, Flávio?
-
Tudo bom, Gustavo.
-
Olá a todos e a todas.
-
Sou o Flávio, especialista
em infraestrutura
-
e instrutor da Cisco Systems.
-
Sensacional!
-
Seja bem-vindo, Henrique.
-
Obrigado, Gustavo,
obrigado, Fábio.
-
Vai ser um prazer
conversar com vocês.
-
Sou Henrique Ferreira, sou
pesquisador na área de IA,
-
engenheiro de informação,
-
e estou envolvido na construção
de Inteligências Artificiais
-
usando Machine Learning.
-
Bom, para começar esse bate-papo,
não é novidade para ninguém
-
que a Inteligência Artificial
é um grande guarda-chuva
-
que abriga várias ramificações,
-
e uma delas é o tal
do Machine Learning.
-
Onde se encaixa
o Machine Learning
-
dentro desse universo
da IA, Flávio?
-
Todo mundo fala hoje em ChatGPT,
e fica com esse foco.
-
Mas a gente não pode esquecer
que Machine Learning
-
é uma subárea
da Inteligência Artificial
-
e é para deixar
muito claro isso.
-
Então a gente tem, dentro
da Inteligência Artificial,
-
uma subárea que é
a Machine Learning.
-
E um pouco mais aprofundado,
que também faz parte disso
-
quando a gente trabalha
com redes neurais,
-
a gente vai começar
a trabalhar com Deep Learning,
-
Perfeito.
-
Henrique, Machine Learning,
-
o professor Flávio
falou muito bem,
-
é uma subárea dentro da IA,
que não é de hoje.
-
E, na sua visão, onde se encaixa
dentro desse universo?
-
É muito interessante...
-
A gente falou de ChatGPT hoje,
-
mas Machine Learning,
aprendizado de máquina, na verdade,
-
é um artigo seminal
da década de 1950.
-
É uma velha senhora
de 80 anos, né?
-
É algo que tem há muito tempo.
-
Só que, o poder computacional
-
para conseguir
extrair valor disso,
-
teve que ser desenvolvido.
-
Então a gente precisou
ter as placas de vídeo
-
para conseguir treinar
redes neurais profundas
-
que utilizam o aprendizado
de máquina
-
para conseguir extrair valor
-
e conseguir criar sistemas,
como o ChatGPT.
-
Então é algo antigo que está
sendo pesquisado há muito tempo.
-
O objetivo do Machine Learning,
dentro da Inteligência Artificial,
-
é fazer as máquinas aprenderem.
-
Muito bom!
-
E dentro desse tal
de aprendizado máquina,
-
nós temos o aprendizado
não supervisionado
-
e o supervisionado.
-
Tem pior, melhor?
-
Quando eu uso um,
quando eu uso o outro?
-
Quem quer responder essa?
-
Eu vou falar de uma forma
um pouco mais...
-
Generalista.
-
A gente tem os dois grandes
paradigmas do Machine Learning,
-
o supervisionado
e o não supervisionado.
-
Quando você tem algo controlado
-
que você já tem medições feitas
-
e você consegue já tem a certeza
do que é certo, do que é errado,
-
do que você está querendo medir,
-
você está falando
em modelo supervisionado.
-
Quando você tem
uma situação caótica
-
em que você não sabe
o que você tem,
-
a gente fala em modelo
não supervisionado.
-
E se a gente for falar em algo
um pouco mais concreto,
-
se eu tiver falando,
por exemplo, de roupas,
-
se eu quiser fazer
uma classificação
-
para poder separar gravatas
de pequenas ou grandes,
-
eu faço o modelo de regressão,
que é supervisionado.
-
Se eu quiser classificar
se uma roupa
-
tem um padrão de uma gravata,
-
uma cueca, ou
algo nesse sentido,
-
eu faço um processo
de classificação.
-
Agora, se eu tiver uma prerrogativa
de agrupar as roupas,
-
separar gravata, separar
cuecas e camisas,
-
aí vou ter que trabalhar
em um modelo não supervisionado,
-
porque eu não sei
o que eu vou encontrar.
-
Eu vou encontrar um padrão.
-
Então isso é uma das grandes
diferenças entre os dois tipos.
-
Um é caótico, que é
o não supervisionado,
-
e o outro já é
muito bem conhecido
-
e possível de ser treinado.
-
Muito bom!
-
Quais são outras características
desses modelos, Henrique?
-
Como o professor Flávio
falou aqui perfeitamente,
-
no supervisionado,
você precisa dos rótulos.
-
Então existe um certo custo
de ter esses rótulos.
-
E o não supervisionado,
você não precisa dos rótulos.
-
Então é um pouco mais barato
de você explorar aquilo
-
porque você não precisa ter
esses rótulos naquele momento.
-
Mas aí vem as nuances,
-
por exemplo, o aprendizado
autossupervisionado,
-
onde você quer algo que tenha
as características do supervisionado,
-
mas você ainda não tem aqueles
rótulos escritos por humanos,
-
e aí você tem que usar
algumas estratégias
-
que é, por exemplo, o que está por trás
de grandes modelos de linguagem,
-
como o ChatGPT.
-
A ideia do auto supervisionado
é você pegar texto na internet
-
de diversas fontes
-
e mascarar algumas palavras
para fazer o modelo
-
prever qual é a próxima palavra
com os dados que você já tem.
-
Então, o que a gente chama
de auto supervisionado.
-
Ele aprende com aqueles dados
-
sem nenhum ser humano
ter que rotular o que ele significa.
-
E por trás desses ambos modelos,
-
cá entre nós, tem
muita matemática, né?
-
As pessoas acham que é mágica.
-
"Meu Deus! Ele adivinhou
o que eu estava pensando.
-
Ele adivinhou qual era
a próxima palavra",
-
ou qual era o próximo texto.
-
E, na verdade, o professor
Flávio falou de regressão,
-
mas tem estatística, probabilidade.
-
E é muito interessante
esses modelos,
-
a entrada desses dados,
processamento e as saídas,
-
como no caso
de um cartão de crédito,
-
quando vai bloquear uma transação
por segurança ou não.
-
Não é mais alguém que fica
ali atrás do computador
-
bloqueando, mas sim um algoritmo.
-
E o não supervisionado,
no nosso dia a dia,
-
está presente
no algoritmo da Netflix
-
na hora de sugerir
um filme baseado em padrões,
-
ou no Spotify, e por aí vai.
-
São exemplos mais clichês, né?
-
Um exemplo bem interessante
quando ele fala em não se posicionado
-
é, por exemplo,
a questão de cancelamento.
-
Por que uma empresa tem um grande
número de cancelamentos?
-
É uma situação caótica.
-
Ela não sabe por que está
sendo cancelado o serviço,
-
então ela vai recorrer a esse tipo
de modelo, não supervisionado,
-
para entender qual é o padrão,
dentre os meus clientes,
-
que está acontecendo
nesse tipo de cancelamento.
-
Então ela vai começar
a trabalhar com clusters,
-
identificar padrões dentro
do que ela não conhece, a priori,
-
no que está acontecendo.
-
E quando a gente
conecta essas buzzwords
-
com outras áreas da tecnologia,
-
e aqui eu quero falar
do Data Science, né,
-
de que maneira o aprendizado
de máquina, Henrique,
-
se conecta com Data Science,
-
sobretudo quando nós falamos
da manipulação dos bancos de dados?
-
Perfeito.
-
Essa pergunta é excelente ,
-
porque, basicamente,
a Ciência de Dados
-
é você extrair valor
de um certo conjunto de dados.
-
E o Machine Learning, que são
algoritmos computacionais,
-
faz esse trabalho de extrair
valor dos dados.
-
Então hoje, nas empresas,
você tem as áreas de dados
-
onde você tem profissionais especializados
-
em tentar extrair valor dos dados
que a empresa produz.
-
Então a ideia é você
encontrar um padrão, por exemplo,
-
porque está sendo cancelado,
ou, de repente,
-
como eu recomendo um novo
produto para o meu cliente,
-
seja a Netflix ou a Amazon.
-
Eu quero fazer um sistema automático
com os dados que eu já tenho
-
e aí eu vou usar Machine Learning,
vou usar algoritmos.
-
Então, a Ciência de Dados é um profissional,
um cientista de dados é um profissional,
-
que está ali por trás
para entender esse padrão
-
que a máquina está descobrindo
e atrelar isso à alguma coisa
-
que vai trazer valor
para a empresa.
-
Então ele precisa entender
o produto da empresa,
-
entender
o que a empresa pode fazer,
-
e pegar esses algoritmos automáticos
para que a empresa entregue
-
e você consiga extrair
valor dos dados.
-
Poxa, que bacana!!
-
Esse universo
do Data Science hoje,
-
eu poderia falar que é
imprescindível a gente ter ali
-
Machine Learning,
outros algoritmos?
-
Olha, hoje, todas as empresas,
para sobreviverem,
-
precisam ser data-driven, então
elas precisam ser orientada a dados.
-
É justamente por causa desse
grande volume de dados
-
que começou a ser possível
a gente ter novos algoritmos,
-
Chegar nesse nível, né?
-
Para chegar nesse nível,
para você ter novos algoritmos.
-
A gente está falando mais de 400,
500 algoritmos que você poderia utilizar
-
usando bibliotecas do próprio Python,
como o scikit-learn.
-
E, a partir daí, você tem diversos
algoritmos que vão trabalhar,
-
seja usando regressão, seja usando
o modelo não supervisionado,
-
seja randal force
enfim, diversos algoritmos,
-
para tentar resolver o problema
de uma forma ou outra.
-
O que é legal é que as empresas
procurem também
-
utilizar uma metodologia,
qualquer que seja a metodologia.
-
Uma das mais
conhecidas é a CRISP-DM
-
que é uma metodologia em que você
consegue fazer projetos
-
envolvendo dados desde
o entendimento do negócio.
-
Porque se não tiver
entendimento do negócio,
-
nada vai funcionar.
-
Entendimento dos dados,
preparação.
-
Aí entra na parte de modelagem
-
algoritmos que envolvem
Machine Learning
-
para depois você ter a avaliação.
-
Então é aí que entra a estatística.
-
Qual é a acurácia
do meu modelo?
-
Quanto que ele acerta?
-
Então a gente vai chegar
em fases do modelo CRISP,
-
e isso ajuda a sustentar muito
projetos relacionados à dados.
-
Olha só!
-
Isso é muito importante,
Henrique,
-
porque toda empresa hoje
quer ter Inteligência Artificial.
-
Eu falo que, nos anos 2000,
-
toda empresa queria ter o seu site,
-
nos anos nos anos 2010, toda
empresa queria ter seu aplicativo,
-
e agora toda empresa quer ter
a sua Inteligência Artificial.
-
Todo mundo quer, mas e aí,
como está a sua casinha?
-
Como estão os seus dados?
-
Onde eles estão armazenados?
-
Como?
-
Quais são os níveis
de permissão, os rótulos,
-
a classificação disso?
-
Todo mundo quer o que está
no final do arco íris, né?
-
Mas a gente tem que fazer
esse trabalho dentro de casa.
-
Eu, quando era um profissional
de início de carreira,
-
há 15 anos,
-
quando eu quis ir
para a área de tecnologia,
-
eu comecei a pesquisar
sobre ferramentas,
-
linguagens de programação,
-
seguir profissionais,
os cursos que eles faziam.
-
Então, para aproveitar esse
momento que nós estamos aqui,
-
Flávio, quais são as ferramentas
e os principais comandos
-
que um profissional
de tecnologia precisa saber
-
para aplicar Machine Learning
dentro do seu dia a dia?
-
Bom, se a gente for por um caminho
que envolva a Ciência de Dados,
-
é muito importante que primeiro
tenha a base de sustentação no SQL.
-
Então, a linguagem
de conceitos estruturada
-
é extremamente importante
para dados estruturados.
-
Ponto.
-
O primeiro passo é SQL?
-
O SQL é importantíssimo.
-
É claro que não é só ele,
ele aponta uma linguagem,
-
ou algumas linguagens
de programação
-
com conhecimento quase
fluente, como Python e R.
-
Então R é uma linguagem
mais estatística.
-
O Python é algo que é muito mais...
-
A gente fala que é muito
mais apropriado para o mercado,
-
quando você fala
em projetos de dados.
-
Agora, se for por um caminho
de Engenharia de Dados,
-
quem fica nos bastidores
de toda essa parte,
-
aí eu teria que falar um pouquinho
em microsserviços,
-
a parte de orquestração de software.
-
Então vai depender muito da área
que o profissional quer seguir,
-
seja Ciência de Dados
ou Engenharia de Dados.
-
Perfeito.
-
E na sua opinião,
na sua visão, Henrique,
-
nessas ferramentas do dia a dia,
-
quais são as suas dicas
para esse profissional
-
que vai adentrar
em Ciência de Dados?
-
Eu vou até pegar
o que o Flávio disse
-
e colocar mais uma profissão.
-
A gente tem o cientista de dados,
o engenheiro de dados,
-
e também temos um engenheiro de IA,
-
que é aquele que vai
construir, por exemplo,
-
uma rede neural, ou um sistema
que conecta várias outras IAs,
-
para gerar o resultado final,
-
por exemplo, um carro autônomo.
-
Então, para esse profissional,
as ferramentas adicionais
-
poderiam ser, por exemplo,
eu Keras TensorFlow,
-
um PyTorch, que hoje está por trás
dos grandes modelos de linguagem.
-
Então são ferramentas que você
pode utilizar com Python, né,
-
e eles dão um subsídio para você
construir as redes neurais,
-
que é o Deep Learning.
-
E não precisa
reinventar a roda, né,
-
não precisa fazer
o negócio do zero,
-
do PyTorch, entre
outras ferramentas,
-
para alguém já resolver
alguns problemas, né?
-
Exatamente.
-
Tem uma coisa bem interessante,
-
que hoje muitos modelos
já estão disponibilizados,
-
por exemplo, no Hugging Face.
-
Então você pode pegar
um modelo pré-treinado...
-
O que seria um modelo
pré-treinado?
-
Uma rede neural onde você já descobriu
quais são os pesos sinápticos,
-
ela já está apta a resolver
uma determinada tarefa,
-
por exemplo,
de classificação ou regressão.
-
Você pode baixar esse modelo
-
e colocá-lo para fazer
as inferências em produção.
-
E aí vem a parte de como eu faço
para colocar isso em produção.
-
Aí você vai precisar de alguns
outros detalhes profissionais.
-
Por exemplo, o Machine
Learning DevOps, né?
-
MLDevOps.
-
MlDevops.
-
MlOps, e por aí vai.
-
Para quem não sabe
o que é o Hugging Face,
-
é a primeira vez que o pessoal está
escutando esse termo Hugging Face,
-
posso falar que é um GitHub
da Inteligência Artificial?
-
Mais ou menos isso?
-
Sim, eu acho que é
uma boa forma de colocar.
-
Eles são uma empresa,
e têm um repositório de modelos.
-
Então todo mundo que produz
um modelo de linguagem
-
quer disponibilizá-lo.
-
Llama, por exemplo, é um modelo
de linguagem da Meta, do Facebook,
-
que é basicamente igual
ao ChatGPT...
-
- Só que ele está disponibilizado...
- Open source.
-
Open source, exatamente.
-
Isso me lembrou
muito o RM Studio,
-
que foi o que eu
comecei a brincar.
-
É um software que você instala,
-
e, por ele, você consegue
baixar os modelos já pré-treinados
-
e a rodar local sem
a necessidade da internet.
-
Fantástico isso.
-
Agora você levantou
um gancho importante aqui
-
para a continuação do nosso
bate-papo, que é a nuvem.
-
Como a gente está
usando esses recursos?
-
Vantagens, os desafios
do Machine Learning
-
dentro da Cloud Computing?
-
Eu diria que, a primeira coisa,
-
pensando especificamente
em redes neurais,
-
é o custo de treinamento.
-
Porque além de você
ter muitos dados,
-
você vai precisar
de placas de vídeo,
-
e são parques com muitas...
-
É custoso você construir essa
infraestrutura dentro da sua empresa,
-
e às vezes é muito mais vantajoso
-
você contratar um serviço de cloud
para você ter essa etapa de treinamento.
-
Além disso, na nuvem,
as coisas estão 24/7.
-
Então, mesmo que o modelo
já esteja treinado
-
e agora está em produção,
está sendo sendo utilizado,
-
você tem a garantia
de que ele vai ficar disponível.
-
A solução, se você quiser fazer
dentro da sua empresa ou na sua casa,
-
você vai ter que conseguir
disponibilizar isso em 24/7
-
então você tem esses
custos associados.
-
O que eu vejo normalmente é...
-
Por exemplo, eu quero
um modelo de linguagem
-
para fazer um papel,
por exemplo, como o Copilot.
-
Ele vai auxiliar os meus
desenvolvedores, os meus devs,
-
na produção de código.
-
Então, o modelo de linguagem
que vai auxiliar na produção de código.
-
Só que eu não quero
expor esse código,
-
eu não quero que uma empresa
de terceiro veja esse código.
-
Então às vezes é melhor
eu criar um servidor local
-
com uma placa de vídeo,
um modelo já pré-treinado,
-
eu o coloco disponibilizado...
-
Aquela NVIDIA, que eu
posso programar agora.
-
E aí você consegue disponibilizar
para todos seus devs
-
um Copilot, ou algo semelhante,
-
que vai ajudar
na produção de código
-
e não expor o seu código
para nenhum terceiro.
-
Então essa é uma solução caseira
-
que eu tenho visto
muitas empresas adotando.
-
Prós e contras, né, Flávio?
-
A nuvem sem dúvida é o caminho
-
quando você quer
ter algo escalonável.
-
Não tem como você fazer isso
que não seja em nuvem.
-
Agora, existem estratégias para que você
não gaste muito em nuvem.
-
Então, por exemplo, você pode
subir uma máquina virtual,
-
colocar um Spark nela,
-
e começar a brincar
de forma profissional,
-
mas sem gastar muito
-
quando você usar o serviço
diretamente na nuvem,
-
como as empresas às vezes fazem.
-
Então você sobe
máquinas virtuais
-
e coloca um Spark ali
de uma forma parruda
-
para conseguir resolver
problemas mais sofisticados.
-
E dependendo do que você
faz em dados...
-
Me corrijam se eu estiver errado,
-
porque eu estou tirando
a certificação da AWS agora.
-
Tem algumas instâncias
que você pode comprar
-
que são muito mais baratas,
-
mas é aquela história, né...
-
Olha, qualquer hora pode
parar de funcionar.
-
Mas é muito mais barato.
-
Você pode consumir esse recurso
que eu não estou utilizando.
-
É uma forma
de economizar também, né?
-
Às vezes eles fazem isso,
-
usam, mas deixam, por exemplo,
alguma instância no BigQuery
-
porque você consegue ter
uma rotatividade mensal
-
para diminuir custo,
-
e aí você consegue realmente
-
direcionar os esforços
para outros pontos
-
que não só a nuvem, né,
porque senão fica muito custoso.
-
Dúvidas sanadas,
-
vamos para o nosso próximo
bloco aqui do bate-papo.
-
Vamos falar agora sobre ética,
-
um assunto muito importante.
-
Depois desse hype da IA,
-
a gente precisa voltar uma casinha
-
e falar quais são as principais
responsabilidades éticas,
-
na visão de vocês,
-
para a gente treinar esses
modelos de Machine Learning,
-
Olha, tem uma questão que eu
sempre falo para os meus alunos,
-
que é a questão
da escolha das features.
-
Então, digamos que você
vai construir, por exemplo,
-
um sisteminha para o RH
-
para fazer seleção
de próximos profissionais
-
e você quer automatizar
usando Machine Learning.
-
Será que faz sentido você colocar
uma coluna, ou uma feature,
-
ali na entrada do seu modelo
de sexo do profissional?
-
Pra quê, né?
-
Você não quer
selecionar o profissional
-
usando esse tipo de informação.
-
Agora você está criando
um sistema de diagnóstico médico.
-
- Faz sentido trazer feature?
- Ah, sim!
-
Então, esse é o primeiro
pensamento ético
-
do profissional
que está construindo a IA
-
porque é a primeira linha de frente
na hora que ele seleciona as features.
-
E depois essas coisas
ficam meio que ocultadas,
-
por uma vez que o modelo está pronto,
você não sabe exatamente
-
o que está sendo usado,
o que ele aprendeu.
-
Então esse é o primeiro ponto
-
que a gente tem
que tomar cuidado.
-
E outro ponto, também ainda
relacionado com isso,
-
é a questão do envenenamento
de corpos que a gente diz,
-
que é: qualquer coisa
que tiver ruim
-
no seu corpus de treinamento,
-
e, corpus, eu quero dizer os dados
que você está usando, por exemplo.
-
para treinar
o modelo de linguagem,
-
que envolve grandes
quantidades de texto,
-
todo aquele viés
que está no texto
-
pode ser aprendido pelo modelo.
-
Então a gente pode tentar fazer
algo auto-supervisionado
-
para economizar na rotulagem,
-
na etapa ali que a gente
está analisando,
-
mas tem uma hora
que a gente precisa avaliar
-
o que está sendo escrito de fato.
-
Então, por exemplo, a OpenAI,
-
que está por trás do ChatGPT,
-
contrataram profissionais
para verificar o grosso do texto
-
que foi usado durante
o treinamento
-
para eliminar,
durante o treinamento,
-
assuntos, vamos dizer assim,
muito polêmicos.
-
Então...
-
Abuso sexual, qualquer
tipo de texto que...
-
Crimes?
-
Crimes.
-
Então, qualquer tipo de assunto, ?,
-
eles eliminavam
para o modelo não aprender
-
e não reproduzir esse tipo de...
-
E é uma constância, né, Flávio,
-
é um trabalho que não tem fim.
-
Porque mesmo eles
contratando esses profissionais,
-
como o Henrique muito bem trouxe,
-
no início ali,
-
quando a OpenAI
-
disponibilizou para os usuários
aquele modelo 3.5,
-
depois, em paralelo,
teve o DALL-E, e juntou,
-
você pedia ali: "Desenhem um CEO".
-
E aí tinha o viés de sempre ser
-
um homem, branco, mais velho...
-
Realmente esse viés,
como ela é treinada,
-
e os humanos é que vão gerar
-
os dados para esse treinamento,
-
pode ter sim um viés,
e às vezes é proposital.
-
Então, o que as empresas
precisam entender
-
é que é preciso,
-
dentro dessa fase, dentro
do entendimento dos dados,
-
como o Henrique mencionou...
-
Se ela não tiver noção
-
se aquela feature vai ser
considerada ou não,
-
que use uma matriz de correlação
-
para ver o quanto aquela
feature vai impactar
-
na medida que você
está querendo fazer.
-
Então, entender se é
significativa ou não
-
a presença daquela feature
-
para um determinado
treinamento que você vai fazer.
-
O pessoal fala já há muito tempo
sobre os vieses algoritmos.
-
E não é só o desenvolvedor.
-
É também quem usa,
quem está alimentando, né?
-
Então é dos dois lados.
-
Vocês se recordam, se lembram,
de algum caso emblemático
-
que tem relação com esse mau
treinamento desses dados?
-
Eu lembro de um caso
bastante emblemático,
-
que tem a ver com a ideia
de você fazer o próprio usuário
-
fornecer dados para treinar,
-
um treinamento constante.
-
Chamava-se "Microsoft Tay".
-
Era um chatbot que foi
disponibilizado no Twitter,
-
e em 24 horas, a Microsoft teve
que desligar esse chatbot
-
porque os trolls da internet
ensinaram
-
o bot a falar: ?
-
Então, em 24 horas,
eles tiveram que desligar.
-
É um risco, né,
quando você coloca ali
-
porque o usuário pode...
-
É o risco do não supervisionado.
-
Como você não está observando
aquela realimentação dos dados
-
que os usuários
estão imputando no sistema,
-
o sistema aprendeu
com os usuários, e aí...
-
Foram ingênuos demais.
-
Exatamente.
-
Tempos atrás também, a Amazon
teve um processo seletivo
-
e quis fazer algo automatizado.
-
E o que acabou acontecendo?
-
Como ela tinha uma base
totalmente formada por homens,
-
então ela acabou,
no processo de escolha,
-
deixando as mulheres de lado.
-
Então, nesse processo em que você
usa algo automatizado,
-
você tem que entender que, se você
usar uma base histórica de profissionais
-
que fazem parte de uma empresa,
você tem que identificar que...
-
"Opa, eu não posso fazer isso
com o processo seletivo,
-
porque senão eu só
vou contratar homens".
-
E como a gente pode evitar de isso
acontecer daqui para frente, Flávio?
-
A gente precisa
identificar a amostra, tá?
-
A amostra realmente
vai ser usada...
-
Uma parte é para treino
e a outra é para teste.
-
É sempre assim que a gente
trabalha com Machine learning.
-
Então, dentro da sua mostra,
-
você tem que verificar se ela tem
o balanceamento correto.
-
Se ela estiver desbalanceada,
você tem que usar algumas técnicas
-
para poder fazer esse
balanceamento acontecer
-
de forma probabilística
ou de uma forma apropriada.
-
Isso pode acarretar em problemas
se você não observar.
-
Então, se você tem um dataset
totalmente desbalanceado,
-
você vai ter problemas.
-
Isso é fato.
-
Mesmo que a acurácia seja alta,
-
você pode ter um problema
de overfitting.
-
Mas eu preciso entender dos dados
para saber o que eu tenho...
-
Eu tenho que enriquecer
os dados às vezes,
-
eu tenho que fazer alguma coisa
para que a minha amostra
-
realmente seja significativa,
para que eu tenha o treinamento adequado.
-
É dessa forma que você está ensinando
em sala de aula, Henrique?
-
Assim, tem duas coisas
que eu gostaria de adicionar
-
ao que o Flávio disse aqui.
-
A primeira é que eu me
recordo de um caso:
-
o "Compass Software",
-
que foi um software
de Machine Learning proposto...
-
Em 2013, 2014,
-
para auxiliar juízes
-
a tomarem decisões de casos.
-
Por exemplo, um prisioneiro ?
-
"Ah, quero liberdade condicional".
-
Aí avaliava se ele tinha chance
de reincidir no crime.
-
e aí o que aconteceu
é que o algoritmo era racista.
-
O algoritmo decidia muito mais a favor de
pessoas brancas do que de pessoas negras.
-
E aí a pergunta central
foram se analisar porque isso acontecia?
-
Isso tem a ver com o viés
nos dados do sistema prisional americano.
-
Você tem uma população carcerária
-
de maioria negra, por isso que acabou
criando esse tipo de viés.
-
O algoritmo aprendeu.
-
Mas isso levanta
uma questão mais fundamental
-
será que faz sentido
você criar um software para fazer isso?
-
Será que é justo
avaliar as pessoas nesse sentido?
-
Com software?
-
Então, a gente também tem uma defesa de
Será que faz sentido automatizar
-
esse processo?
-
Será que é automatizar esse processo?
-
Eu não estou tirando o julgamento
necessário de um ser humano.
-
O ser humano
que realmente teria que avaliar
-
isso é uma coisa que a gente também tem
que se preocupar.
-
E é uma questão
que vai além da parte técnica.
-
E a outra questão técnica que a gente
tem desenvolvido para melhorar os modelos
-
é fazer eles serem a gente entender
eles e a aplicabilidade e a integralidade.
-
Então o mundo não tem só que
inferir uma resposta, dizer
-
esse prisioneiro
não pode ter liberdade condicional.
-
Ele também tem que dizer por quê
e como ele chegou nessa conclusão?
-
É isso que a gente está tentando
fazer os modelos conseguirem produzir.
-
A explicação de como ele chegou
na resposta
-
para a gente conseguir interpretar
com detalhe e até mesmo no prompt,
-
a gente recomenda que você não
só peça o resultado,
-
mas também explique para mim
como você chegou a ele.
-
Isso é uma forma interessante
você entender se ela alucinou ou não.
-
Então até dica para quem vai trabalhar
com a parte de engenharia de prompt,
-
não só pedir alguma tarefa,
mas depois explicar por quê
-
ou como ela chegou nesse resultado.
-
Ou você pergunta
Você falou Olha, eu quero que você use
-
esse raciocínio, essa lógica.
-
Decisões mais complexas
vão precisar de instruções mais complexas.
-
Bom, estamos indo pro nosso último bloco.
-
Vamos falar agora de tendências e futuros.
-
E diante do que vocês estão
vendo, essas novidades,
-
aplicações, ferramentas Na sua opinião,
-
quais são as tendências que
-
se destacam quando nós pensamos
nesse mercado de meeting e-learning?
-
Eu vejo duas grandes tendências.
-
Uma delas são os agentes autônomos.
-
Estão vindo com tudo,
principalmente com assistentes virtuais.
-
Estou falando em conversação, algo
conversacional por voz, que é fantástico.
-
Isso é a diferença em que os agentes
conseguem tomar decisões autônomas.
-
Isso que é interessante, não é assim.
-
Olha, deixa eu ver o que ele pode fazer.
-
Ele já tem ações para serem tomadas
de forma autônoma.
-
E o outro ponto que também está crescendo
muito para poder empoderar
-
os profissionais
-
que trabalham com negócios,
mas não são especialistas em tecnologia
-
é o auto machine learning.
-
Então eu consigo trabalhar com ferramentas
que dentro dela
-
eu já tenho todo o pacote.
-
Os algoritmos em que você não vai precisar
programar, e sim clicar
-
para que você tenha um modelo preditivo
feito
-
e aí você resolva problemas
e dentro da empresa
-
e consiga tomar as decisões
mais assertivas.
-
Muito bom!
-
E na sua visão
Henrique, o que o futuro nos aguarda?
-
O Flávio
disse Perfeito a questão dos agentes.
-
Mas eu quero falar uma coisa específica
dos agentes que eu tenho visto
-
e acho que 2025 vai estourar isso aí,
-
que é a questão de robótica.
-
Hoje nós conseguimos construir robôs
muito melhor
-
do que a gente
conseguiu construir duas décadas atrás.
-
Então, durante a história
-
e agora a gente consegue colocar
o modelo de linguagem dentro dele,
-
então algumas questões e até de ficção.
-
Eu ia falar isso agora é que
a robótica permite que o robô sinta.
-
Então a questão é a gente agora
consegue criar um modelo de linguagem
-
que, de certa forma, parece pensar.
-
Será que pensar e sentir
pode gerar consciência?
-
Então, essa é uma questão interessante
e a gente ainda vai explorar.
-
Tem muita coisa a ser feita,
-
mas eu diria que 2025
é um ano de inflexão em relação a isso.
-
A gente vai começar a explorar
o novo cenário super
-
não só virtuais, mas também robótica.
-
E esse é uma teoria aqui que não cola.
-
Não tem nada factível ainda, mas é
a chamada teoria da mente que é a própria.
-
É a teoria, uma consciência.
-
Que loucura, gente!
-
Estamos
chegando ao fim dessa nossa conversa.
-
Mas antes de vocês darem as dicas finais
para os nossos alunos, uma das perguntas
-
que eu mais recebo,
principalmente em palestras
-
dentro de empresas e enfim, grandes
eventos.
-
É Gustavo,
as pessoas vão ficar mais preguiçosas.
-
Essa é a nova geração na nossa gente.
-
Pesquisava mais, argumentava mais.
-
Agora está tudo muito na mão
e tudo mais rápido.
-
Como é que você enxerga essa relação
homem máquina a longo prazo?
-
Sobre Marx,
eu pensei que você fosse perguntar
-
se a ia roubar nossos entrevistados.
-
Já estava bom.
-
E Mas com relação a questão de interface
homem máquina, a gente começa a perceber
-
que com o avanço da robótica e a própria
inteligência artificial juntas,
-
a gente está começando a ter uma forma de
atendimento mais personalizado.
-
Se você começar a perceber,
existem atendimentos virtuais 24 por set,
-
então eu consigo colocar uma I.A por vídeo
em que ela faça a venda de produtos.
-
Então existem formas
em que o ser humano vai ser substituído.
-
Sim, isso é bastante importante
levar em consideração.
-
E não é que as pessoas
-
vão ficar mais preguiçosas, Elas vão
ter que começar a ser direcionadas
-
para outros tipos de tarefas
que não sejam possíveis a automatização,
-
Ou elas vão começar a ter
um nível intelectual mais alto,
-
por isso
precisam ser preparadas para isso.
-
Esse é o grande problema que as pessoas
não têm oportunidade para isso,
-
Então elas vão ficar estagnadas e aí
sim a gente vai ter
-
gente, vai ter um grande problema,
resposta que pode ser alucinada ou não.
-
E ao mesmo tempo,
se as pessoas não tiverem preparadas,
-
elas não vão conseguir alcançar os cargos
que são necessários.
-
Hoje eu preciso de um pouco mais
de intelecto, às vezes para uma tarefa,
-
porque as outras que são mais fáceis
vão ser substituídas pela I.A.
-
Com certeza.
-
Então eu vejo assim esse problema,
esse paradoxo, não é?
-
Como é que eu faço
para que os seres humanos
-
sejam treinados para que eles consigam
sobreviver nessa nova era?
-
E você, Henrique, o que você acha desse
impacto a longo prazo?
-
Eu acho que tem vários pontos
que a gente precisa destacar.
-
Acho que uma das coisas que.
-
É uma tarefa um
-
pouco mais fácil que, de fato,
uma tarefa um pouco mais fácil.
-
Eu diria que as pessoas têm que estar
preparadas.
-
Que tarefas altamente repetitivas,
sejam elas mecânicas ou burocráticas.
-
Hoje a gente tem processos automáticos
-
usando ferramentas de ar
que aceleram esses processos.
-
Se é um processo
que pode ser automatizado,
-
ele é repetitivo, não exige muita decisão
ou a decisão é muito pontual.
-
Isso vai ser subir.
-
Não tem porque ser manual
e não faz sentido o ser humano fazer isso.
-
Vai substituir a máquina,
vai substituir o ser humano.
-
Agora tem uma questão que a gente
-
usando essas ferramentas,
interagindo com elas, essa simbiose
-
entre o que nós humanos fazemos
e as máquinas que nós construímos.
-
Tem uma charge muito legal.
-
Gosto muito dessa charge
que mostra uma pessoa digitando um e-mail
-
e aí ela pede para uma ferramenta
de linguagem fazer um e-mail, falar.
-
Nesse ponto, cria um e-mail de 30 linhas
e a pessoa do outro lado fala Resuma esse
-
meio de 30 linhas.
-
Então isso
-
deveria dizer um pouco sobre
como a gente realiza as nossas tarefas.
-
Então não só acho que a ideia é que
-
a máquina está sendo construída
e como o homem na medida do homem.
-
Então a gente precisa pensar será que
essa tarefa que a gente está fazendo
-
tem sentido próprio na origem dela?
-
Então, isso vai facilitar
a forma como a gente vai integrar
-
o nosso dia a dia.
-
Eu quero dizer por que eu
tenho que escrever um e-mail grande?
-
Se eu pudesse mandar o ponto
direto para a pessoa, se isso é um pouco
-
de como a gente se comporta
e aí permitindo a questão ali da
-
ficção científica,
eu acho que cada vez mais, hoje
-
todo mundo tem um celular no bolso.
-
A gente está cada vez mais indo
por uma questão de transhumanismo.
-
A gente tá indo por uma questão
de realmente a tecnologia
-
está aumentando as nossas capacidades
cognitivas.
-
A gente consegue fazer tantas coisas,
-
essas
-
ferramentas, essas tecnologias,
desde o celular, a roupa,
-
ela permite que o homem vá além
do que as características biológicas dele.
-
Isso é muito interessante. Isso.
-
O futuro é incerto, tem como dizer.
-
Mas eu fico super empolgado
saber o que vai acontecer.
-
Acho que isso tem grandes oportunidades
que pode vir no futuro sim.
-
Sensacional!
-
Gente, que papo incrível
que a gente teve, Passou super rápido,
-
Chegamos ao fim de mais um podcast,
então quero agradecer a presença de vocês
-
e agradecer a sua presença
que ficou até agora aqui com a gente.
-
Então Palavrinhas finais
Quer dar uma última dica?
-
Uma última palavra?
-
Olha, eu queria,
-
acho que muitos não vou pensar nisso,
mas você que está nos assistindo.
-
Aí eu falei para vocês investirem
em português e inglês na parte gramatical,
-
porque é isso que vai
vai ditar os novos rumos aí relacionados.
-
A inteligência artificial não é só
a tecnologia, é como você pede praia.
-
Então é isso que a gente não pode
esquecer.
-
Então tem que investir
sim, Língua portuguesa e inglês,
-
uma segunda, terceira língua,
porque isso vai fazer diferença no futuro.
-
Boa E você, Henrique?
Qual é o recado final?
-
Olha, eu vou pegar aqui a ideia de que
-
basicamente as ferramentas estão aí.
-
Temos oportunidade de usar
elas, nós temos que nos adaptar a elas,
-
mas a gente também precisa
se conectar com os outros seres humanos.
-
Eu acho que é a oportunidade que você,
aluno, nós,
-
como professores, mas também alunos
que estamos sempre aprendendo.
-
É muito bom esse bate papo, saudade
de conversar e usar a inteligência humana,
-
porque é isso que vai criar
a tecnologia do depois de amanhã,
-
porque a tecnologia do amanhã
já está sendo feita.
-
Mas depois de amanhã que você,
vocês, alunos, que vão fazer
-
só através da interação que vocês vão ter
entre vocês,
-
vocês vão conseguir vislumbrar
o que é possível de ser feito.
-
Muito bom!
-
Chegamos ao fim de mais um podcast
e nós vimos aqui que o e-Learning Conecta
-
une os poderes dos algoritmos
com os conhecimentos humanos
-
e desse método surgem muitas soluções
-
que estão guiando o nosso futuro.
-
Muito obrigado e até a próxima.