-
Eh no, questo video non è girato con
-
una voce artificiale, ma con la mia, che
-
è una voce naturale.
-
Però grazie a tutti quelli che nei commenti
-
ogni tanto scrivono che i miei video sono
-
fatti con un IA, perché credo sia un
-
complimento.
-
Spero.
-
Le intelligenze artificiali ci ruberanno il lavoro.
-
Quante volte lo abbiamo sentito dire.
-
Da un lato si tratta di una prospettiva
-
inquietante, ma dall'altro indicherebbe un grande progresso
-
tecnologico del genere umano, che potrebbe portarci in
-
futuro a faticare di meno e forse a
-
migliorare il nostro pianeta.
-
Quel che dobbiamo sapere, comunque, è che ci
-
ruberanno il lavoro è soltanto uno dei rischi
-
posti dalle intelligenze artificiali.
-
Questi rischi spaziano dagli scenari alla Io Robot,
-
in stile macchine che si rivoltano contro
-
l'uomo, a quelli alla Zio Turiddu che si
-
lamenta perché suo nipote scrive il tema
-
d'italiano con l'aiuto di chat GPT.
-
Anche se, in questi casi, Zio Turiddu potrebbe
-
non essere totalmente fuoristrada.
-
Ma, ci arriviamo.
-
Oggi parliamo di rischi seri, concreti e dilemmi
-
etici da non sottovalutare.
-
E, fidatevi, questo video potrebbe cambiare totalmente le
-
vostre percezioni sull'intelligenza artificiale.
-
O forse no.
-
Ma comunque, vale la pena parlarne.
-
Il 13 giugno 2024 il Parlamento Europeo ha
-
varato il cosiddetto AI Act.
-
144 pagine di testo mirate a regolamentare lo
-
sviluppo e l'utilizzo delle intelligenze artificiali
-
a livello comunitario.
-
Questa legge è il primo quadro giuridico mai
-
realizzato sull'IA a livello mondiale, nonché la
-
prima a prendere in considerazione che l'IA
-
in quanto tale possa rappresentare anche un pericolo.
-
In tal senso, l'AI Act riconosce quattro
-
livelli di rischio delle intelligenze artificiali, dal più
-
trascurabile al più preoccupante.
-
Il rischio minimo riguarda le IA più usate,
-
quindi assistenti vocali, filtri antispam o algoritmi dei
-
vari social network.
-
Il rischio limitato, altresì detto di trasparenza, interessa
-
le IA che possono fingere o tramite le
-
quali si può fingere di essere umani, quindi
-
i chatbot e le intelligenze artificiali generative, che
-
possono favorire truffe e potenzialmente rimpiazzare artisti e
-
professionisti.
-
Il rischio elevato, invece, ha a che fare
-
con IA con contesti e settori ben specifici,
-
trasporti, ospedali, scuole, assistenza giudiziaria, risorse umane, servizi
-
pubblici e bancari, gestione delle richieste d'asilo.
-
Per l'UE, in questi casi, le IA
-
vanno a prendere decisioni dirette su degli esseri
-
umani e perciò necessitano di un controllo umano.
-
Per finire, il rischio inaccettabile considera le IA
-
che minacciano e manipolano gli umani, come sistemi
-
per valutare il punteggio sociale, identificazione biometrica in
-
tempo reale e qualsiasi strumento abbia un impatto
-
cognitivo sulle categorie vulnerabili, come i bambini.
-
Tipo un pupazzo che incoraggia il nipote di
-
zio Turiddu a muovere un esercito alla conquista
-
della sua scuola elementare.
-
Insomma, la piramide del rischio dell' AI Act
-
non prende in considerazione il fatto che le
-
macchine possano ribellarsi, quanto piuttosto che facciano esattamente
-
quello che chiediamo loro.
-
Ed è proprio qui che ci si apre
-
un mondo di possibilità inquietanti.
-
In parole povere, un'intelligenza artificiale è una
-
tecnologia che permette a una macchina di svolgere
-
compiti e simulare i comportamenti degli esseri umani.
-
Per far funzionare un'IA bisogna innanzitutto individuare
-
un problema, determinare il risultato che si vuole
-
ottenere e scegliere un set di dati da
-
cui l'IA stessa deve attingere.
-
Il nostro, ormai, è un mondo fatto di
-
dati e più dati un'intelligenza artificiale ha
-
da analizzare, più è in grado di prendere
-
decisioni per noi sensate.
-
Ma proprio perché questi dati vengono prodotti da
-
noi umani, c'è il rischio che le
-
intelligenze artificiali, in un certo senso, pensino come
-
pensiamo noi.
-
Sulla base di questo assunto, l'MIT di
-
Boston ha elaborato un database che caratterizza circa
-
settecento rischi dell'IA in sette livelli.
-
Se sovrapponiamo questi livelli alla piramide del rischio
-
dell' AI Act, otteniamo dei gradi di pericolosità
-
crescente che vanno da uno, il meno pericoloso,
-
a sette, che rappresenta il pericolo massimo.
-
In questa scala, la pericolosità è data dalla
-
controllabilità del rischio, cioè dalla capacità umana di
-
porre un qualche freno alle IA.
-
Prima di cominciare, forse, non vi farà piacere
-
sapere che al momento ci troviamo da qualche
-
parte tra il quarto e il quinto livello.
-
Ma vediamo cos'è che significa tutto questo.
-
In quanto basata su dei dati umani, un
-
'intelligenza artificiale può produrre una spiacevole conseguenza di
-
scriminare le persone, arrivando a escluderle da alcuni
-
meccanismi della società.
-
Per esempio, se la Evil Lectio Corp volesse
-
assumere 10 dipendenti e delegasse questo compito a
-
un sistema di risorse umane automatizzato, è possibile
-
che questo prediliga a priori candidati bianchi, sui
-
35 anni, sbarbati, nonostante il sistema stesso non
-
sia stato impostato per fare preferenze simili.
-
Il problema è che l'IA della Evil
-
Lectio, in base ai dati che gli sono
-
stati dati in passato, potrebbe essere portato a
-
dare più peso all'aspetto di un candidato
-
che alle sue qualifiche.
-
Proprio come potrebbe fare un umano.
-
Ragionando per assurdo, un'IA potrebbe negare un
-
mutuo o far arrestare una persona.
-
In realtà, già nel 2021 in Massachusetts, l
-
'IA della Safe Rent Solutions, una sorta di
-
agenzia che permette di recensire affittuari e inquilini,
-
aveva rigettato le richieste di affitto solamente di
-
persone nere.
-
Ma portiamo questo concetto all'estremo.
-
Se un'automobile a guida autonoma si trovasse
-
su un rettilineo e all'improvviso si lanciasse
-
una vecchietta sull'attraversamento, cos'è che farebbe?
-
Sterzerebbe per evitare la vecchietta, rischiando di uccidere
-
qualcun altro sul marciapiede, o valuterebbe che alla
-
vecchietta non manca molto da vivere e che
-
quindi è preferibile uccidere lei piuttosto che qualcun
-
altro nelle vicinanze.
-
Inoltre, è inevitabile che certi sistemi di intelligenza
-
artificiale siano più costosi di altri e che
-
quindi non tutti possano permetterseli.
-
Immaginiamo un sistema di domotica fantascientifico che è
-
in grado di capire cosa ci manca nel
-
frigo e nella dispensa.
-
È capace di acquistare di conseguenza quel che
-
ci serve online e di farcelo arrivare a
-
casa, risparmiando un sacco di tempo.
-
Per lo meno inizialmente, questo sistema sarà costosissimo.
-
Chi potrà permetterselo renderà meno stressante la sua
-
giornata, ma chi non avrà i soldi per
-
comprarlo non beneficerebbe di una cosa che sa
-
che esiste e che gli migliorerebbe la vita.
-
Provate a riportare questi assunti in ogni ambito
-
della società, dal sistema sanitario a quello educativo.
-
Non è il massimo, vero?
-
Che le si progetti o meno, con scopi
-
malevoli, l'utilizzo delle intelligenze artificiali può effettivamente
-
portare alla violazione di privacy e diritti.
-
Tanto per cominciare, non è da escludere che
-
un'IA possa inavvertitamente divulgare dati o informazioni
-
personali, magari gli stessi che la Evil Lectio Corp
-
ha estrapolato dai suoi dipendenti per «allenare» le
-
sue risorse umane e artificiali, oppure, ancora peggio,
-
quelli di un'amministrazione pubblica.
-
Contestualmente, si può dare in pasto a un
-
'IA generativa o un testo protetto da proprietà
-
intellettuale e questa potrebbe replicarlo e distribuirlo aggirando
-
il copyright, oppure persino una voce.
-
Nel maggio del 2024, l'attrice Scarlett Johansson
-
ha accusato ChatGPT di aver creato un assistente
-
vocale, Sky, dotandolo della sua voce.
-
Secondo OpenAI, la società madre di ChatGPT si
-
trattava soltanto di una forte somiglianza, ma l
-
'azienda ha poi rimosso l'assistente vocale.
-
Ancora, un hacker potrebbe istruire un'intelligenza artificiale
-
a compiere un attacco informatico di uno o
-
più individui, di un'azienda o di uno
-
Stato.
-
Allo stesso modo, un'intelligenza artificiale, se presenta
-
delle falle, può venire a sua volta attaccata
-
da qualche hacker e da lì manipolata per
-
agire in maniera malevola, ad esempio rubando dati.
-
Questi rischi nel mondo contemporaneo sono sempre più
-
frequenti e per difendersi è bene dotarsi degli
-
strumenti giusti, come NordVPN, lo sponsor che ringrazio,
-
come sempre, per permettere la realizzazione di questi
-
video a tema informatica e tech.
-
Le truffe, ad esempio, possono presentarsi sotto forma
-
di siti web fasulli o file che, in
-
realtà, una volta aperti o scaricati, contengono malware
-
capaci di infettare i vostri dispositivi.
-
Grazie a Threat Protection, NordVPN vi mette in
-
guardia in anticipo, mentre protegge la vostra connessione
-
quando siete connessi a rete Wi-Fi pubbliche
-
di piazze, aeroporti o hotel, fino a un
-
massimo di 10 dispositivi contemporaneamente.
-
Se poi la vostra mail associata all'account
-
NordVPN dovesse malauguratamente finire nel Dark Web, NordVPN
-
ve lo notificherebbe all'istante, permettendovi di prendere
-
tutte le contromisure necessarie.
-
E se siete all'estero e volete utilizzare
-
una qualsiasi IA bloccata nel paese in cui
-
vi trovate, potrete sempre ricorrere alla geolocalizzazione, mascherando
-
il vostro indirizzo IP, infatti, potrete connettervi a
-
uno dei più di 7100 server di NordVPN
-
sparsi in 118 location diverso.
-
La geolocalizzazione vi aiuta sia a usufruire di
-
contenuti che magari non sono disponibili in Italia
-
o all'estero e anche ad evitare le
-
discriminazioni di prezzi, quel fenomeno per cui i
-
beni e i servizi costano di più in
-
base al livello di ricchezza dello stato in
-
cui li si acquista.
-
Il tutto nel totale rispetto della vostra privacy,
-
perché NordVPN non conserva i vostri dati, né
-
avrebbe la possibilità di farlo.
-
Per sfruttare tutte le potenzialità di NordVPN e
-
iniziare a dare finalmente valore alla vostra privacy,
-
vi basta cliccare sul link in descrizione per
-
ottenere uno sconto esclusivo targato Nova Lectio.
-
Ora, passiamo al livello successivo.
-
Qui c'è poco da dire.
-
Abbiamo già parlato ampiamente della disinformazione online e
-
dei metodi con cui è possibile crearla e
-
diffonderla, e farla anche franca.
-
Quando un'IA arriva a produrre in maniera
-
efficiente migliaia di account falsi, per manipolare l
-
'opinione pubblica e diffondere fake news e deepfake,
-
diventa tutto più comodo.
-
Lo stesso microtargeting, cioè quella strategia di marketing
-
che personalizza gli annunci in base a dati
-
e comportamenti individuali, rappresenta un rischio, così come
-
lo sono la sorveglianza di massa e le
-
tattiche di cyber-guerra, che includono l'utilizzo
-
di malware intelligenti capaci di distruggere interi sistemi
-
informatici, ma anche l'impiego di sistemi LAW,
-
che sta per Lethal Autonomous Weapons, cioè
-
armi come alcuni droni che individuano da sole
-
i loro bersagli.
-
Questa realtà, purtroppo, la stiamo già vivendo, e
-
il prossimo livello potrebbe già rappresentare un punto
-
di non ritorno.
-
È arrivato il momento di gloria di Turiddu.
-
Suo nipote, facendosi scrivere il tema d'italiano
-
da chat GPT, sta, uno, affidandosi a una
-
macchina e, due, sacrificando la sua autonomia.
-
Lo so, pensate di stare ascoltando il classico
-
discorso da boomer, eppure non c'è libro
-
o articolo sulle intelligenze artificiali che non citi
-
il rischio, per l'uomo, di vedere erose
-
le sue capacità decisionali e il suo spirito
-
critico nei campi più disparati.
-
A tal proposito, l'MIT indica due sottorischi diversi.
-
Il primo è riconoscere all'IA delle caratteristiche
-
umane, arrivando a fidarsi di lei come fosse
-
un'amica, diciamo, e in casi estremi a
-
prendere decisioni da lei suggerite.
-
Nell'ottobre del 2024, ad esempio, una madre
-
ha fatto causa a Character AI, chatbot che,
-
secondo lei, avrebbe spinto suo figlio di 14
-
anni a isolarsi e poi a suicidarsi.
-
Il secondo sottorischio riguarda la dipendenza che si
-
potrebbe sviluppare nei confronti di una o più
-
intelligenze artificiali, sia a scuola ma anche a
-
casa e al lavoro, per delegare compiti noiosi
-
o creativi.
-
Ed è da questo livello di rischio che
-
possiamo cominciare a parlare di «ci ruberanno il
-
lavoro».
-
Del resto, un'IA è più efficiente di
-
un umano in quasi tutti i casi, lavora
-
24 ore su 24, senza stancarsi, non ha
-
bisogno di cibo, tant'è che alcuni stimano
-
che, entro il 2030, le IA rimpiazzeranno tra
-
le decine e le centinaia di milioni di
-
posti di lavoro a livello mondiale, e dentro
-
il 2040 il 30% di tutti i
-
lavori sarà automatizzato.
-
In una visione utopistica, una completa automazione del
-
lavoro vorrà dire reddito universale per tutti, ma,
-
in una visione distopica, potrebbe significare che le
-
macchine prenderanno il sopravvento.
-
L'eccessiva fiducia nei confronti di un'intelligenza
-
artificiale può portare a considerare indiscutibile il suo
-
giudizio, e se questo è pericoloso per dei
-
singoli individui, lo è ancora di più quando
-
l'IA viene utilizzata dal governo di uno
-
Stato.
-
L'uso delle intelligenze artificiali potrebbe favorire censura
-
e sorveglianza, negare servizi pubblici a determinati individui
-
e, in sostanza, fare gli interessi di un
-
gruppo ristretto.
-
Già nel 2018 si era cominciato a parlare
-
di "dittatura dell'IA", concetto introdotto da niente
-
di meno che Elon Musk.
-
Tutt'oggi, Musk è contrario alla decisione di
-
Sam Altman, CEO di OpenAI, di trasformare la
-
società, nata come organizzazione di ricerca no profit,
-
in un'azienda vera e propria nell'immediato
-
futuro.
-
La preoccupazione di Musk sta nel fatto che
-
l'obiettivo primario di OpenAI è la creazione
-
di un AGI, un'intelligenza artificiale generale.
-
Sia nel mondo della fantascienza che in quello
-
reale, un AGI sarebbe una macchina capace di
-
superare le capacità umane in ogni campo e,
-
secondo esperti del settore ed ex-dipendenti della
-
stessa OpenAI, non è da escludere che potremmo
-
vederne emergere una già nel 2028.
-
E sembra una cosa secondaria, ma non lo
-
è.
Per funzionare, le intelligenze artificiali non mangiano, è
-
vero, ma necessitano di server e di energia.
-
Più le IA diventeranno potenti, più ci sarà
-
bisogno di materiali come nickel, cobalto e litio
-
per realizzare le CPU e maggiore sarà il
-
calore prodotto dai datacenter, che richiederanno dunque sistemi
-
di raffreddamento sempre più energivori.
-
Il rischio è che le AGI vengano sviluppate
-
soltanto da paesi geopoliticamente rilevanti come Stati Uniti
-
e Cina, i pochi che avrebbero fondi e
-
risorse necessarie, creando un divario ancora più grande
-
con il resto della comunità internazionale, ma potenzialmente
-
anche delegando le proprie decisioni in materia bellica
-
alle stesse AGI.
-
Nel 2020, il programmatore americano Brian Christian pubblicava
-
un libro destinato a far discutere.
-
The Alignment Problem.
-
Il problema dell'allineamento è il seguente.
-
Non sappiamo se una volta nate le AGI
-
rispetteranno le famose tre leggi della robotica di
-
Asimov per cui, in teoria, non possono arrecare
-
danno all'uomo.
-
In altre parole, non sappiamo se sia possibile
-
allineare un AGI ai nostri obiettivi.
-
Qualora non ci riuscissimo, ci troveremmo di fronte
-
a due scenari.
-
Il primo più fantascientifico, delle AGI totalmente non
-
allineate, capaci di perseguire i propri imprevedibili scopi,
-
sviluppare capacità come farsi la guerra, pianificare strategie
-
e riprodursi, e diventare senzienti al punto da
-
chiedere dei diritti.
-
Il secondo scenario più probabile è anche quello
-
più inquietante, cioè quello di un AGI male
-
allineata, che persegue sì i nostri scopi ed
-
è programmata in tal modo, ma lo fa
-
in maniera poco ortodossa o iperutilitaristica.
-
Immaginiamo di chiedere a un AGI un'unica
-
cosa, produrre quante più graffette per fogli possibili.
-
È assurdo queste AGI potrebbe decidere di estinguere
-
il genere umano perché questo potrebbe, eventualmente, scegliere
-
di spegnerla, impedendole così di produrre le graffette
-
o perché i corpi umani contengono atomi potenzialmente
-
convertibili in graffette.
-
In sostanza, le AGI delle graffette lavorerebbe per
-
un futuro con miliardi di graffette e zero
-
esseri umani.
-
Secondo Nick Bostrom, il filosofo che ha descritto
-
proprio questo esperimento mentale, scenari simili potrebbero verificarsi
-
qualora a lei A non venisse specificato il
-
valore della vita umana che deve essere prioritario.
-
Ma qui torniamo al problema del livello 1.
-
Chi è che sceglie a cosa dare priorità?
-
Beh, sempre noi umani.
-
Per ora.
-
Ne deriva che la pericolosità di un IA
-
sta sia nelle intenzioni di chi la progetta
-
sia nelle sue capacità.
-
E forse, di tutti i rischi dell'IA,
-
quello che dovrebbe più preoccuparci sono proprio le
-
intenzioni di chi le progetterà in futuro.
-
In chiusura ringrazio ancora una volta NordVPN, lo
-
sponsor che ha reso possibile la realizzazione di
-
questo video e vi ricordo che trovate il
-
link in descrizione.
-
Ciao a tutti.