< Return to Video

Tutti i rischi dell’Intelligenza Artificiale, dal più stupido al più pericoloso

  • 0:00 - 0:01
    Eh no, questo video non è girato con
  • 0:01 - 0:03
    una voce artificiale, ma con la mia, che
  • 0:03 - 0:04
    è una voce naturale.
  • 0:04 - 0:05
    Però grazie a tutti quelli che nei commenti
  • 0:05 - 0:07
    ogni tanto scrivono che i miei video sono
  • 0:07 - 0:10
    fatti con un IA, perché credo sia un
  • 0:10 - 0:10
    complimento.
  • 0:11 - 0:12
    Spero.
  • 0:12 - 0:14
    Le intelligenze artificiali ci ruberanno il lavoro.
  • 0:14 - 0:16
    Quante volte lo abbiamo sentito dire.
  • 0:16 - 0:18
    Da un lato si tratta di una prospettiva
  • 0:18 - 0:21
    inquietante, ma dall'altro indicherebbe un grande progresso
  • 0:21 - 0:24
    tecnologico del genere umano, che potrebbe portarci in
  • 0:24 - 0:26
    futuro a faticare di meno e forse a
  • 0:26 - 0:27
    migliorare il nostro pianeta.
  • 0:27 - 0:29
    Quel che dobbiamo sapere, comunque, è che ci
  • 0:29 - 0:32
    ruberanno il lavoro è soltanto uno dei rischi
  • 0:32 - 0:34
    posti dalle intelligenze artificiali.
  • 0:34 - 0:37
    Questi rischi spaziano dagli scenari alla Io Robot,
  • 0:37 - 0:39
    in stile macchine che si rivoltano contro
  • 0:39 - 0:42
    l'uomo, a quelli alla Zio Turiddu che si
  • 0:42 - 0:44
    lamenta perché suo nipote scrive il tema
  • 0:44 - 0:46
    d'italiano con l'aiuto di chat GPT.
  • 0:46 - 0:49
    Anche se, in questi casi, Zio Turiddu potrebbe
  • 0:49 - 0:50
    non essere totalmente fuoristrada.
  • 0:51 - 0:52
    Ma, ci arriviamo.
  • 0:52 - 0:55
    Oggi parliamo di rischi seri, concreti e dilemmi
  • 0:55 - 0:56
    etici da non sottovalutare.
  • 0:57 - 1:00
    E, fidatevi, questo video potrebbe cambiare totalmente le
  • 1:00 - 1:02
    vostre percezioni sull'intelligenza artificiale.
  • 1:02 - 1:03
    O forse no.
  • 1:03 - 1:05
    Ma comunque, vale la pena parlarne.
  • 1:14 - 1:17
    Il tredici giugno duemilaventiquattro il Parlamento Europeo ha
  • 1:17 - 1:19
    varato il cosiddetto AI Act.
  • 1:19 - 1:22
    Centoquarantaquattro pagine di testo mirate a regolamentare lo
  • 1:22 - 1:24
    sviluppo e l'utilizzo delle intelligenze artificiali
  • 1:24 - 1:25
    a livello comunitario.
  • 1:25 - 1:28
    Questa legge è il primo quadro giuridico mai
  • 1:28 - 1:31
    realizzato sull'IA a livello mondiale, nonché la
  • 1:31 - 1:33
    prima a prendere in considerazione che l'IA
  • 1:33 - 1:35
    in quanto tale possa rappresentare anche un pericolo.
  • 1:36 - 1:38
    In tal senso, l'AI Act riconosce quattro
  • 1:38 - 1:40
    livelli di rischio delle intelligenze artificiali, dal più
  • 1:40 - 1:42
    trascurabile al più preoccupante.
  • 1:43 - 1:45
    Il rischio minimo riguarda le IA più usate,
  • 1:45 - 1:48
    quindi assistenti vocali, filtri antispam o algoritmi dei
  • 1:48 - 1:49
    vari social network.
  • 1:50 - 1:53
    Il rischio limitato, altresì detto di trasparenza, interessa
  • 1:53 - 1:55
    le IA che possono fingere o tramite le
  • 1:55 - 1:58
    quali si può fingere di essere umani, quindi
  • 1:58 - 2:01
    i chatbot e le intelligenze artificiali generative, che
  • 2:01 - 2:04
    possono favorire truffe e potenzialmente rimpiazzare artisti e
  • 2:04 - 2:05
    professionisti.
  • 2:06 - 2:08
    Il rischio elevato, invece, ha a che fare
  • 2:08 - 2:11
    con IA con contesti e settori ben specifici,
  • 2:11 - 2:15
    trasporti, ospedali, scuole, assistenza giudiziaria, risorse umane, servizi
  • 2:15 - 2:18
    pubblici e bancari, gestione delle richieste d'asilo.
  • 2:18 - 2:20
    Per l'UE, in questi casi, le IA
  • 2:20 - 2:23
    vanno a prendere decisioni dirette su degli esseri
  • 2:23 - 2:26
    umani e perciò necessitano di un controllo umano.
  • 2:26 - 2:29
    Per finire, il rischio inaccettabile considera le IA
  • 2:29 - 2:31
    che minacciano e manipolano gli umani, come sistemi
  • 2:31 - 2:34
    per valutare il punteggio sociale, identificazione biometrica in
  • 2:34 - 2:37
    tempo reale e qualsiasi strumento abbia un impatto
  • 2:37 - 2:40
    cognitivo sulle categorie vulnerabili, come i bambini.
  • 2:40 - 2:42
    Tipo un pupazzo che incoraggia il nipote di
  • 2:42 - 2:44
    zio Turiddu a muovere un esercito alla conquista
  • 2:44 - 2:46
    della sua scuola elementare.
  • 2:46 - 2:48
    Insomma, la piramide del rischio dell' AI Act
  • 2:48 - 2:50
    non prende in considerazione il fatto che le
  • 2:50 - 2:54
    macchine possano ribellarsi, quanto piuttosto che facciano esattamente
  • 2:54 - 2:55
    quello che chiediamo loro.
  • 2:56 - 2:57
    Ed è proprio qui che ci si apre
  • 2:57 - 2:59
    un mondo di possibilità inquietanti.
  • 3:04 - 3:06
    In parole povere, un'intelligenza artificiale è una
  • 3:06 - 3:08
    tecnologia che permette a una macchina di svolgere
  • 3:08 - 3:11
    compiti e simulare i comportamenti degli esseri umani.
  • 3:11 - 3:14
    Per far funzionare un'IA bisogna innanzitutto individuare
  • 3:14 - 3:16
    un problema, determinare il risultato che si vuole
  • 3:16 - 3:19
    ottenere e scegliere un set di dati da
  • 3:19 - 3:21
    cui l'IA stessa deve attingere.
  • 3:21 - 3:24
    Il nostro, ormai, è un mondo fatto di
  • 3:24 - 3:26
    dati e più dati un'intelligenza artificiale ha
  • 3:26 - 3:28
    da analizzare, più è in grado di prendere
  • 3:28 - 3:30
    decisioni per noi sensate.
  • 3:30 - 3:32
    Ma proprio perché questi dati vengono prodotti da
  • 3:32 - 3:33
    noi umani, c'è il rischio che le
  • 3:33 - 3:37
    intelligenze artificiali, in un certo senso, pensino come
  • 3:37 - 3:37
    pensiamo noi.
  • 3:38 - 3:39
    Sulla base di questo assunto, l'MIT di
  • 3:39 - 3:42
    Boston ha elaborato un database che caratterizza circa
  • 3:42 - 3:44
    settecento rischi dell'IA in sette livelli.
  • 3:45 - 3:47
    Se sovrapponiamo questi livelli alla piramide del rischio
  • 3:47 - 3:50
    dell'AI Act, otteniamo dei gradi di pericolosità
  • 3:50 - 3:52
    crescente che vanno da uno, il meno pericoloso,
  • 3:53 - 3:55
    a sette, che rappresenta il pericolo massimo.
  • 3:55 - 3:57
    In questa scala, la pericolosità è data dalla
  • 3:57 - 4:01
    controllabilità del rischio, cioè dalla capacità umana di
  • 4:01 - 4:02
    porre un qualche freno alle IA.
  • 4:03 - 4:05
    Prima di cominciare, forse, non vi farà piacere
  • 4:05 - 4:07
    sapere che al momento ci troviamo da qualche
  • 4:07 - 4:09
    parte tra il quarto e il quinto livello.
  • 4:10 - 4:12
    Ma vediamo cos'è che significa tutto questo.
  • 4:16 - 4:18
    In quanto basata su dei dati umani,
  • 4:18 - 4:22
    un'intelligenza artificiale può produrre una spiacevole conseguenza.
  • 4:22 - 4:24
    Discriminare le persone, arrivando a escluderle da alcuni
  • 4:24 - 4:26
    meccanismi della società.
  • 4:26 - 4:28
    Per esempio, se la Evil Lectio Corp volesse
  • 4:28 - 4:31
    assumere dieci dipendenti e delegasse questo compito a
  • 4:31 - 4:34
    un sistema di risorse umane automatizzato, è possibile
  • 4:34 - 4:36
    che questo prediliga a priori candidati bianchi, sui
  • 4:36 - 4:40
    35 anni, sbarbati, nonostante il sistema stesso non
  • 4:40 - 4:42
    sia stato impostato per fare preferenze simili.
  • 4:42 - 4:44
    Il problema è che l'IA della Evil
  • 4:44 - 4:46
    Lectio, in base ai dati che gli sono
  • 4:46 - 4:48
    stati dati in passato, potrebbe essere portato a
  • 4:48 - 4:50
    dare più peso all'aspetto di un candidato
  • 4:50 - 4:52
    che alle sue qualifiche.
  • 4:52 - 4:54
    Proprio come potrebbe fare un umano.
  • 4:55 - 4:57
    Ragionando per assurdo, un'IA potrebbe negare un
  • 4:57 - 4:59
    mutuo o far arrestare una persona.
  • 4:59 - 5:02
    In realtà, già nel duemilaventuno in Massachusetts,
  • 5:02 - 5:05
    l'IA della Safe Rent Solutions, una sorta di
  • 5:05 - 5:08
    agenzia che permette di recensire affittuari e inquilini,
  • 5:08 - 5:11
    aveva rigettato le richieste di affitto solamente di
  • 5:11 - 5:11
    persone nere.
  • 5:12 - 5:13
    Ma portiamo questo concetto all'estremo.
  • 5:13 - 5:16
    Se un'automobile a guida autonoma si trovasse
  • 5:16 - 5:18
    su un rettilineo e all'improvviso si lanciasse
  • 5:18 - 5:21
    una vecchietta sull'attraversamento, cos'è che farebbe?
  • 5:21 - 5:24
    Sterzerebbe per evitare la vecchietta, rischiando di uccidere
  • 5:24 - 5:26
    qualcun altro sul marciapiede, o valuterebbe che alla
  • 5:26 - 5:28
    vecchietta non manca molto da vivere e che
  • 5:28 - 5:31
    quindi è preferibile uccidere lei piuttosto che qualcun
  • 5:31 - 5:32
    altro nelle vicinanze.
  • 5:32 - 5:35
    Inoltre, è inevitabile che certi sistemi di intelligenza
  • 5:35 - 5:37
    artificiale siano più costosi di altri e che
  • 5:37 - 5:39
    quindi non tutti possano permetterseli.
  • 5:39 - 5:42
    Immaginiamo un sistema di domotica fantascientifico che è
  • 5:42 - 5:44
    in grado di capire cosa ci manca nel
  • 5:44 - 5:45
    frigo e nella dispensa.
  • 5:45 - 5:47
    È capace di acquistare di conseguenza quel che
  • 5:47 - 5:50
    ci serve online e di farcelo arrivare a
  • 5:50 - 5:51
    casa, risparmiando un sacco di tempo.
  • 5:52 - 5:55
    Per lo meno inizialmente, questo sistema sarà costosissimo.
  • 5:55 - 5:57
    Chi potrà permetterselo renderà meno stressante la sua
  • 5:57 - 5:59
    giornata, ma chi non avrà i soldi per
  • 5:59 - 6:02
    comprarlo non beneficerebbe di una cosa che sa
  • 6:02 - 6:04
    che esiste e che gli migliorerebbe la vita.
  • 6:04 - 6:06
    Provate a riportare questi assunti in ogni ambito
  • 6:06 - 6:08
    della società, dal sistema sanitario a quello educativo.
  • 6:08 - 6:10
    Non è il massimo, vero?
  • 6:14 - 6:16
    Che le si progetti o meno, con scopi
  • 6:16 - 6:19
    malevoli, l'utilizzo delle intelligenze artificiali può effettivamente
  • 6:19 - 6:21
    portare alla violazione di privacy e diritti.
  • 6:22 - 6:23
    Tanto per cominciare, non è da escludere che
  • 6:23 - 6:26
    un'IA possa inavvertitamente divulgare dati o informazioni
  • 6:26 - 6:29
    personali, magari gli stessi che la Evil Lectio Corp
  • 6:29 - 6:32
    ha estrapolato dai suoi dipendenti per «allenare» le
  • 6:32 - 6:35
    sue risorse umane e artificiali, oppure, ancora peggio,
  • 6:35 - 6:37
    quelli di un'amministrazione pubblica.
  • 6:37 - 6:39
    Contestualmente, si può dare in pasto a
  • 6:39 - 6:41
    un'IA generativa o un testo protetto da proprietà
  • 6:41 - 6:44
    intellettuale e questa potrebbe replicarlo e distribuirlo aggirando
  • 6:44 - 6:47
    il copyright, oppure persino una voce.
  • 6:47 - 6:50
    Nel maggio del duemilaventiquattro, l'attrice Scarlett Johansson
  • 6:50 - 6:53
    ha accusato ChatGPT di aver creato un assistente
  • 6:53 - 6:55
    vocale, Sky, dotandolo della sua voce.
  • 6:56 - 6:59
    Secondo OpenAI, la società madre di ChatGPT,
  • 6:59 - 7:01
    si trattava soltanto di una forte somiglianza,
  • 7:01 - 7:03
    ma l'azienda, ha poi rimosso l'assistente vocale.
  • 7:04 - 7:07
    Ancora, un hacker potrebbe istruire un'intelligenza artificiale
  • 7:07 - 7:10
    a compiere un attacco informatico volto a rubare i dati di uno
  • 7:10 - 7:12
    o più individui, di un'azienda o di uno
  • 7:12 - 7:13
    Stato.
  • 7:13 - 7:16
    Allo stesso modo, un'intelligenza artificiale, se presenta
  • 7:16 - 7:18
    delle falle, può venire a sua volta attaccata
  • 7:18 - 7:20
    da qualche hacker e da lì manipolata per
  • 7:20 - 7:23
    agire in maniera malevola, ad esempio rubando dati.
  • 7:23 - 7:26
    Questi rischi nel mondo contemporaneo sono sempre più
  • 7:26 - 7:28
    frequenti e per difendersi è bene dotarsi degli
  • 7:28 - 7:31
    strumenti giusti, come NordVPN, lo sponsor che ringrazio,
  • 7:31 - 7:34
    come sempre, per permettere la realizzazione di questi
  • 7:34 - 7:35
    video a tema informatica e tech.
  • 7:35 - 7:38
    Le truffe, ad esempio, possono presentarsi sotto forma
  • 7:38 - 7:40
    di siti web fasulli o file che, in
  • 7:40 - 7:43
    realtà, una volta aperti o scaricati, contengono malware
  • 7:43 - 7:45
    capaci di infettare i vostri dispositivi.
  • 7:45 - 7:48
    Grazie a Threat Protection, NordVPN vi mette in
  • 7:48 - 7:50
    guardia in anticipo, mentre protegge la vostra connessione
  • 7:50 - 7:52
    quando siete connessi a rete Wi-Fi pubbliche
  • 7:52 - 7:54
    di piazze, aeroporti o hotel, fino a un
  • 7:54 - 7:57
    massimo di 10 dispositivi contemporaneamente.
  • 7:57 - 7:59
    Se poi la vostra mail associata all'account
  • 7:59 - 8:03
    NordVPN dovesse malauguratamente finire nel Dark Web, NordVPN
  • 8:03 - 8:06
    ve lo notificherebbe all'istante, permettendovi di prendere
  • 8:06 - 8:08
    tutte le contromisure necessarie.
  • 8:08 - 8:10
    E se siete all'estero e volete utilizzare
  • 8:10 - 8:12
    una qualsiasi IA bloccata nel paese in cui
  • 8:12 - 8:15
    vi trovate, potrete sempre ricorrere alla geolocalizzazione, mascherando
  • 8:15 - 8:18
    il vostro indirizzo IP, infatti, potete connettervi a
  • 8:18 - 8:22
    uno dei più di settemilacento server di NordVPN
  • 8:22 - 8:24
    sparsi in centodiciotto location diverse.
  • 8:24 - 8:26
    La geolocalizzazione vi aiuta sia a usufruire di
  • 8:26 - 8:29
    contenuti che magari non sono disponibili in Italia
  • 8:29 - 8:31
    o all'estero e anche ad evitare le
  • 8:31 - 8:33
    discriminazioni di prezzi, quel fenomeno per cui i
  • 8:33 - 8:35
    beni e i servizi costano di più in
  • 8:35 - 8:37
    base al livello di ricchezza dello stato in
  • 8:37 - 8:38
    cui li si acquista.
  • 8:38 - 8:40
    Il tutto nel totale rispetto della vostra privacy,
  • 8:40 - 8:44
    perché NordVPN non conserva i vostri dati, né
  • 8:44 - 8:45
    avrebbe la possibilità di farlo.
  • 8:46 - 8:48
    Per sfruttare tutte le potenzialità di NordVPN e
  • 8:48 - 8:50
    iniziare a dare finalmente valore alla vostra privacy,
  • 8:50 - 8:53
    vi basta cliccare sul link in descrizione per
  • 8:53 - 8:55
    ottenere uno sconto esclusivo targato Nova Lectio.
  • 8:55 - 8:57
    Ora, passiamo al livello successivo.
  • 9:02 - 9:04
    Qui c'è poco da dire.
  • 9:04 - 9:07
    Abbiamo già parlato ampiamente della disinformazione online e
  • 9:07 - 9:09
    dei metodi con cui è possibile crearla e
  • 9:09 - 9:11
    diffonderla, e farla anche franca.
  • 9:11 - 9:13
    Quando un'IA arriva a produrre in maniera
  • 9:13 - 9:15
    efficiente migliaia di account falsi, per manipolare
  • 9:15 - 9:18
    l'opinione pubblica e diffondere fake news e deepfake,
  • 9:18 - 9:20
    diventa tutto più comodo.
  • 9:20 - 9:22
    Lo stesso microtargeting, cioè quella strategia di marketing
  • 9:22 - 9:25
    che personalizza gli annunci in base a dati
  • 9:25 - 9:29
    e comportamenti individuali, rappresenta un rischio, così come
  • 9:29 - 9:31
    lo sono la sorveglianza di massa e le
  • 9:31 - 9:33
    tattiche di cyber-guerra, che includono l'utilizzo
  • 9:33 - 9:36
    di malware intelligenti capaci di distruggere interi sistemi
  • 9:36 - 9:39
    informatici, ma anche l'impiego di sistemi LAW,
  • 9:39 - 9:41
    che sta per Lethal Autonomous Weapons, cioè
  • 9:41 - 9:44
    armi come alcuni droni che individuano da sole
  • 9:44 - 9:45
    i loro bersagli.
  • 9:45 - 9:48
    Questa realtà, purtroppo, la stiamo già vivendo, e
  • 9:48 - 9:51
    il prossimo livello potrebbe già rappresentare un punto
  • 9:51 - 9:51
    di non ritorno.
  • 9:56 - 9:58
    È arrivato il momento di gloria di Turiddu.
  • 9:58 - 10:00
    Suo nipote, facendosi scrivere il tema d'italiano
  • 10:00 - 10:02
    da chat GPT, sta, uno, affidandosi a una
  • 10:02 - 10:05
    macchina e, due, sacrificando la sua autonomia.
  • 10:05 - 10:07
    Lo so, pensate di stare ascoltando il classico
  • 10:07 - 10:10
    discorso da boomer, eppure non c'è libro
  • 10:10 - 10:12
    o articolo sulle intelligenze artificiali che non citi
  • 10:12 - 10:14
    il rischio, per l'uomo, di vedere erose
  • 10:14 - 10:16
    le sue capacità decisionali e il suo spirito
  • 10:16 - 10:18
    critico nei campi più disparati.
  • 10:19 - 10:22
    A tal proposito, l'MIT indica due sottorischi diversi.
  • 10:22 - 10:24
    Il primo è riconoscere all'IA delle caratteristiche
  • 10:24 - 10:26
    umane, arrivando a fidarsi di lei come fosse
  • 10:26 - 10:29
    un'amica, diciamo, e in casi estremi a
  • 10:29 - 10:30
    prendere decisioni da lei suggerite.
  • 10:30 - 10:33
    Nell'ottobre del duemilaventiquattro, ad esempio, una madre
  • 10:33 - 10:36
    ha fatto causa a Character AI, chatbot che,
  • 10:36 - 10:38
    secondo lei, avrebbe spinto suo figlio di quattordici
  • 10:38 - 10:40
    anni a isolarsi e poi a suicidarsi.
  • 10:40 - 10:43
    Il secondo sottorischio riguarda la dipendenza che si
  • 10:43 - 10:45
    potrebbe sviluppare nei confronti di una o più
  • 10:45 - 10:48
    intelligenze artificiali, sia a scuola ma anche
  • 10:48 - 10:51
    a casa e al lavoro, per delegare compiti noiosi
  • 10:51 - 10:52
    o creativi.
  • 10:52 - 10:53
    Ed è da questo livello di rischio che
  • 10:53 - 10:56
    possiamo cominciare a parlare di «ci ruberanno il
  • 10:56 - 10:56
    lavoro».
  • 10:56 - 10:58
    Del resto, un'IA è più efficiente di
  • 10:58 - 11:00
    un umano in quasi tutti i casi, lavora
  • 11:00 - 11:03
    ventiquattro ore su ventiquattro, senza stancarsi, non ha
  • 11:03 - 11:05
    bisogno di cibo, tant'è che alcuni stimano
  • 11:05 - 11:08
    che, entro il duemilatrenta, le IA rimpiazzeranno tra
  • 11:08 - 11:10
    le decine e le centinaia di milioni di
  • 11:10 - 11:12
    posti di lavoro a livello mondiale, e dentro
  • 11:12 - 11:15
    il duemilaquaranta il trenta percento di tutti i
  • 11:15 - 11:16
    lavori sarà automatizzato.
  • 11:16 - 11:19
    In una visione utopistica, una completa automazione del
  • 11:19 - 11:22
    lavoro vorrà dire reddito universale per tutti, ma,
  • 11:22 - 11:25
    in una visione distopica, potrebbe significare che le
  • 11:25 - 11:27
    macchine prenderanno il sopravvento.
  • 11:32 - 11:34
    L'eccessiva fiducia nei confronti di un'intelligenza
  • 11:34 - 11:37
    artificiale può portare a considerare indiscutibile il suo
  • 11:37 - 11:39
    giudizio, e se questo è pericoloso per dei
  • 11:39 - 11:41
    singoli individui, lo è ancora di più quando
  • 11:41 - 11:43
    l'IA viene utilizzata dal governo di uno
  • 11:43 - 11:44
    Stato.
  • 11:44 - 11:47
    L'uso delle intelligenze artificiali potrebbe favorire censura
  • 11:47 - 11:50
    e sorveglianza, negare servizi pubblici a determinati individui
  • 11:50 - 11:53
    e, in sostanza, fare gli interessi di un
  • 11:53 - 11:54
    gruppo ristretto.
  • 11:54 - 11:56
    Già nel duemiladiciotto si era cominciato a parlare
  • 11:56 - 12:00
    di "dittatura dell'IA", concetto introdotto da niente
  • 12:00 - 12:01
    di meno che Elone Muschio, Elon Musk.
  • 12:03 - 12:05
    Tutt'oggi, Musk è contrario alla decisione di
  • 12:05 - 12:08
    Sam Altman, CEO di OpenAI, di trasformare la
  • 12:08 - 12:10
    società, nata come organizzazione di ricerca no profit,
  • 12:11 - 12:13
    in un'azienda vera e propria nell'immediato
  • 12:13 - 12:13
    futuro.
  • 12:14 - 12:15
    La preoccupazione di Musk sta nel fatto che
  • 12:15 - 12:18
    l'obiettivo primario di OpenAI è la creazione
  • 12:18 - 12:21
    di un AGI, un'intelligenza artificiale generale.
  • 12:21 - 12:23
    Sia nel mondo della fantascienza che in quello
  • 12:23 - 12:26
    reale, un AGI sarebbe una macchina capace di
  • 12:26 - 12:29
    superare le capacità umane in ogni campo e,
  • 12:29 - 12:31
    secondo esperti del settore ed ex-dipendenti della
  • 12:31 - 12:34
    stessa OpenAI, non è da escludere che potremmo
  • 12:34 - 12:36
    vederne emergere una già nel duemilaventotto.
  • 12:36 - 12:38
    E sembra una cosa secondaria, ma non lo è.
  • 12:38 - 12:42
    Per funzionare, le intelligenze artificiali non mangiano, è
  • 12:42 - 12:44
    vero, ma necessitano di server e di energia.
  • 12:45 - 12:47
    Più le IA diventeranno potenti, più ci sarà
  • 12:47 - 12:50
    bisogno di materiali come nickel, cobalto e litio
  • 12:50 - 12:52
    per realizzare le CPU e maggiore sarà il
  • 12:52 - 12:55
    calore prodotto dai datacenter, che richiederanno dunque sistemi
  • 12:55 - 12:57
    di raffreddamento sempre più energivori.
  • 12:57 - 13:00
    Il rischio è che le AGI vengano sviluppate
  • 13:00 - 13:03
    soltanto da paesi geopoliticamente rilevanti come Stati Uniti
  • 13:03 - 13:05
    e Cina, i pochi che avrebbero fondi e
  • 13:05 - 13:08
    risorse necessarie, creando un divario ancora più grande
  • 13:08 - 13:11
    con il resto della comunità internazionale, ma potenzialmente
  • 13:11 - 13:14
    anche delegando le proprie decisioni in materia bellica
  • 13:14 - 13:15
    alle stesse AGI.
  • 13:20 - 13:23
    Nel duemilaventi, il programmatore americano Brian Christian pubblicava
  • 13:23 - 13:25
    un libro destinato a far discutere.
  • 13:25 - 13:26
    The Alignment Problem.
  • 13:26 - 13:28
    Il problema dell'allineamento è il seguente.
  • 13:28 - 13:30
    Non sappiamo se una volta nate le AGI
  • 13:30 - 13:32
    rispetteranno le famose tre leggi della robotica di
  • 13:32 - 13:35
    Asimov per cui, in teoria, non possono arrecare
  • 13:35 - 13:36
    danno all'uomo.
  • 13:36 - 13:38
    In altre parole, non sappiamo se sia possibile
  • 13:38 - 13:40
    allineare un AGI ai nostri obiettivi.
  • 13:41 - 13:43
    Qualora non ci riuscissimo, ci troveremmo di fronte
  • 13:43 - 13:43
    a due scenari.
  • 13:44 - 13:47
    Il primo più fantascientifico, delle AGI totalmente non
  • 13:47 - 13:50
    allineate, capaci di perseguire i propri imprevedibili scopi,
  • 13:50 - 13:54
    sviluppare capacità come farsi la guerra, pianificare strategie
  • 13:54 - 13:57
    e riprodursi, e diventare senzienti al punto
  • 13:57 - 13:58
    da chiedere dei diritti.
  • 13:58 - 14:00
    Il secondo scenario più probabile è anche quello
  • 14:00 - 14:03
    più inquietante, cioè quello di un AGI male
  • 14:03 - 14:05
    allineata, che persegue sì i nostri scopi ed
  • 14:05 - 14:07
    è programmata in tal modo, ma lo fa
  • 14:07 - 14:10
    in maniera poco ortodossa o iperutilitaristica.
  • 14:11 - 14:13
    Immaginiamo di chiedere a un AGI un'unica
  • 14:13 - 14:16
    cosa, produrre quante più graffette per fogli possibili.
  • 14:16 - 14:18
    È assurdo queste AGI potrebbe decidere di estinguere
  • 14:18 - 14:21
    il genere umano perché questo potrebbe, eventualmente, scegliere
  • 14:21 - 14:24
    di spegnerla, impedendole così di produrre le graffette
  • 14:24 - 14:27
    o perché i corpi umani contengono atomi potenzialmente
  • 14:27 - 14:29
    convertibili in graffette.
  • 14:29 - 14:32
    In sostanza, le AGI delle graffette lavorerebbe per
  • 14:32 - 14:34
    un futuro con miliardi di graffette e zero
  • 14:34 - 14:35
    esseri umani.
  • 14:35 - 14:38
    Secondo Nick Bostrom, il filosofo che ha descritto
  • 14:38 - 14:41
    proprio questo esperimento mentale, scenari simili potrebbero verificarsi
  • 14:41 - 14:44
    qualora alle IA non venisse specificato il
  • 14:44 - 14:46
    valore della vita umana che deve essere prioritario.
  • 14:47 - 14:49
    Ma qui torniamo al problema del livello uno.
  • 14:49 - 14:52
    Chi è che sceglie a cosa dare priorità?
  • 14:52 - 14:54
    Beh, sempre noi umani.
  • 14:54 - 14:55
    Per ora.
  • 14:55 - 14:57
    Ne deriva che la pericolosità di un IA
  • 14:57 - 14:59
    sta sia nelle intenzioni di chi la progetta
  • 14:59 - 15:01
    sia nelle sue capacità.
  • 15:01 - 15:03
    E forse, di tutti i rischi dell'IA,
  • 15:03 - 15:05
    quello che dovrebbe più preoccuparci sono proprio le
  • 15:05 - 15:07
    intenzioni di chi le progetterà in futuro.
  • 15:08 - 15:11
    In chiusura ringrazio ancora una volta NordVPN, lo
  • 15:11 - 15:13
    sponsor che ha reso possibile la realizzazione di
  • 15:13 - 15:14
    questo video e vi ricordo che trovate il
  • 15:14 - 15:15
    link in descrizione.
  • 15:16 - 15:16
    Ciao a tutti.
Title:
Tutti i rischi dell’Intelligenza Artificiale, dal più stupido al più pericoloso
Description:

more » « less
Video Language:
Italian
Duration:
15:18

Italian subtitles

Revisions Compare revisions