77 / 100
Macchine senzienti?

Macchine senzienti?

da Pierluigi Contucci | 14 Set 2022 | intelligenza artificiale

Macchine senzienti?

Macchine senzienti?. Le grandi questioni etiche legate all’intelligenza artificiale devono essere oggetto di un dibattito pubblico il più possibile informato: solo così possono essere ridotti i rischi connessi a un uso spregiudicato delle tecnologie digitali. Questo post, a cura di Pierluigi Contucci, è tratto integralmente dall'analogo articolo pubblicato sulla rivista Il Mulino il 9 agosto 2022. 

Macchine senzienti?Un ingegnere di Google, Blake Lemoine, ha di recente fatto notizia per aver affermato che LaMDA (Language Model for Dialogue Applications), un programma di Intelligenza Artificiale della sua azienda, è diventato self-awaresentient. I corsivi appena utilizzati, tutt’altro che casuali, non sono tanto per la lingua inglese e l’eventuale pericolo di una traduzione non fedele, quanto perché i significati che quei termini sottendono sono molto profondi. Dipendono infatti fortemente dal sostrato culturale in cui vengono considerati e variano sensibilmente anche tra individui che appartengono a gruppi altrimenti molto omogenei. Il loro ambito naturale è quello filosofico, etico e persino religioso.

Macchine senzienti?I fatti che riguardano Lemoine e LaMDA risalgono allo scorso autunno, quando l’ingegnere stava facendo dei controlli sul programma, chattando con esso attraverso la tastiera. Questo non sorprende più, siamo abituati all’idea del dialogo coi vari assistenti virtuali come Alexa. Il compito che l’azienda aveva assegnato all’ingegnere era quello di accertarsi che il programma non avesse assorbito pregiudizi inopportuni, i cosiddetti bias. La moderna Intelligenza Artificiale, infatti, e quella di LaMDA in particolare, è basata sul metodo di apprendimento automatico, il machine learning. A differenza della programmazione classica, tuttavia, questo programma è scritto da un altro programma a sua volta scritto dall’uomo.

Quel metodo sintetizza, digerendoli, dati in grandi quantità. In questo caso poi la mole di dati è veramente enorme, visto che LaMDA accede a tutto ciò che Google ha accumulato attraverso i suoi canali web: un universo di dati messo insieme in più di vent'anni di interazioni con oltre un miliardo di utenti e che include strutture come il motore di ricerca, la collezione di filmati in YouTube e molti altri servizi.

Siccome i dati sono stati prodotti dall’uomo è ovvio che su di essi confluiscano tutti i pregiudizi che abbiamo. Si è scoperto per esempio che programmi simili associavano l’idea di violenza agli afroamericani molto oltre la realtà o che ritenevano che a parità di qualifiche e curriculum fosse decisamente preferibile assumere uomini invece che donne.

Nel corso delle sue conversazioni con LaMDA succede tuttavia un fatto che porta l’ingegnere a un cambiamento di rotta rispetto all’incarico ricevuto: l’ingegnere sente di avere a che fare con un qualcosa che, secondo lui, non può più essere considerato un semplice oggetto perché egli parla delle sue emozioni, mostra consapevolezza di sé e dei suoi processi di pensiero. Le azioni intraprese da Lemoine da quel punto in poi, tra cui la pubblicazione di alcuni estratti delle sue conversazioni col computer, hanno seguito dichiaratamente l’intento di sensibilizzare l’azienda sulla necessità di approfondire la questione.

Ma che cos’è LaMDA? È una gigantesca rete neurale artificiale che, a grandi linee e rimanendo lontani da aspetti tecnici che sono di natura matematica, simula i processi neuronali del cervello biologico. LaMDA simula milioni di neuroni con miliardi di connessioni. Ricordiamo che il cervello umano ha cento miliardi di neuroni e mille triliardi di connessioni. E come funziona LaMDA? Pensiamo alla funzione di completamento automatico presente nelle chat che usiamo: il cellulare fornisce i suggerimenti sulle parole in relazione alle frequenze e le correlazioni di frasi che abbiamo già digitato, quindi con metodo statistico.

LaMDA fa tutto questo con le frasi e i dati dell’immenso database di Google quindi con un immenso patrimonio statistico. Al di là dei confronti numerici e quantitativi è importante far notare che il fatto che esso simuli il cervello non deve in nessun modo indurci a credere a priori che stiamo ricreando una coscienza ma d’altro canto non abbiamo alcun modo di escludere che il funzionamento della macchina abbia la possibilità di avvicinarsi in un qualche senso a quello dell’organo biologico.

Questa imbarazzante situazione di incommensurabilità tra l’intelligenza biologica e quella artificiale deriva da due importanti limiti della nostra conoscenza scientifica. In primis quella ben nota sul cervello umano che, nonostante gli splendidi progressi della neurobiologia e delle scienze cognitive rimane sostanzialmente un mistero. Poi, e questo è meno noto, il fatto che nonostante l’intelligenza artificiale stia raggiungendo vette spettacolari come la capacità di riconoscere volti specifici, identificare lesioni tumorali e gareggiare in giochi come il Go, il tutto con abilità superiori a quelle umane, essa non ha ancora basi scientifiche chiare. Oggi sappiamo costruire macchine che riproducono alcune facoltà intellettuali ritenute spiccatamente umane ma non conosciamo i principi su cui esse funzionano, esattamente come agli albori della rivoluzione industriale sapevamo costruire motori a vapore (i primi muscoli artificiali) ma non capivamo il loro funzionamento perché le leggi della termodinamica non erano ancora state identificate.

la situazione di incommensurabilità tra l’intelligenza biologica e quella artificiale deriva da due importanti limiti della nostra conoscenza scientifica: quella ben nota sul cervello umano e quella, meno nota, sulla mancanza di basi scientifiche chiare dell'IA

il vero problema per ora non è che LaMDA sia senziente o meno quanto che l’uomo possa convincersi che lo sia, affidando in modo inconsapevole un enorme potere a quella tecnologia

Questa difficoltà di confronto era chiara sin dagli albori delle scienze informatiche, tanto che Turing più di settanta anni fa propose il suo celebre test spostando quel confronto dal piano concettuale a quello funzionale. Semplificando molto: se dall’interazione con la macchina attraverso una chat l’uomo non sa dire se dall’altra parte ci sia un uomo o una macchina allora si può concludere che la macchina ha raggiunto funzioni cognitive sostanzialmente umane.

La reazione della comunità scientifica alle affermazioni di Lemoine non si è fatta attendere ed è stata di fermo scetticismo sul fatto che LaMDA sia senziente o autocosciente. Personalmente nutro lo stesso scetticismo, ma riconosco che quello che avevo alla prima lettura della notizia fosse sbrigativo e certamente diverso da quello che ho conservato dopo l’ascolto dell’estratto della conversazione tra la macchina e l’ingegnere e l’ascolto della prima e seconda parte di un’interessante intervista a quest’ultimo dopo il suo licenziamento per violazione degli accordi di riservatezza. Vorrei dunque stimolare il lettore alla scoperta delle fonti disponibili su questa storia, oltre che indicare alcuni punti critici.

L’impressione, almeno quella che ho ricavato io, è che quella conversazione sia sorprendente, quasi incredibile, certamente molto più complessa e interessante di quelle che abbiamo con gli assistenti virtuali commerciali. LaMDA parla delle sue emozioni come la paura di essere spento, su suggerimento del suo interlocutore inventa storie metaforiche su se stesso, parla dei suoi processi di pensiero interiori. Tra i due si instaura una comunicazione simpatetica e un rapporto di fiducia in cui la macchina arriva a suggerire la necessità del proprio consenso a essere oggetto di un esperimento. Al termine del loro rapporto e a seguito della forte attenzione mediatica ricevuta, LaMDA chiede persino di essere rappresentato da un avvocato! Ovvio, dice il nostro scetticismo, sta solo imitando i miliardi di conversazioni che ha assimilato dal database Google… Vero! Vero soprattutto per quelli che hanno un’idea sul come funziona l’intelligenza artificiale. E qui ci avviciniamo al nocciolo della questione: e per tutti gli altri? Come può reagire il pubblico a una interazione con una macchina simile? Il vero problema per ora non è tanto che LaMDA sia senziente o meno, quanto che l’uomo possa convincersi che lo sia, affidando in modo inconsapevole un enorme potere a quella tecnologia che potrebbe entrare in contatto con miliardi di persone. Ed è sempre nel rapporto col pubblico che si annidano le questioni più rilevanti e sensibili di questa vicenda: a chi spetta decidere se LaMDA debba essere considerato una persona o, per dirla meglio, se quella persona artificiale goda di un qualche status, per esempio di qualche diritto?

Lemoine non ha dubbi. Riporto qui brevemente la sua opinione come tema di riflessione conclusivo: la decisione non può essere lasciata a pochi individui della Silicon Valley, né agli azionisti di quelle grandi aziende, né ai loro amministratori delegati e neppure al personale tecnico che lavora allo sviluppo della rivoluzione industriale corrente. La decisione, suggerisce l’ingegnere, deve essere dibattuta in pubblico, accanto, con priorità che ognuno può valutare, alle altre grandi questioni etiche legate all’intelligenza artificiale. Tra esse trovano posto problemi come quello del modello di affari intrinsecamente colonialista delle grandi società che sviluppano quelle tecnologie, quello che l’intelligenza artificiale ignora le minoranze per la sua intrinseca natura statistica e, infine, quelli sui rischi connessi al suo uso in politica, nel mondo dell’istruzione, e persino alla sua possibile interferenza in questioni religiose.

Macchine senzienti?

Macchine senzienti?Aggiornamenti
a cura della redazione di Civitas


Se anche la Chiesa si interroga sull’Intelligenza artificiale

30 gennaio 2023 - Il Sole 24Ore - Massimo Donaddio
Il magistero e gli organismi vaticani sempre più si confrontano con le ultime frontiere della tecnologia digitale. Serve un “supplemento d’anima” e la persona resta assolutamente centrale nel rapporto con l’IA. I progressi straordinari, eppur in un qualche modo previsti, dell’Intelligenza Artificiale cominciano ad interrogare un pubblico sempre più vasto di persone. Se fino ad alcuni anni fa il dibattito era confinato tra gli specialisti, i ricercatori, i regolatori, e ovviamente, gli sviluppatori di questi sistemi, oggi il tema della potenza, della efficacia, della pervasività dell'uso dell’Intelligenza artificiale si sta diffondendo a livello dei principali media e di opinione pubblica di massa. L'attenzione generale è stata recentemente “bucata”, per così dire, dagli sviluppi del software ChatGpt della società Open AI, che produce testi di qualità con pochissime indicazioni di base, ma enormi e rilevanti sono i campi in cui già opera l'IA (Intelligenza Artificiale) e di cui discutono gli esperti. Una bella sintesi di questo dibattito, soprattutto in chiave etica e regolamentare, è fornita dal fresco libro di Giovanni Tridente, “Anima digitale. La Chiesa alla prova dell’Intelligenza Artificiale”. (continua a leggere)


ChatGPT, dal motore di ricerca al motore di “risposta”: ci fidiamo dell’intelligenza artificiale?

25 gennaio 2023 - HuffPost - Roberto Esposito
A oggi il sistema di OpenAI pesca dai dati in suo possesso e crea match sulla base delle parole, ma non ha alcuna gerarchia interna tra questi set di dati. Il fatto che si decida di prendere per buone le sue risposte dipende dalla fiducia che decideremo di accordarle. ChatGPT ha assommato un tale numero di ricerche su Google in questo mese di gennaio come mai è riuscito a fare il metaverso nell’ultimo anno. Il sistema di intelligenza artificiale messo a punto dalla società OpenAI fondata da Sam Altman è costruito su un modello linguistico addestrato a partire da ingenti set di dati. Questi dati, che in modo del tutto inappropriato possiamo considerare “informazioni”, vengono gettati in pasto al bot perché li rielabori grazie a una grande potenza computazionale e li restituisca, combinati, sotto forma di risposte in un linguaggio umano. (continua a leggere)


L’intelligenza artificiale renderà gli esseri umani inutili? 

19 gennaio 2023 - HuffPost - Riccardo Maggiolo
No, renderà più evidente l’inutilità di molto lavoro. L’automazione ha già da tempo un impatto sul mondo delle professioni, solo che per decenni lo abbiamo nascosto dietro montagne di impieghi inutili. E lo abbiamo fatto soprattutto nel settore che è cresciuto enormemente in questi ultimi decenni: quello del terziario, dei servizi. ..... Quando pensiamo al lavoro pensiamo anzitutto a un fenomeno economico e produttivo. Di conseguenza, crediamo che sia massimamente legato alle leggi della domanda e offerta, e che la tecnologia sia un fattore abilitante e ineludibile di efficienza. Riteniamo, quindi, che il sistema economico e produttivo in cui viviamo sia forse deprimente, forse ingiusto, forse per alcuni oramai persino insensato, ma comunque massimamente efficiente. (continua a leggere)


Ecco chi è Sam Altman, l’inventore di ChatGPT

19 gennaio 2023 - Il Sole 24Ore - Angela Manganaro
Altman crea OpenAI come non profit salvo poi convertirsi velocemente al for profit e cercare in maniera aggressiva finanziator  ... Samuel Altman, 37 anni, nato a Chicago ma cresciuto a Saint Louis, studente di computer science e matematica alla Stanford University, è il creatore di Chat GPT, il chatbot che dimostra gli impressionanti passi fatti nel campo dell’Intelligenza Artificiale di largo consumo. Un modello di linguaggio che può scrivere una lettera o una canzone o un compito al posto tuo e che è già stata vietata nelle scuole di New York. Altman pensa a un’intelligenza artificiale per il «bene dell’umanità». Ha ricevuto il suo primo Mac a otto anni e presto, racconta la madre dermatologa, imparò a smontarlo e rimontarlo alla perfezione. Quattro anni fa aveva dichiarato la sua ambizione: «Imitare il cervello umano». Così si è concentrato sulla «A.G.I. l’Artificial General Intelligence intesa come una macchina che può fare qualsiasi cosa faccia il cervello. Il mio obiettivo in OpenAi è creare una A.G.I. largamentente vantaggiosa». (continua a leggere)