Intelligenza artificiale e tecnologie: maneggiare con “cura”
La tecnologia salva le vite, come ha dimostrato con ferocia l’attualità degli ultimi anni. Tuttavia va governata, se l’essere umano non vuole rinunciare alla propria umanità.
Intervista a Paolo Volontè, coordinatore di Meta, Unità di studi umanistici e sociali su scienza e tecnologia del Politecnico di Milano.
L’algoritmo di gestione di una compagnia aerea che in occasione delle festività raddoppia il prezzo dei voli perché è stato creato per aumentare quando la domanda cresce; la previsione del rischio di contrarre malattie, che senz’altro consente efficaci terapie preventive ma può al contempo aumentare o addirittura impedire la stipulazione di una polizza assicurativa… Dalla salute ai trasporti, la tecnologia è diventata pervasiva nella vita dell’uomo e ne orienta le scelte, in modo più o meno consapevole, e sempre più spesso ci si affida agli algoritmi in molti aspetti della vita quotidiana. I più pensano che si tratti di procedure automatiche e quindi neutrali. Niente di più sbagliato: gli algoritmi sono scritti da esseri umani e il rischio è che codifichino anche i pregiudizi dell’uomo e incorporino sessismo, razzismo e altre forme di discriminazione. “L’intelligenza artificiale ha cominciato ad avere successo nel momento in cui si è riusciti a separare la capacità di risolvere un problema o portare a termine un compito dalla necessità di essere intelligenti per farlo. Per questo noi di META stiamo portando avanti un programma di progressivo inserimento di filosofi e scienziati sociali nei gruppi di ricerca”, spiega il sociologo Paolo Volontè, coordinatore di Meta, Unità di studi umanistici e sociali su scienza e tecnologia del Politecnico di Milano, nell’ambito dell’incontro Intelligenza artificiale e tecnologie: maneggiare con “cura”, che si è tenuto il 19 giugno presso La Nostra Famiglia di Bosisio Parini.
Professore, ci hanno sempre detto che la tecnologia non è né buona né cattiva, dipende dall’uso che se ne fa. E’ così?
La tecnologia non è solo un mezzo per raggiungere dei fini e quindi non è eticamente neutrale. Faccio un esempio con una tecnologia sviluppata un secolo fa, per nulla digitale, ma che per certi aspetti deve rappresentare il faro guida quando si parla di etica della tecnologia: la camera a gas, usata nel secolo scorso negli Stati Uniti per eseguire le pene capitali e poi perfezionata dai nazisti per l’annientamento in massa di intere porzioni di popolazione la cui vita “non era degna di essere vissuta”. Ecco, la camera a gas è un esempio di ingegno umano applicato alla soluzione di un problema tecnico. Nel caso dei nazisti: come annientare milioni di vite senza suscitare resistenza nei morituri o nei loro carnefici, e senza spendere un patrimonio in cartucce.
Quindi il fatto che una tecnologia funzioni, e funzioni bene, non basta per dire che costituisce un progresso…
Di fronte a tecnologie ben funzionanti dobbiamo sempre porci anche qualche domanda aggiuntiva. Dobbiamo chiederci non solo come viene usata, ma anche come è stata progettata, che forma le è stata data, quali caratteristiche le sono state conferite: a chi serve? A che cosa serve? Quali effetti produce?
Però lo sviluppo tecnologico allevia la fatica...
Certo, ogni nuovo passo avanti nello sviluppo di nuove tecnologie serve a delegare alla macchina la fatica umana: la fatica di lavorare, di tenere pulita la casa, accendere il fuoco, guidare. Ma ogni nuova delega di fatica alla macchina comporta anche una parallela delega della nostra capacità di prendere decisioni, fare scelte, esercitare la nostra responsabilità. L’essere umano cede alla macchina una porzione della propria moralità, vale a dire, della propria umanità. L’arma consente di non dover uccidere con le proprie mani. L’algoritmo del motore di ricerca ci aiuta a standardizzare la scelta quando facciamo la spesa, su Amazon tanto quanto sul sito di Esselunga. L’intelligenza artificiale ci consente di decidere chi merita le nostre cure e chi è spacciato, senza doverlo guardare in faccia.
Deleghiamo al dispositivo tecnologico la nostra libertà di agire legalmente o illegalmente, moralmente o immoralmente; gli chiediamo di disciplinarci, di disciplinare il nostro comportamento. E in questo modo ci spogliamo, in parte, della nostra moralità.
Sono soprattutto le tecnologie digitali a porci in allerta?
Certo. Nelle forme più diverse, le tecnologie emergenti stanno invadendo ambiti classici della moralità umana. Un paio di esempi: ci stiamo riempiendo le case e la vita di dispositivi che costantemente ci ascoltano e ci guardano. In sé questo non è un problema, il problema è che la sicurezza di questi dispositivi contro l’hackeraggio non è un tema di marketing e quindi non è un oggetto di preoccupazione per i costruttori. Pensiamo anche alla salute: le tecnologie di auto-monitoraggio si vendono nel quadro di una visione salutista della vita, in cui il benessere corporeo è sorvegliato e quantificato al servizio di un’ideologia sociale improntata all’efficienza, alla produttività, alla competizione… Da sempre l’essere umano ha trovato nella tecnologia il completamento non solo della propria struttura fisica, ma anche della propria statura morale. Ma il problema si ingigantisce man mano che la tecnologia diventa sempre più pervasiva nell’esistenza quotidiana delle persone.
Ma di chi è la responsabilità, di chi usa la tecnologia o di chi la inventa?
Entrambi devono sentirsi responsabili non solo del buon funzionamento delle tecnologie, ma anche delle loro conseguenze. Ma soprattutto chi sviluppa la tecnologia, e in particolare le tecnologie digitali, non può più far finta di niente e ignorare che il prodotto del suo ingegno influirà sulla vita e la condotta delle persone. L’ingegnere e il progettista non possono trascurare la responsabilità morale per ciò che professionalmente fanno.
Il problema non è più l’eccezione: la bomba atomica, il nucleare… Il problema è la regola: la ricerca di informazioni, la selezione dei dipendenti di un’azienda, il nostro rapporto con la polizia, i sistemi di cura e di assicurazione, ecc. Non possiamo più limitarci a considerare l’uso che viene fatto della tecnologia.
Sempre più spesso osserviamo, anche in ambito medico, forme di discriminazione che derivano non da come un sistema tecnologico è utilizzato, ma da come è stato sviluppato, da come ha appreso a osservare il mondo: quando i dataset usati per il machine learning classificano due tipi di genere (maschile e femminile) e cinque o sei categorie etniche, la discriminazione è già stata strutturata dentro tutti gli algoritmi che la macchina riuscirà a produrre.
Moltissimi sistemi informatici si basano sulla classificazione dei dati in categorie, ma chi stabilisce le categorie? Chi definisce le caselle che il sistema può usare? Dietro c’è sempre la mano umana, e ciò significa la mente umana, con il complesso dei suoi giudizi e dei suoi pre-giudizi.
Il principale protagonista della scelta morale, allora, oggi non è il consumatore, è il progettista.
In tutto questo, qual è il ruolo dell’etica?
Il termine etica viene spesso associato al concetto di norma, regola, e l’etica in faccende relative all’innovazione tecnologica viene normalmente declinata in forma di regolamenti: il regolamento sull’IA approvato dal Parlamento Europeo poco tempo fa, la regolamentazione dell’industria dei veicoli autonomi di cui ha cominciato a occuparsi la Commissione Europea. Ma l’etica è fatta non solo e non tanto di norme, è fatta principalmente di persone. Persone che trovino il tempo e l’energia per sottrarsi ai vincoli imposti dalla necessità di sopravvivere, guadagnarsi da vivere o fare profitto, per fare un passo indietro, sedersi, rilassarsi, e riflettere su dove stiamo andando, che cosa stiamo facendo, quali potrebbero essere le conseguenze delle nostre scelte.
Ciò non significa, e non deve significare, promuovere visioni catastrofiste o complottiste del progresso tecnologico. La tecnologia salva le vite, come ha dimostrato con ferocia la pandemia, e averne paura le mette a rischio.
Significa però rendersi conto che la tecnologia va governata se l’essere umano non vuole rinunciare alla propria umanità.
Significa capire che l’ingegnere e il progettista sono sempre più soggetti politici, che con le proprie scelte progettuali determinano aspetti essenziali dell’esistenza della collettività. Significa decidere che, come lo scienziato, il tecnologo deve uscire dalla sua torre d’avorio costruita sull’algoritmo dell’ingegneria (in cui la ricerca dell’efficacia e dell’efficienza tende a escludere la considerazione di ogni “esternalità”), per non lasciare più ai grilli parlanti moralisti la responsabilità di immaginarsi le conseguenze delle sue scelte.
Cristina Trombetti