L’intelligenza artificiale si usa per eseguire compiti tediosi o troppo difficili per gli esseri umani, questa delega non deve avvenire con una totale assenza di supervisione.
Se ne parla e se ne continua a parlare. Ma cos’è l’Intelligenza Artificiale?
Tra le tante definizioni ne abbiamo colto una: «Lo strumento che ci permette di leggere la realtà e capirne le dinamiche».
Ma per evitare qualsiasi generalizzazione abbiamo chiesto a Mariarosaria Taddeo; nel 2020 Computer Weekly l’ha nominata tra le 100 donne più influenti nella tecnologia del Regno Unito. È Professore associato e Senior Research Fellow presso l’Oxford Internet Institute dell’Università di Oxford e Dstl Ethics Felloww all’Alan Turing Institute di Londra.
Professoressa Taddeo, proviamo a partire dalla narrativa: da Isaac Asimov. Il chimico e pure scrittore e divulgatore russo -naturalizzato statunitense- divenuto un riferimento fondamentale per lo sviluppo dell’intelligenza artificiale con le sue tre leggi della robotica divenute ormai un’icona. Lui sosteneva che, se progettati bene e non utilizzati impropriamente, i robot dotati di cervello positronico devono rispondere a requisiti imprescindibili: sicurezza, obbedienza e autoconservazione.
E non contento, Asimov ha formulato anche la Legge Zero: un robot non deve danneggiare l’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità riceva danno.
I libri di Asimov sono bellissimi e vale la pena leggerli, ma sono fantascienza, non hanno niente a che vedere con la buona ricerca. Anzi, a cercare ispirazione in quei testi si rischia di distrarsi da domande cogenti e finire per sviluppare ricerche e soluzioni banali, quando non sbagliate.
Non abbiamo macchine pensanti, non abbiamo macchine a cui dobbiamo ricordare che l’umanità non deve essere danneggiata. Abbiamo esseri umani che progettano, sviluppano e usano macchine, a questi dobbiamo ricordare di fare il loro lavoro mettendo al centro l’umanità e l’ambiente.
Ai legislatori e decisori politici dobbiamo ricordare la necessità di definire quadri regolatori che assicurino questi risultati senza ostacolare lo sviluppo tecnologico. Gli esperti di etica ci servono per definire gli equilibri giusti tra gli interessi legittimi, ma a volte contrastanti, degli stakeholders coinvolti. Non sono compiti facili, richiedono impegno e competenze, visto il passo dell’innovazione tecnologica, non ci possiamo permettere distrazioni.
Le macchine per definizione hanno sempre ragione, eppure l’intelligenza –naturale o artificiale– conduce inevitabilmente all’errore prima o poi. Maggiore sarà la potenza intellettiva e maggiore possiamo immaginare che sia l’effetto di un giudizio errato. E se anche le macchine si “ammalassero”, ad esempio per colpa di un virus anch’esso intelligente? Come possiamo proteggerci?
Le macchine non hanno sempre ragione, pensiamo ai casi di bias (i pregiudizi). Come dice lei, la questione è che le macchine sbagliano “più efficacemente”, per potenza di calcolo e per ampiezza di applicazione delle macchine, un loro errore può avere un impatto più pesante di quello di un essere umano.
L’intelligenza artificiale si usa per eseguire compiti tediosi o troppo difficili per gli esseri umani (per esempio le grandi operazioni statistiche), questa delega non deve avvenire con una totale assenza di supervisione. È importante continuare a mantenere una capacità di monitoraggio di questa tecnologia, così da poter intervenire tempestivamente quando sbaglia.
A questo fine è importante anche educare all’uso dell’intelligenza artificiale, non solo perché se ne conoscano i meccanismi e se ne sappiano individuare gli errori prontamente, ma anche perché la si usi senza approcci fideistici.
Più integriamo l’intelligenza artificiale nei nostri ambienti, che siano domestici, scolastici o professionali, più dobbiamo educare gli utenti finali a riconoscere le potenzialità e i limiti di questa tecnologia e ad usarla senza svilire le capacità degli esseri umani.
Prof.ssa Taddeo, non entriamo in un discorso che potrebbe trascinarci in una sorta di luddismo con il timore che una macchina “intelligente” possa escludere il lavoro che ha imposto lo sforzo muscolare o il sacrificio personale a uomini e donne per milioni di anni. Ma come vede un futuro in cui l’essere umano non avrà più niente da fare su questa Terra?
Non credo a questa prospettiva. È fantascienza. Il rischio vero è che queste macchine siano utilizzate male e quindi si perdano le opportunità che ci offrono di affrontare sfide concrete, dal climate change alla cura di malattie come l’Alzheimer e nel frattempo si danneggino i valori fondamentali delle società democratiche. Sono rischi seri.
Veniamo a una domanda di spazio. Le grandi potenze hanno intrapreso presto la corsa fuori l’alveo dell’atmosfera terrestre inviando uomini e donne: cosmonauti, astronauti, taikonauti. Quello che maggiormente ha attratto l’attenzione e affascinato le narrazioni spesso è stato il rischio di questi pionieri e il fatto che queste persone hanno voluto lanciare il cuore oltre l’ostacolo mettendo a repentaglio incolumità e ritorno a casa. Altre missioni automatiche, sia pur colossali dal punto di vista tecnologico hanno avuto un pubblico prima meravigliato e alla fine annoiato da un automatismo che funziona quasi sempre alla perfezione. Ma che non mette a rischio la vita.
Allora, in questa lotta dell’heros contro il pathos, come si può umanizzare una scatola di circuiti per farci soffrire o gioire ogni volta che vediamo una macchina compiere il lavoro di un uomo?
Non saprei. Non credo che questa sia una strada da intraprendere.
E infine una domanda più provocatoria. La continua evoluzione potrebbe portare l’intelligenza artificiale a essere superiore di quella umana. Lei pensa che in questo modo potrebbe essere utilizzata sui piani di comando della politica che sia nazionale o internazionale?
Potrebbe essere l’intelligenza artificiale il nuovo gestore dell’ordine mondiale?
Anche qui, è fantascienza. L’intelligenza artificiale può essere un valido elemento di supporto in contesti in cui è cruciale considerare molteplici fattori da considerare, magari in brevi lassi di tempo. Ma rimane un elemento nelle mani degli esseri umani.
È pericolo distrarsi pensando all’intelligenza artificiale in questo modo, perché ci si dimentica che l’origine dei successi e dei problemi di questa tecnologia è sempre il modo in cui gli esseri umani la progettano, sviluppano, usano e regolano.
La responsabilità del futuro di questo mondo sta tutta sulle nostre spalle, non sull’IA.
Fonte: lindro.it
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.