Uno dei grandi paradossi della tecnologia è che più essa cerca di progredire e migliorare le condizioni degli esseri umani, più aumentano i rischi che questa possa essere potenzialmente pericolosa per l’umanità.
Fonte, con video: www.byoblu.com
L’intelligenza artificiale è al centro di grandissima attenzione e il futuro, volenti o nolenti, si prospetta come uno scenario in cui questa rivestirà un ruolo centrale nella vita delle persone.
Sarebbe sciocco non voler vedere questo costante mutamento che ormai investe la società a tutti i livelli: economico, estetico, medico, politico e, non ultimo, tecnologico.
Al tempo stesso, mentre cresce l’interesse e l’entusiasmo per i progressi dell’intelligenza artificiale, si impone un quesito altrettanto urgente: come governare una transizione che si può rivelare pericolosa per l’umanità? ...
Il dibattito si concentra soprattutto sull’adozione di un codice etico da applicare all’intelligenza artificiale.
È nostra responsabilità stabilire ora processi e politiche per determinare se tale tecnologia sarà utile o dannosa in futuro e come potremo proteggerci da usi illeciti o pericolosi.
Il problema è sfaccettato: come possiamo garantire che il settore privato (o pubblico) sviluppi la tecnologia in modo etico? Cosa comporta l’etica dell’intelligenza artificiale? Sappiamo, ad esempio, che l’intelligenza artificiale già si applica all’industria militare.
Il futuro della guerra potrebbe essere nei soldati-robot e nei mezzi controllati da intelligenze algoritmiche. In questo caso l’intelligenza artificiale agisce eticamente oppure no?
Senza partire troppo da lontano, bisognerebbe almeno capire che cosa si deve intendere con etica.
Perché un codice etico presuppone una visione del mondo, dell’uomo e della vita. E dunque, quale filosofia dovrebbe essere alla base di un codice etico per le macchine intelligenti? E poi, chi dovrebbe occuparsi di elaborare un codice etico?
Certo, per difendere l’essere umano dallo strapotere della tecnologia sarebbe auspicabile che a elaborare un codice fossero gli esseri umani. Tuttavia, il problema sarebbe risolto solo in parte. Infatti, gli umani non sono esenti da posizioni politiche, ideologiche e, ancora peggio, interessi privati.
E allora la complessità nell’elaborazione di un codice etico per l’intelligenza artificiale cresce in maniera esponenziale.
Una domanda di partenza a cui rispondere è la seguente: esiste una sola etica o ne esistono molteplici?
E se esistono tante posizioni etiche, questo vuol dire che un codice etico per l’intelligenza artificiale può mutare da cultura a cultura?
Queste domande non sono meramente retoriche, perché la posta in gioco è enorme. Sarebbe infatti auspicabile che l’intelligenza artificiale venga messa al centro di una seria riflessione, in primo luogo etico-filosofica. Ma qui è appunto il dilemma.
Se si può essere d’accordo sul fatto che una degenerazione tecnologia debba essere arginata da solidi valori condivisi, allora sarebbe giusto chiedersi quali siano i valori di riferimento per equipaggiare una società contro i possibili pericoli insiti nel progresso tecnologico.
Prima ancora di mettere mano a un codice etico, allora sarebbe necessario ripensare a quali possano e debbano essere i valori fondanti e utili di cui una comunità non può fare a meno.
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.