domenica 27 ottobre 2024

L’Intelligenza artificiale ci sta rendendo stupidi?

Tre problemi che la diffusione dei chatbot ci sollecita a considerare: (i) è vero che l’uso di questi sistemi sta modificando i nostri processi cognitivi? (ii) se questo è vero, le nostre attitudini cognitive si stanno modificando in peggio? (iii) e, se questo è vero, che cosa possiamo fare per evitarlo?

di Luca Mari e Alessandro Giordani

Un articolo di Nicholas Carr pubblicato sull’Atlantic nel 2008, e da allora diventato celebre, poneva domande emblematiche – a partire dal suo titolo – sulla transizione che allora stavamo vivendo: “Google ci sta rendendo stupidi? Cosa sta facendo internet ai nostri cervelli?” (Is Google Making Us Stupid? What the Internet is doing to our brains).

In quel testo si riflette intorno alle criticità dell’influenza dei sistemi digitali sulle nostre capacità intellettuali: “I media non sono solo canali passivi di informazione. Forniscono la materia del pensiero, ma modellano anche il processo di pensare. 
E ciò che internet sembra produrre è di indebolire la [nostra] capacità di concentrazione e comprensione” ...


Quale che sia la risposta che quindici anni fa avremmo dato, e oggi daremmo, alle domande di quell’articolo relativamente a internet e ai motori di ricerca (da cui il riferimento a Google), è ragionevole porsi oggi dubbi analoghi a proposito dei sistemi di intelligenza artificiale a comportamento appreso (machine learning), soprattutto nella loro versione generativa e in particolare conversazionale: i cosiddetti “chatbot”, “macchine da conversazione” insomma, di cui ChatGPT è l’esempio più noto. 

E non siamo né i primi né gli unici a porci questo genere di dubbi: la prestigiosa rivista scientifica Nature, per esempio, ha pubblicato nei mesi scorsi un articolo dal titolo eloquente: Use of large language models might affect our cognitive skills
Considerando poi che è da solo dalla fine del 2022 che ChatGPT è stato reso disponibile, e quindi che le vicende connesse all’uso di questi chatbot hanno una storia ancora breve, ha senso porre la domanda in termini più specifici, distinguendo tre problemi che la diffusione dei chatbot ci sollecita a considerare: (i) è vero che l’uso di questi sistemi sta modificando i nostri processi cognitivi? (ii) se questo è vero, le nostre attitudini cognitive si stanno modificando in peggio? (iii) e, se questo è vero, che cosa possiamo fare per evitarlo?

(i) L’uso dei chatbot sta modificando i nostri processi cognitivi?

A proposito del primo problema – l’uso dei chatbot sta modificando i nostri processi cognitivi? –, ormai sappiamo per esperienza che l’interazione con i chatbot è cognitivamente multidimensionale, e va ben oltre la funzione strumentale di accesso a informazioni. Per esempio, in un nostro percorso di apprendimento possiamo chiedere loro di farci da docenti o tutor, oppure di essere nostri compagni di apprendimento in un lavoro “alla pari”, oppure anche di essere nostri allievi, per realizzare così il principio secondo cui un buon modo di imparare qualcosa è di doverlo insegnare a qualcun’(o dunque ora a qualcos’)altro. 

Se da millenni i testi scritti e, più recentemente, i materiali multimediali hanno contribuito alla formazione dei nostri processi cognitivi in quanto strumenti di supporto all’interazione tra esseri umani, la disponibilità di entità artificiali con queste capacità di interazione attiva, e con poche o nulle limitazioni di risorse (immaginiamo non frequente la situazione di docenti o tutor umani che accetterebbero di interagire con studenti a notte fonda…) potrebbe cambiare ulteriormente gli scenari a cui siamo abituati. 
Quanto questo avrà effetti sui nostri processi di apprendimento è ancora troppo presto per saperlo, ma pare sensato concludere in via preliminare che, sì, i chatbot hanno il potenziale per modificare, in meglio o in peggio, i nostri processi cognitivi. E con ciò proseguiamo dunque la nostra riflessione.

(ii) L’interazione con i chatbot porterà a un complessivo peggioramento delle nostre abilità cognitive?

Il secondo problema – l’interazione con i chatbot porterà a un complessivo peggioramento delle nostre abilità cognitive? – è più delicato, proprio perché mette in gioco la questione della stupidità da cui siamo partiti. Per comprendere il senso in cui potremmo essere soggetti a un peggioramento cognitivo, possiamo rifarci alla considerazione degli effetti che le rivoluzioni tecnologiche in passato hanno avuto sulle attività umane. Per esempio, la diffusione dei telai meccanici fece progressivamente perdere la capacità di tessere manualmente, e le macchine calcolatrici hanno preso il posto nelle attività ordinarie delle tante persone il cui compito era di fare calcoli manualmente, con l’esito che certe procedure di calcolo non sono più conosciute, e ormai nemmeno più insegnate.

La sostituzione di attività umane con attività realizzate da entità artificiali, e la conseguente perdita della capacità degli esseri umani di eseguire determinati compiti, è spiegabile come un processo di delega: avendo ideato, costruito e messo in opera entità artificiali che svolgono tali compiti meglio di come lo facciamo noi, affidiamo a esse la loro realizzazione. In questo c’è, innegabilmente, una razionalità, ancestrale e sempre rinnovata: quando abbiamo un problema da risolvere e il nostro obiettivo è di risolvere quel problema, applichiamo la strategia che consideriamo migliore, che richieda l’attività di esseri umani o di entità artificiali, che possibilmente abbiamo progettato e realizzato proprio a questo scopo.

Con ciò, osserviamo comunque che perdere la capacità di eseguire determinati compiti manuali non costituisce di per sé un problema – pensiamo soltanto a quelle attività che in passato venivano svolte da schiavi –, né lo è, di principio, anche quando i compiti sono cognitivamente complessi. Insomma, non essere più in grado di eseguire certe procedure non implica ancora diventare più stupidi. In questo la distinzione tra stupidità e ignoranza è dunque cruciale. Per riprendere un esempio non più controverso, oggi in pratica non facciamo più calcoli complessi a mano: è una competenza che abbiamo perso, e a proposito della quale siamo dunque diventati più ignoranti. Ma dal fatto che non sappiamo più calcolare radici quadrate senza l’ausilio di una calcolatrice non concludiamo di essere diventati più stupidi. Questo genere di ignoranza non ci preoccupa, perché riteniamo che essa abbia come conseguenza non una diffusione di stupidità, ma una liberazione di risorse cognitive per affrontare problemi diversi e più interessanti. Così, avere a disposizione sistemi con grandi capacità di calcolo automatico ha avuto come conseguenza non una riduzione ma un incremento della ricerca scientifica, dato dal fatto che ora i ricercatori possono dedicare più tempo all’ideazione di teorie che ai calcoli necessari per mettere alla prova le teorie stesse.

Ciò non è però sufficiente per considerare chiarito il secondo problema che ci siamo posti, e questo perché possiamo cominciare oggi a delegare a sistemi di Intelligenza artificiale (Ia) delle attività in cui fino a poco tempo fa avremmo considerato il ruolo degli esseri umani insostituibile per una ragione non strumentale: perché si tratta di attività che richiedono intelligenza per essere realizzate. La possibilità di essere sostituiti da sistemi di Ia nell’esecuzione di queste attività è per qualcuno fonte di timore, perché si intravede in questo un rischio di diffusione di stupidità: poiché è ben plausibile che l’intelligenza debba essere sviluppata e preservata usandola, se smettessimo di svolgere attività che richiedono intelligenza potremmo perderla progressivamente, e diventare così progressivamente stupidi, forse senza nemmeno accorgercene. Il problema, perciò, è dato dal fatto che ci sono capacità intellettuali che non possiamo permetterci di perdere, e prima ancora di non sviluppare, senza con ciò davvero avviarci verso la stupidità. Quali sono, e come ci stiamo assicurando di promuoverne lo sviluppo nella nostra società?

Per esplorare il tema partiamo da tre constatazioni, a cui faremo riferimento nelle riflessioni che seguono. 
La prima: ci siamo evoluti applicando strategie per risolvere problemi in modo non soltanto efficace, ma anche efficiente, e dunque minimizzando il consumo di energia, risorsa necessaria per la sopravvivenza. 
La seconda: risolvere problemi esercitando la propria intelligenza ha generalmente un costo individuale, energetico e non solo, maggiore di quello richiesto se si affida la soluzione ad altre entità, naturali o artificiali che siano. 
La terza: i sistemi di intelligenza artificiale stanno diventando sempre più efficaci nella realizzazione di compiti che richiedono intelligenza (non entriamo qui nella discussione se entità artificiali possano essere “davvero” intelligenti, limitandoci a fare riferimento a compiti che, se svolti da esseri umani, richiederebbero intelligenza).

Queste constatazioni suggeriscono che la questione della delega, e quindi della nostra sostituibilità, si pone non soltanto per attività strumentali come fare dei calcoli, ma anche nel caso stesso, estremo, del pensare: allo scopo di cercare di risolvere certi problemi, potrebbe essere razionale decidere di delegare delle attività (che se svolte da esseri umani sarebbero considerate) cognitivamente sofisticate a entità artificiali. 

D’altra parte, se supponiamo che se questa sostituzione sia non episodica, perché relativa alla soluzione di specifici problemi, ma sistematica, non la si considererebbe più desiderabile, per le sue implicazioni sull’idea stessa di individuo e di responsabilità individuale, che è un fondamento della nostra società. 

Abbiamo con ciò ottenuto una risposta almeno condizionale al secondo problema: anche se, al momento, non sappiamo se le nostre attitudini cognitive si stiano modificando in peggio a causa della diffusione dei chatbot, possiamo inferire che ciò accadrebbe se iniziassimo a delegare in modo sistematico il pensiero a entità artificiali. È perciò cruciale il terzo problema che ci siamo posti: cosa fare perché ciò non accada?

(iii) Che cosa fare perché ciò non accada?

A questo proposito, dobbiamo considerare che il principio di ricerca di efficienza a cui abbiamo fatto riferimento non è l’unico criterio di decisione per le nostre azioni: quando la sopravvivenza non è più un problema, e dunque “ce lo possiamo permettere”, facciamo cose come andare in palestra o dedicare tempo ai videogiochi, apparentemente sprecando così energie fisiche e mentali per la soluzione di problemi che potremmo evitare di affrontare. E, ancora per esempio, a quanto pare non si è mai giocato a scacchi tanto come in questi anni, nonostante sia noto che ci sono sistemi software che battono sistematicamente anche i migliori giocatori umani, per cui, se l’unico obiettivo per cui si gioca una partita a scacchi fosse di vincerla, sarebbe razionale far giocare un’entità artificiale. Come possiamo spiegarci tutto ciò?

Un’interessante risposta a queste domande si rintraccia nella teoria dell’autodeterminazione, formulata dagli psicologi Edward Deci e Richard Ryan riprendendo idee dalla tradizione filosofica classica, a proposito della motivazione intrinseca, cioè di quello che ci muove a realizzare un’attività non perché strumentale ad altro ma perché la consideriamo soddisfacente in sé
È questa, per esempio, la condizione che ogni docente auspica e cerca di realizzare: avere studenti motivati a imparare perché riconoscono il valore dell’apprendimento (la motivazione intrinseca), e non (solo) per aumentare la loro probabilità di avere nel futuro un buon lavoro (una motivazione estrinseca a lungo termine), o per essere promossi (una motivazione estrinseca a medio termine), o per evitare i rimproveri dei genitori (una motivazione estrinseca a breve termine).

Operare in modo motivato intrinsecamente è il risultato di un processo, più o meno consapevole, di interiorizzazione. 

Chi gioca a scacchi pur sapendo di non poter vincere contro un giocatore artificiale, e nonostante ciò senza farsi sostituire da un giocatore artificiale, forse lo fa perché, più o meno consapevolmente appunto, trova nel giocare un motivo di autorealizzazione, con ciò scalando fino all’ultimo gradino la piramide di Maslow, secondo cui, quando tutti i nostri altri (e “più bassi”, nella piramide) bisogni sono stati soddisfatti – bisogni fisiologici, di sicurezza, di appartenenza, di stima –, andiamo alla ricerca di realizzare noi stesse/i.

Come ci autorealizziamo?

La teoria di Deci e Ryan riparte da qui, e alla domanda cruciale, come ci autorealizziamo?, propone una risposta (inevitabilmente) antropologica: attraverso la soddisfazione dei tre bisogni fondamentali di autonomia, relazione e competenza (autonomy, relatedness, competence). 


Insomma, ci realizziamo quando riusciamo a stare bene con noi stessi, dimostrandoci autonomi, con gli altri, dimostrandoci capaci di relazione, e con il mondo, dimostrandoci capaci di operare efficacemente, perché in modo competente, in esso.

Considerando tutto ciò alla luce del principio di razionalità nell’uso efficiente delle risorse a cui abbiamo fatto cenno sopra, il terzo problema che abbiamo posto trova una formulazione ovvia: in una società che co-abiteremo con entità artificiali intelligenti, è conciliabile la sostituzione degli individui per la soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione degli individui stessi, e dunque della loro intelligenza (e non della loro stupidità)?

Per comprendere fino in fondo questa domanda, già cruciale, introduciamo un ultimo punto, che potrebbe essere quello che nel nostro prossimo futuro farà la differenza. Riscriviamola allora, espandendola: in una società che co-abiteremo con entità artificiali intelligenti, è conciliabile la sostituzione degli individui per la soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione di tutti gli individui (e non solo dei più intelligenti, ricchi, …), e dunque della loro intelligenza (e non della loro stupidità)?

In questo modo chiariamo che quello che stiamo discutendo, e che dovremmo proporci di evitare, non è tanto lo scenario radicalmente distopico in cui le intelligenze artificiali assoggettano (tutte) quelle naturali, rendendoci (tutti) stupidi, quanto della situazione, che riteniamo più probabile, in cui la tecnologia potrebbe operare, anche in questo caso e ancora una volta, da amplificatore delle differenze. 

 È lo scenario di una società in cui alcuni esseri umani intelligenti vivono governando le entità artificiali intelligenti di cui sono circondati, e per questo diventano sempre più (efficaci, efficienti e) intelligenti, mentre gli altri sono a rischio di stupidità e vanno a costituire quella che lo storico Yuval Harari ha chiamato la classe degli inutili.

Data la notevole, e terribile, complessità di questo scenario, e pur senza la pretesa di avere alcuna sfera di cristallo da consultare, suggeriamo di interpretare analiticamente la domanda difensiva – c’è qualcosa in cui gli esseri umani non sono sostituibili da entità artificiali? – distinguendo in essa due problemi distinti: saremo sostituibili nel lavoro? e diventeremo stupidi?
(FONTE)
Fonte: www.nogeoingegneria.com

Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.