Già l’intelligenza artificiale rischia di diventare un mostro che cancellerà i valori umani come li conosciamo oggi, ma noi rischiamo anche una catastrofe ecologica per riuscire ad alimentare la fame infinita di energia di questo mostro.
Andiamo con ordine.
Ormai abbiamo capito tutti che l’intelligenza artificiale porterà sicuramente più svantaggi che vantaggi: mentre ci viene venduta come “una meraviglia tecnologica che ci permetterà di portare a termine in pochi minuti compiti che richiederebbero agli umani intere giornate di lavoro”, in realtà l’Intelligenza Artificiale finirà per diventare l’interfaccia quotidiano di una vita sempre più distopica e disumanizzata.
Dall’ipotesi di ritrovarsi a discutere con un computer su un errore nella bolletta elettrica, fino al fatto che la IA servirà prima o poi per sostituire i giudici nelle cause civili, oppure per fare le diagnosi a distanza di un malato – eliminando del tutto il prezioso contributo del medico personale - le prospettive orripilanti che ci possono venire in mente sono praticamente infinite ...
A tutto questo va aggiunto un problema non da poco: l’intelligenza artificiale consuma quantità di energia inimmaginabili.
Pensate solo al processo di apprendimento del sistema, quando ad esempio si vuole insegnare all’IA a riconoscere e riprodurre l’immagine di un gatto: è necessario che la rete neurale analizzi e metta a confronto letteralmente migliaia di immagini di gatti, e poi la metta a confronto con altrettante immagini di non-gatti, il tutto con un consumo energetico ed un impegno delle risorse difficili da calcolare.
Talmente mostruosa è la sete di energia che hanno questi centri di apprendimento neurale, che società come Amazon e Google stanno investendo massicciamente negli SMR (Small Modular Reactors), ovvero dei “piccoli” generatori atomici di energia, più facili da installare (ed eventualmente da spostare) delle normali centrali di energia atomica.
Mentre una classica centrale ha mediamente una potenza di 700 megawatt (e), una centrale SMR può arrivare al massimo a 300 megawatt, una “microcentrale atomica” da soli 10 megawatt può essere trasportata e installata praticamente ovunque (confrontatela nell'ultima immagine con le dimensioni di un camion).
Talmente mostruosa è la sete di energia che hanno questi centri di apprendimento neurale, che società come Amazon e Google stanno investendo massicciamente negli SMR (Small Modular Reactors), ovvero dei “piccoli” generatori atomici di energia, più facili da installare (ed eventualmente da spostare) delle normali centrali di energia atomica.
Mentre una classica centrale ha mediamente una potenza di 700 megawatt (e), una centrale SMR può arrivare al massimo a 300 megawatt, una “microcentrale atomica” da soli 10 megawatt può essere trasportata e installata praticamente ovunque (confrontatela nell'ultima immagine con le dimensioni di un camion).
Naturalmente, si pensa a risolvere il sintomo, ovvero la necessità impellente di grandi quantità di energia, senza calcolare il danno a lungo termine, ovvero lo smaltimento delle scorie nucleari nel corso degli anni.
Ecco come un problema incombente – quello dell’avvento prepotente della IA – si porta dietro un altro problema non da poco – quello dell’inquinamento dell’ambiente con le scorie nucleari.
E il tutto per che cosa? Per rivolgere domande imbecilli ad una macchina che darà solo risposte imbecilli, lasciando nel frattempo a casa senza lavoro milioni di lavoratori di mezzo mondo?
Massimo Mazzucco
Fonte: luogocomune.net
Fonte: luogocomune.net
Sistemi avanzati come i chatbot AI di OpenAI e Google, che sono alimentati da enormi datacenter, richiedono inevitabilmente l’impiego di risorse energetiche significative.
Lo dimostra il fatto che, dal 2012 ad oggi, il fabbisogno energetico dell’intelligenza artificiale è raddoppiato ogni 3,4 anni in considerazione dello sviluppo di applicazioni progressivamente più energivore, come il Machine Learning e il riconoscimento facciale (che possono consumare su base annuale l’equivalente dell’energia prodotta da ben quaranta centrali nucleari).
Secondo una ricerca condotta da Alex de Vries della Vrije Universiteit Amsterdam, entro il 2027 i data center che alimentano l’AI potrebbero consumare tra 85 e 134 terawattora di energia all’anno, equivalente addirittura al consumo di intere nazioni come l’Argentina o i Paesi Bassi. Si tratta di cifre davvero impressionanti, che equivalgono a circa lo 0,5% del consumo energetico globale, ossia di tutto il mondo.
C’è però un ulteriore fattore da considerare oltre al mero consumo di energia elettrica. Per raffreddare gli enormi data center che alimentano i sistemi di intelligenza artificiale sono infatti necessarie anche enormi quantità di acqua: ad esempio, Microsoft ha registrato un aumento del 34% nel suo consumo di acqua tra il 2021 e il 2022, corrispondente a 6,4 milioni di metri cubi di acqua ed equivalente alla capacità di 2.500 piscine olimpioniche.
Il consumo di risorse energetiche nel settore dell’IA è quindi destinato a trasformarsi in un problema significativo nei prossimi anni, e sebbene ci siano potenziali soluzioni che potrebbero aiutare l’ambiente, al momento i loro impatti positivi sono ancora troppo limitati per fare davvero la differenza ...
Tratto da: www.gelsia.it
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.