L’intelligenza artificiale produce emissioni in base a quanto “ragiona”
Sappiamo ormai bene che qualsiasi cosa chiediamo all’intelligenza artificiale (Ai), lei ci darà una risposta. Ma alcuni suggerimenti che ci fornisce potrebbero avere un impatto ambientale più significativo e causare emissioni di anidride carbonica più elevate. A riferirlo è stato oggi un team di ricercatori, guidato dalla Hochschule München University of Applied Sciences, in Germania, che ha misurato e confrontato le emissioni di anidride carbonica di diversi Large Language Model (Llm) già addestrati utilizzando una serie di domande standardizzate. Lo studio è stato pubblicato sulle pagine della rivista Frontiers in Communication.
L’intelligenza artificiale “pensante”
Sebbene molti di noi non ne siano pienamente consapevoli, molto di queste tecnologie sono associate a un elevato impatto ambientale. Per produrre risposte, infatti, l’intelligenza artificiale usa i token, parole o parti di parole che vengono convertite in una stringa di numeri che può essere elaborata dai Llm, modelli di intelligenza artificiale specifici nella generazione di linguaggio umano. Questa conversione, così come altri processi di elaborazione, produce però emissioni di anidride carbonica. “L’impatto ambientale delle domande rivolte agli Llm addestrati è fortemente determinato dal loro approccio di ragionamento, con processi che aumentano significativamente il consumo di energia e le emissioni di carbonio”, ha raccontato il primo firmatario del paper Maximilian Dauner. “Abbiamo scoperto che i modelli basati sul ragionamento producevano fino a 50 volte più emissioni di CO? rispetto ai modelli a risposta semplice”.
La causa della maggior parte delle emissioni
Per giungere a questa conclusione, il team ha testato 14 Llm, con un numero di parametri (che determinano il modo in cui apprendono ed elaborano le informazioni) compreso tra 7 e 72 miliardi, su mille domande standardizzate su diverse materie. I modelli di ragionamento, in media, hanno creato 543,5 token “pensanti” (ossia token aggiuntivi che gli Llm di ragionamento generano prima di produrre una risposta) per domanda, mentre i modelli semplici ne richiedevano solo 37,7. Il più preciso è risultato essere il modello Cogito, con 70 miliardi di parametri, che ha raggiunto un’accuratezza dell’84,9%, ma che ha anche prodotto emissioni di CO? tre volte superiori rispetto a modelli di dimensioni simili che generavano risposte semplici.
“Attualmente, osserviamo un chiaro compromesso tra accuratezza e sostenibilità insito nelle tecnologie Llm”, ha commentato Dauner. “Nessuno dei modelli che ha mantenuto le emissioni al di sotto dei 500 grammi di CO? equivalente (unità di misura dell’impatto climatico dei vari gas serra, ndr) ha raggiunto una precisione superiore all’80% nel rispondere correttamente alle mille domande”. Per quanto riguarda le diverse materie, inoltre, le domande che richiedevano lunghi processi di ragionamento, come per l’algebra o la filosofia, hanno portato a emissioni fino a 6 volte superiori rispetto a domande più semplici, come per la storia che si insegna alle superiori.
Un uso più consapevole
I risultati del nuovo studio, quindi, suggeriscono la necessità di prendere decisioni più consapevoli sull’uso dell’Ai. “Gli utenti possono ridurre significativamente le emissioni stimolando l’Ai a generare risposte semplici o limitando l’uso di modelli ad alta capacità alle attività che richiedono effettivamente tale potenza”, ha consigliato l’esperto, concludendo che se si conoscesse il vero costo in termini di emissioni generate dall’intelligenza artificiale, come ad esempio creare una action figure personalizzata, si potrebbe essere più selettivi e attenti su quando e come utilizzare queste tecnologie. LEGGI TUTTO