Mentre arriva la nuova Alexa+… Skype chiude


Le notizie informatiche più degne di nota di questa settimana sono due: si tratta di un nuovo inizio e di una inaspettata fine.

ALEXA+ E’ IN ARRIVO

Il 26 febbraio Amazon ha annunciato una rivoluzione per il suo assistente vocale che si trasformerà in Alexa+.
Sarà più smart, più efficiente e personalizzata. Avrà una personalità, migliorerà e imparerà interagendo con l’utente. Sarà anche più colloquiale: non servirà più formulare le frasi in modo preciso, così la conversazione sarà più fluida (in effetti l’IA ci ha abituati a conversazioni naturali).

Si potrà chiedere all’assistente di fare la spesa o di inviare inviti per un evento, mandare e leggere email, condividere documenti o estrarne informazioni, aggiungere eventi al calendario ma anche scattare foto ed analizzare immagini.
Grazie alle partnership in essere potrà interagire anche con servizi come Uber, Spotify, Apple Music, Netflix, Disney+.
Potremo allora chiedere di riprodurre la nostra musica preferita, cambiare stanza in cui diffonderla, ma anche intrattenere una conversazione riguardo un cantante, magari sulla sua discografia, o addirittura comprare i biglietti per un suo concerto.
Riguardo i film, potremo far domande su personaggi, trame, episodi o riprodurre una specifica scena.

Alexa+ si potrà utilizzare dal sito web, dall’applicazione o su quasi tutti i dispositivi fin’ora lanciati sul mercato (cioè gli Echo Show 8, 10, 15 e 21).
Inizialmente sarà disponibile solo negli USA in inglese, ma arriverà certamente anche in Italia.
Il suo costo è di 19,99 $ al mese, ma è gratuita per i clienti Amazon Prime.

In autunno sono poi attesi anche i nuovi altoparlanti Echo che supporteranno al meglio Alexa+.
I dispositivi Echo più vecchi continueranno a svolgere le funzioni di Alexa “classica”.

L’ADDIO A SKYPE

XDA Developers (comunità di sviluppo di software con milioni di utenti in tutto il mondo) ha scoperto che in alcune stringhe di codice dell’ultima versione preview di Skype è presente la frase “A partire da maggio, Skype non sarà più disponibile. Continua le tue chiamate e chat in Teams“.

Lanciato nel 2003, Skype ha rivoluzionato la comunicazione nei primi anni Duemila. Per molti utenti è stata la prima esperienza di chiamate e videochiamate via internet. E’ stato poi acquistato nel 2011 da Microsoft per 8,5 miliardi di Dollari, che lo ha integrato in Windows e in altri prodotti. Tuttavia col tempo l’applicazione non è stata molto aggiornata. Ha avuto un incremento di utenti durante il lockdown, ma comunque inferiore ad altre piattaforme come Whatsapp, Telegram o Discord, considerate più moderne.

Manca solo l’annuncio ufficiale, ma sembra proprio che Microsoft abbia iniziato la transizione verso Teams, nato nel 2017 come piattaforma di collaborazione rivolta principalmente alle aziende, ma ora proposta anche ai privati.

La notizia arriva come un fulmine a ciel sereno, ma a quanto pare dobbiamo davvero prepararci a salutare Skype.




L’IMPATTO AMBIENTALE DELLE IA: NON CI SONO SOLO I “CONTRO”


Torniamo a parlare di IA, indagando questa volta su un tema che viene spesso trascurato: il suo impatto ambientale.
L’IA ormai è entrata nel nostro quotidiano, semplificando – spesso gratuitamente – operazioni lavorative e quotidiane e offrendo anche divertimento.
Tuttavia, accanto ai numerosi vantaggi, emergono anche preoccupazioni, come le questioni legate al copyright, alla privacy degli utenti, e ai costi energetici dei complessi calcoli che questi modelli devono eseguire per essere addestrati o per rispondere alle nostre richieste.

Le intelligenze artificiali funzionano in cloud, passando quindi attraverso grandi server, che sono infrastrutture che richiedono energia e acqua.
Produrre l’energia elettrica necessaria comporta la produzione di gas come la CO2, a causa del fatto che la maggior parte dei Paesi produce energia elettrica partendo da combustibili fossili (tra cui gli USA, dove si trova la gran parte delle startup AI).

La Carnegie Mellon University ha calcolato che la generazione di una singola immagine con l’IA consuma la stessa energia necessaria per caricare uno smartphone. Elaborare 1.000 foto provoca la produzione della stessa quantità di CO2 emessa da una piccola auto per percorrere 6,6 km.
Se moltiplichiamo l’operazione per decine di migliaia di foto, le cifre salgono in modo allarmante. La cosa non è da sottovalutare, se consideriamo che solo ChatGPT è utilizzato da 10 milioni di persone al giorno, e che in generale i modelli di IA generativa sono sempre più popolari e vengono interpellati miliardi di volte al giorno.

La generazione di un testo consuma invece l’84% in meno di elettricità rispetto a una foto. Ad ogni modo scrivere un’email di 100 parole con GPT-4 richiedere circa 0,14 kWh, che equivale a tenere accese 14 lampadine LED per un’ora. Non solo l’utilizzo delle IA da parte degli utenti provoca emissioni: anzi, la fase più energivora è quella di creazione e addestramento di un modello: l’intero processo “pesa” circa 3oo tonnellate di CO2.
Per es: l’energia usata per creare ChatGPT-3 è stata pari a quella consumata dal ciclo-vita di 5 automobili, dalla produzione alla rottamazione e con 200.000 km di percorrenza.

Per quanto riguarda il consumo idrico, i server necessitano di essere raffreddati per funzionare in modo sicuro ed efficiente. Il loro calore viene ceduto all’acqua tramite torri di raffreddamento. L’acqua utilizzata in parte evapora e in parte viene riciclata 3-10 volte prima di essere scaricata in fogna.
Si stima che una mail di 100 parole scritta da ChatGPT-4 consumi mezzo litro d’acqua, mentre l’addestramento di ChatGP3 ne avrebbe richiesti 3,5 milioni di litri.
Teniamo ben presente che se l’energia elettrica può essere prodotta da fonti rinnovabili, l’acqua è invece una risorsa limitata e scarsa in molte aree del mondo.

Confrontando l’energia consumata dalle IA e quella necessaria ad un essere umano per portare a termine uno stesso compito, il risultato potrebbe comunque essere a favore dell’AI: i modelli IA hanno grandi picchi di consumo ma rispondono in tempi brevissimi, mentre un artista o uno scrittore impiegherebbe diverse ore per terminare un lavoro ed utilizzerebbe comunque elettricità (produzione di cibo, riscaldamento, altre necessità).
Anche gli anni di studi per poter produrre lavori di qualità implicano investimenti di tempo ed energie: così come formare modelli AI è un processo energivoro, anche la nostra formazione è costosa.

Per eseguire compiti che prevedono il trattamento di enormi quantità di dati, l’IA è più veloce ed efficace e ciò permette di abbattere i tempi e di conseguenza anche il consumo di energia.
Bisogna quindi chiedersi sempre quanto sarebbe costato fare “dal vero” una operazione.
Per esempio, l’impatto ambientale per creare “dal vero” una fotografia pubblicitaria di un’automobile, che necessiterebbe di luci, dello spostamento di persone (che arriverebbero sul set magari in aereo), di catering, etc, sarebbe molto superiore rispetto a quello derivante dalla generazione di quella stessa immagine con l’IA.

Se l’IA viene usata per generare contenuto inutile allora il suo impatto ecologico non è giustificato, diversamente potrebbe anzi ridurlo.
Inoltre nel futuro l’IA consumerà sempre meno, grazie allo sviluppo di modelli più maturi ed efficienti, e poi il costo maggiore che è quello iniziale di addestramento, viene ammortizzato con l’utilizzo.


In vista della crescente domanda di servizi basati sull’IA occorrerà trovare soluzioni per ridurne il pesante costo ambientale.
Servirà investire nelle energie rinnovabili – cosa che sempre più aziende che operano nell’IA stanno facendo – e nella ricerca di modelli più efficienti che richiedano meno dati e consumino meno risorse. Posizionare i data center in luoghi con climi freschi aiuterebbe a ridurre il consumo idrico.

Sarà prezioso anche il contributo degli utenti, che dovranno utilizzare questi strumenti in modo consapevole, limitandone l’uso non necessario.
Come sempre capita, a volte il problema non è la tecnologia in sé, ma l’utilizzo che ne facciamo.