L’IA è tra gli argomenti di cui più si è scritto negli ultimi mesi.
Abbiamo deciso di intervistare Rand Nezha, Data & AI Expert, per iniziare a parlare di un argomento che influenzerà sempre di più le imprese, la loro evoluzione verso la sostenibilità e più in generale potrà avere un’influenza nell’amplificare l’attuale paradigma economico o nel diffonderne uno rigenerativo, che metta al centro le persone e il pianeta.
Ciao Rand! Raccontaci qualcosa di te: qual è l’idea, la visione, il motivo che ti fa alzare dal letto alla mattina, per occuparti di tecnologia e intelligenza artificiale?
Buongiorno a tutte e tutti!
Un periodo chiave è stato sicuramente quello durante il quale ho studiato per diventare una Software Engineer. Ho iniziato in Siria, dove sono nata e cresciuta e successivamente ho continuato in Italia, ottenendo un master al Politecnico di Milano in Cloud Computing, quando ancora questo tema era molto di nicchia. Il motivo che mi ha spinta a intraprendere questo percorso è stata la passione scientifica, ma è stato durante l’ultimo anno di Università, grazie a un progetto che ho svolto in un ospedale, che ho capito quanto la tecnologia possa aiutare l’essere umano e semplificarne le giornate. Questo è ciò che mi motiva ancora oggi.
In genere si pensa che l’IA produca risultati oggettivi e neutrali, ma si è molto parlato di situazioni in cui l’utilizzo degli algoritmi di deep learning ha portato a esiti razzisti, sessisti, omofobi. Questo è un rischio enorme, poiché i governi, le istituzioni, le aziende e anche le persone usano sempre più spesso questi sistemi per prendere decisioni anche di primaria importanza. Il problema risiede nelle banche dati utilizzate per l’addestramento degli algoritmi, che sono piene di “bias” e pregiudizi, oppure in come sono progettati gli algoritmi stessi? Come si può risolvere questo aspetto?
Per prima cosa è importante sottolineare come l’IA non inventi niente: è un riflesso dell’umano e non inventa niente. È come un bambino che ripete quello che dicono i genitori e dunque fa emergere i bias che sono presenti nella società. Il problema della qualità del dato riguarda tantissime organizzazioni, dal pubblico al privato. A volte questi dati sono incompleti e quindi per definizione sono biased. Quando si parla di IA, ovviamente questo problema è amplificato. Per questo è importante che ogni applicativo dell’IA avvisi l’utente dell’incompletezza del dato, in modo che possano essere prese delle decisioni: non svolgere l’applicativo perché il dataset è incompleto – ma questo avviene sempre perché by design qualsiasi dataset è parzialmente inaccurato e quindi biased – oppure portare avanti un’azione di mitigazione, come ad esempio aspettare ulteriori periodi per raccogliere altri dati e aumentarne in maniera intenzionale la diversità. In questo possono essere utili gli accordi tra organizzazioni (aziende, università etc.) per unire i dati e avere dataset più completi.
Purtroppo ci sono casi in cui non ci si accorge che i dataset sono biased e per questo è importante utilizzare dei tool di Responsible AI e fare dei training, all’interno di tutte le organizzazioni che si occupano di IA (dai manager a chi scrive l’algoritmo, a chi cura i dati etc.) per assicurarsi che l’output sia etico.
In NATIVA diciamo sempre che la tecnologia è “neutra”, ovvero che dipende tutto da come la applichi: puoi utilizzarla per potenziare il paradigma economico attuale – che è estrattivo – oppure per accelerare la creazione di un paradigma economico rigenerativo, che generi valore economico, sociale e ambientale. L’IA contribuirà potrà rendere la nostra società ancora più polarizzata – sui divari di genere, sulla lotta al climate change e su altri temi sociali – o aiutarci a colmare le distanze e trovare nuove soluzioni. Quali sono le implicazioni di una tecnologia così disruptive sulle aziende?
L’IA, come tutte le altre cose, segue i valori dell’azienda. Se un’azienda che ha già dei valori positivi, l’IA li amplificherà, se un’azienda sfrutta le persone e l’ambiente, l’IA asseconderà questi aspetti. Tuttavia anche le aziende già virtuose dovrebbero integrare al proprio interno delle regole per l’utilizzo dell’IA in maniera etica. Non bastano le buone intenzioni, serve un forte commitment su questo aspetto specifico, e un’ottima comunicazione all’interno di tutta l’azienda.
A dicembre scorso l’UE ha trovato un accordo politico con disposizioni vincolanti su trasparenza e sicurezza rispetto all’utilizzo della intelligenza artificiale, ovvero “l’IA Act”. Guardando i tempi di applicazione però, sembra sempre che l’attività normativa non riesca a stare al passo con il processo di sviluppo tecnologico. Come potranno le istituzioni controllare e regolamentare questo processo? E come dovrebbero impegnarsi le aziende tech – grandi e piccole – per assicurarsi che l’utilizzo dei loro prodotti sia etico?
È una domanda difficile!
Le istituzioni sull’IA stanno diventando veloci ed è giusto che prendano l’argomento sul serio, instaurando anche un dialogo con le aziende. L’AI Act ha toccato, secondo me, i temi giusti, come ad esempio la vision recognition. In realtà, anche se al consumatore sembra che vada tutto veloce anche grazie a ChatGPT o Gemini di Google, l’implementazione dell’IA all’interno delle aziende richiederà ancora tempo e questo permetterà l’integrazione dei regolamenti sul suo utilizzo. A differenza della digitalizzazione, l’IA sta richiedendo tempi abbastanza lunghi per la sperimentazione: la qualità del dato come detto è fondamentale e tante aziende non sono mature da questo punto di vista. Un caso a parte che dovrà essere affrontato a livello politico è quello delle big tech, anche se è già stato affrontato in passato con l’arrivo ad esempio di internet e dei social media.
Non è un mistero come i data center alla base dell’IA consumino un’importante quantità di energia e anche di risorse idriche. Come è possibile migliorare questo impatto in futuro?
È un tema di cui si parla a livello globale, ancora poco in Italia dove non c’è ancora un uso massivo dell’IA da parte delle persone e delle aziende. Quando si progetta un applicativo IA ci sono tante pratiche per renderlo sostenibile by design: si può ad esempio realizzare, già in fase di progettazione, un’architettura che eviti calcoli inutili. Scegliere dei data center che siano più virtuosi di altri. Esistono anche tanti strumenti che permettono di calcolare la footprint dell’applicativo, e che devono essere utilizzati in fase di design. Però è importante guardare le implicazioni positive dell’IA a livello di impatto. Un esempio semplicissimo: l’IA saprà dire in anticipo qual è il guasto a una lavatrice, evitando all’idraulico o all’azienda produttrice tante trasferte a casa del cliente per capire o risolvere il problema, risparmiando in emissioni di CO2.
Per arrivare al cambiamento economico e sociale, come ad esempio quello verso un modello rigenerativo, dobbiamo prima di tutto immaginare un nuovo mondo, capire in quale direzione andare, attraverso un esercizio creativo che ci porta a vedere qualcosa che ancora non esiste. L’IA può essere utile per immaginare il futuro e progettare la strada per raggiungerlo? O in questo la creatività e l’ingegno umani rimangono ancora irraggiungibili?
Non possiamo saperlo, però io penso che ci sarà sempre un bilanciamento tra la creatività umana e la creatività dell’IA. Sono diverse. Quella dell’IA si basa su pattern già esistenti, non ha autenticità, non ha emozioni, non ha una parte intima, per lo meno per adesso. Invece l’essere umano ha la possibilità di creare qualcosa di mai visto prima, perché non si basa sui database. E questo secondo me vuol dire che saranno sempre più valorizzate le belle idee, ciò che non è mai stato visto prima. Io per esempio dipingo e mi sono chiesta quanto il mio processo creativo sia autentico o basato su pattern già visti imparati negli anni. Quello che so è che mio figlio sarà sempre più incentivato a creare qualcosa di autentico, basato sulle sue emozioni, invece che su repliche.
Chiudiamo con una domanda personale: attraverso il tuo lavoro, come pensi di poter essere una buona antenata per le generazioni che verranno?
Per me bisogna essere sicuri di partire sempre dall’umano e dalla natura. La tecnologia deve essere solo uno strumento: a casa mia la usiamo sempre a supporto, ad esempio dell’educazione o dello svago, e non è mai al centro delle nostre attività. Anche al lavoro io sono sempre quella che dice “Ma chi è l’utente finale qua? A chi stiamo parlando?”, proprio per ricordare al team di partire dall’umano.
Come mamma cerco di essere una buona antenata aiutando i miei figli a rimanere autentici, ascoltare sé stessi e differenziarsi: sarà questo che farà la differenza nel futuro.