Nel panorama in rapida evoluzione dell’Intelligenza Artificiale (IA), la distinzione tra “IA buona” e “IA cattiva” diventa sempre più critica, non solo su un piano tecnologico, ma anche e soprattutto su quello etico e legale. La recente approvazione della legge sull’intelligenza artificiale dell’Unione europea (EU AI Act) è destinata a stabilire un nuovo standard globale per l’adozione responsabile dell’IA e sta sfidando le aziende e le organizzazioni di tutto il mondo a distinguere tra “Good AI” – dando priorità alla privacy e alla sicurezza – e “Bad AI” – focalizzata sullo sfruttamento dei dati-, e a trovare un equilibrio tra innovazione ed etica del progresso.

L’atto mira a proteggere i diritti dei cittadini, la democrazia e la sostenibilità ambientale dai pericoli derivanti da applicazioni errate di IA e stabilisce obblighi adeguati al livello di rischio e di impatto dei sistemi di IA, con l’obiettivo di posizionare l’Europa come leader mondiale nell’innovazione responsabile in tema di intelligenza artificiale.

La legislazione introduce divieti severi sulle applicazioni di IA ritenute dannose, come i sistemi di categorizzazione biometrica, lo scraping non mirato di immagini facciali, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il social scoring e la polizia predittiva basata esclusivamente sulla profilazione. Il documento delinea inoltre condizioni specifiche per l’uso dell’identificazione biometrica nelle forze dell’ordine e richiede trasparenza e accuratezza per i sistemi di IA ad alto rischio.

Ma quali sono i canoni da adottare nel processo di costruzione di una “buona IA”?

Le linee guida per un’IA buona: praticità e pragmatismo

La sfida della corretta implementazione dell’IA non riguarda solo il campo legislativo, ma anche i principali sviluppatori di questa tecnologia, le aziende, che si impegnano a definire roadmap aziendali di ricerca e sviluppo complete per costruire sistemi di IA in modo responsabile, affrontando i potenziali rischi in cogenza con i futuri sviluppi normativi.

È ora fondamentale che le organizzazioni considerino il ruolo della responsabilità e della governance nell’uso dei sistemi di IA, in particolare nel contesto della rapida evoluzione e adozione dell’IA generativa e dei Large Language Models (LLM), che presentano rischi specifici quali tossicità, polarità, discriminazione, eccessivo affidamento all’IA, disinformazione, privacy dei dati, sicurezza dei modelli e violazioni del copyright. Questi rischi possono manifestarsi in diversi tipi di tecnologie di IA e variare a seconda dei casi d’uso.

Ad esempio, quando si integrano strumenti di IA nelle soluzioni per i contact center, come per la gestione della qualità, l’attenzione deve essere rivolta a migliorare responsabilmente l’esperienza degli agenti, a ridurre lo stress e a semplificare le interazioni con i clienti, e non all’intelligenza artificiale fine a sé stessa.

Gli esseri umani devono rimanere “al primo posto”.

Nell’adottare un approccio responsabile all’IA, le organizzazioni devono considerare il rispetto di criteri di implementazione chiave che promuovano gli obiettivi di affidabilità e trasparenza: l’obiettivo è costruire una “buona IA”.  Gli impatti potenziali dei sistemi di IA devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi, considerando anche che tali effetti possono essere immediati o manifestarsi nel tempo; la responsabilità è di tutti.

Nel momento in cui le organizzazioni si muovono verso l’adozione responsabile dell’IA, devono considerare i destinatari dei modelli di IA – utenti aziendali, consumatori o individui – e soddisfare i criteri chiave di implementazione che supportano gli obiettivi di responsabilità e trasparenza. Gli impatti potenziali dei sistemi di IA devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi e se questi impatti sono immediati o si sviluppano nel tempo. Dobbiamo assicurarci che le nostre soluzioni non producano intenzionalmente o indirettamente risultati che raccolgano sistematicamente dati o introducano pregiudizi, inutili polarità o disinformazione nelle interazioni personali o nei discorsi pubblici. È dovere di tutti noi costruire una buona IA.

La sfida del tempo

Oggi siamo ancora nelle fasi iniziali di comprensione dei potenziali rischi dell’IA generativa; le organizzazioni dovranno sviluppare capacità di adattamento e perfezionamento continuo delle pratiche di IA responsabile, considerando gli impatti ambientali e affrontando i modelli di terze parti. Dovremo impegnarci a dare priorità alla privacy, alla sicurezza, alla conformità e alle pratiche di sviluppo responsabile, adottando o sviluppando il quadro più lungimirante per raggiungere questi obiettivi.

Ciò che è chiaro è che ogni azienda avrà una duplice responsabilità: sfruttare la potenza dell’IA generativa e le molte nuove opportunità che continuerà a fornire, mitigando al contempo i rischi associati alla “IA cattiva” e allineandosi agli standard globali emergenti per l’innovazione responsabile.

Immagine di freepik 

Josef Novak

Chief Innovation Officer di Spitch