Seguici sui nostri social

Stai cercando qualcosa in particolare?

capAI

Digitale

CAPAI, UNA ‘CASSETTA DEGLI ATTREZZI’ PER DIFERNDERSI DAI RISCHI DELL’AI

Il nuovo reportcapAI – A procedure for conducting conformity assessment of AI systems in line with the EU Artifcial Intelligence Act“, pubblicato nei giorni scorsi – dall’Università di Bologna e dall’Università di Oxford, aiuterà persone, società e ambiente a proteggersi dai rischi dell’AI.

L’iniziativa – nata come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea (Artificial Intelligence Act – AIA) – si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.

La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.

Messo a punto da un gruppo di esperti del Centro per l’Etica Digitale (CEDE) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.

Grazie a “capAI”, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.

“Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA. A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi”.

Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto

Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

“L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa. Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.

Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report

Fonte: Comunicato stampa Università di Bologna

Lascia un commento
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments
Advertisement

Articoli correlati

Lifestyle

“INTELLIGENZA ARTIFICIALE E INTERNET OF THINGS APPLICATI ALLO SPORT. IL RUOLO DELLA RICERCA NEL PROCESSO DI TRASFORMAZIONE DI UN’IDEA IN UNO USE CASE DI...

Ambiente

Gli ecosistemi dell’Adriatico sono dotati di grande resilienza in quanto la fauna marina è riuscita ad adattarsi alle trasformazioni climatiche avvenute negli ultimi 130.000...

Digitale

Allo scopo di valorizzare e avvicinare le giovani donne alle tematiche legate all’Intelligenza Artificiale, ed in generale alle materie Stem, arriva “AIxGIRLS”, il primo...

Lavoro

Il 20 maggio, Palazzo Re Enzo ospiterà lo StartUp Day dell’Università di Bologna, evento dedicato alla ricerca e all’innovazione del mondo delle startup ma...