Seguici sui nostri social

Stai cercando qualcosa in particolare?

capAI

Digitale

CAPAI, UNA ‘CASSETTA DEGLI ATTREZZI’ PER DIFERNDERSI DAI RISCHI DELL’AI

Il nuovo reportcapAI – A procedure for conducting conformity assessment of AI systems in line with the EU Artifcial Intelligence Act“, pubblicato nei giorni scorsi – dall’Università di Bologna e dall’Università di Oxford, aiuterà persone, società e ambiente a proteggersi dai rischi dell’AI.

L’iniziativa – nata come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea (Artificial Intelligence Act – AIA) – si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.

La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.

Messo a punto da un gruppo di esperti del Centro per l’Etica Digitale (CEDE) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.

Grazie a “capAI”, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.

“Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA. A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi”.

Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto

Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

“L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa. Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.

Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report

Fonte: Comunicato stampa Università di Bologna

Lascia un commento
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments
Advertisement

Articoli correlati

Legge

Il Parlamento europeo ha approvato il 13 marzo scorso il Regolamento sull’intelligenza artificiale – il cosiddetto AI Act – con l’obiettivo di difendere i...

Cybersecurity, Sanità

CYBERSECURITY: UN PASSO VERSO IL FUTURO DIGITALE Non esiste futuro sicuro e sostenibile senza l’apporto della cybersecurity. Oggi è questa una delle regole fondamentali,...

Digitale

LA “RIVOLUZIONE” DELL’INTELLIGENZA ARTIFICIALE “A.I. – Intelligenza artificiale”. Era il 2001 quando Steven Spielberg scrisse e diresse questo film che arrivò ad ottenere diverse...

Sanità

TRA PNRR E PROGRAMMAZIONE COERENTE La sanità digitale si trova di fronte ad un punto di svolta. Molto spesso, nel corso degli ultimi anni,...