Sette gli elementi fondamentali per un'Intelligenza Artificale (IA) affidabile:
Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo.
Robustezza e sicurezza: per un'IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di IA e dei loro risultati.
La Commissione intende promuovere a livello internazionale questo approccio relativo all'etica dell'IA, perché le tecnologie, i dati e gli algoritmi non conoscono frontiere. Per questo la Commissione rafforzerà la cooperazione con i partner che condividono gli stessi principi, come il Giappone, il Canada e Singapore, e continuerà a partecipare attivamente alle discussioni e alle iniziative internazionali, anche a livello di G7 e G20. La fase pilota coinvolgerà anche imprese di altri paesi e organizzazioni internazionali.
Fonte: Commissione Europea
URL breve di questo articolo: http://bit.ly/2v28T26