L’ Artificial Intelligence Act prosegue la sua strada. Presentata bozza per COREPER in vista del Consiglio UE

Il regolamento sulla intelligenza artificiale prosegue la sua strada.

il 2 novembre 2022 è stata diffusa la bozza preparata per il COREPER in vista dell’esame del Consiglio UE.

Link all’ultima versione -con evidenziazione delle modifiche- ad es. qui  tratto da https://artificialintelligenceact.eu/documents/ , ove anche tutti gli altri testi provvuisori in utile ordine cronologico.

L’atto non va confuso con la proposta di regolamento sulla resposnabilità civile per l’intelligenza artificiale decisa il 20 ottobre 2020 dal Parlamento UE , titolata <Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)>,  n° P9_TA(2020)0276   A9-0178/2020 .

Di questo ultimo atto riporto solo la disposizione sulla responsabilità per i sistemi AI non ad alto rischio (è un rovesciamento dell’onere della prova rispetto alla consueta interpretazione del nostro art  2043 cc):

<< Articolo 8  Regime di responsabilità per colpa per gli altri sistemi di IA

1. L’operatore di un sistema di IA che non si configura come un sistema di IA ad alto rischio ai sensi dell’articolo 3, lettera c), e dell’articolo 4, paragrafo 2, e che di conseguenza non sia stato inserito nell’elenco contenuto nell’allegato al presente regolamento, è soggetto a un regime di responsabilità per colpa in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema di IA.

2. L’operatore non è responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi:

a) il sistema di IA si è attivato senza che l’operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell’operatore, o

b) è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema di IA idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema di IA, monitorando le attività e mantenendo l’affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili.

L’operatore non può sottrarsi alla responsabilità sostenendo che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal suo sistema di IA. L’operatore non è responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

3. Laddove il danno o il pregiudizio sia stato causato da un terzo che abbia interferito con il sistema di IA attraverso la modifica del suo funzionamento o dei suoi effetti, l’operatore è comunque tenuto a corrispondere un risarcimento se tale terzo è irrintracciabile o insolvibile.

4. Il produttore di un sistema di IA è tenuto a cooperare con l’operatore o con la persona interessata, su loro richiesta, e a fornire loro informazioni, nella misura giustificata dall’importanza della pretesa, al fine di consentire l’individuazione delle responsabilità>>.

Ora è pure stata adottata la posizione comune del Consiglio: v. press release 6 dicembre 2022 .