Intelligenza artificiale e machine learning: un ottimo sunto delle relative questioni da parte del Parlamento UK

Il Parlamento britannico pubblica un post riassuntivo delle principali caratteristiche dei fenomeni dell’intelligenza artificale (AI) e machine learning (ML): v. POSTNOTE, n° 633, October 2020 INTERPRETABLE MACHINE LEARNING.

Con la consueta chiarezza e precisione che contraddistinguono la comunicazione divulgativa nella cultura anglosassone.

Riporto solo i concetti di IA e ML (v. Box 1):

<< Artificial intelligence (AI)  – There is no universally agreed definition of AI. It is defined in the Industrial Strategy as “technologies with the ability to perform tasks that would otherwise require human intelligence, such as visual perception, speech recognition, and language translation”. AI is useful for identifying patterns in large sets of data and making predictions.

Machine learning (ML) – ML is a branch of AI that allows a system to learn and improve from examples without all its instructions being explicitly programmed. An MLsystem is trained to carry out atask by analysing large amounts of training data and building a model that it can use toprocess future data, extrapolating its knowledge to unfamiliar situations. Applications of ML include virtual assistants (such as Alexa), product recommendation systems, and facial recognition. There is a range of ML techniques, but many experts attribute recent advances to developments in deep learning:

1) artificial neural networks (ANNs).Type of ML that have a designinspiredbythe way neurons transmit information in the human brain.17Multiple data processing units (nodes) are connected in layers, with the outputs of a previous layer used as inputs for the next.

2) deep learning (DL). Variation of ANNs. Uses a greater number of layers of artificial neurons to solve more difficult problems.16DL advances have improved areas such as voice and image recognition >>.

Il post si sofferma alquanto sulla “interpretabilità”. Tema importante, nei limiti in cui una decisione venga presa sulla base di AI/ML (diverrà dunque sempre più importante): il destinatario, per esaminarne la correttezza e valutarne l’eventuale impugnabilità, deve infatti senza troppa fatica comprenderne la motivazione.

Si legge ad es. <<Some stakeholders have said that ML that is not inherently interpretable should not be used in applications that could have a significant impact on an individual’s life (for example, in criminal justice decisions). The ICO and Alan Turing Institute have recommended that organisations prioritise using systems that use interpretable ML methods if possible, particularly for applications that have a potentially high impact on a person or are safety critical>> (p. 3).

Non è però chiaro perchè l’interpretability debba essere perseguita solo nelle decisioni più importanti e (a contrario) perchè si possa invece lasciare  nell’oscuro totale il destinatario in quelle meno importanti (come distinguere, poi, le prime dalle seconde?).

La Commissione UE sull’Intelligenza Artificiale (AI)

Sono stati da poco resi noti due documenti della Commisione sull’AI.

1) il Libro bianco On Artificial Intelligence – A European approach to excellence and trust del 19 febbraio 2020 COM(2020) 65 final .

Qui sono ricordati altri documenti interessanti:

– la Comunicazione della Commissione <<L’intelligenza artificiale per l’Europa>> del 25.04.2019, COM(2018) 237 final;

– i documenti prodotti dall’ High-Level Expert Group on Artificial Intelligence, e soprattutto: i) le Ethics Guidelines for Trustworthy Artificial Intelligence (AI) dell’8 aprile 2019  (qui v. anche il documento sulla definizione di Intelligenza Artificiale 08.04.2019) , nonchè ii) le Policy and investment recommendations for trustworthy Artificial Intelligence del 26 giugno 2019 .

2) il Technical Report dell’ European Commission Joint Research Centre (JRC) sui cruciali problemi della Robustness and Explainability of Artificial Intelligence,  2020, autori: HAMON Ronan-JNKLEWITZ Henrik-SANCHEZ MARTIN Jose Ignacio.

Chi è l’autore delle opere create tramite la “artificial intelligence”? (con un cenno ai brevetti per invenzione)

Chi è l’autore delle opere (interamente) generate dal computer? Si deve dare soggettività giuridica al robot? Si , parrebbe, secondo Franzosi M., Riv. dir. ind., 2018/2, 173/4. 

Ma, a monte, è proteggibile tale opera, tenuto conto che la creatività è tradizionalmente riconosciuta solo a persone fisiche? La risposta ad oggi è negativa, secondo Lavagnini S., Intelligenza artificiale e proprietà intellettuale: proteggibilità delle opere e titolarità dei diritti, Il dir. d’aut., 2018/3, 360 ss., a p. 370 ss.. Questa a. però ipotizza: i) alternativamente, la proteggibilità DE JURE CONDITO “nella misura in cui i risultati dell’attività dell’intelligenza artificiale (ossia la soluzione, il trovato, l’opera) dipendano in qualche modo dalle scelte e dagli input di un essere umano” (input non casuali, naturalmente, ma finalizzati, e tenendo conto che la creatività sarebbe da intendere in modo diverso da quello attuale: p. 372); ii) solo DE JURE CONDENDO, invece, la proteggibilità tramite un nuovo diritto connesso degli investimenti economico-finanziari eseguiti allo scopo (anzichè la creatività).

E se l’opera è non interamente ma  solo parzialmente realizzata con l’artificial intelligence (A.I.)? Ci riflette Christian F. Chessman   in ISpeak: Automated Authorship and Accountability in the Digital Age , 2018 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3118035; solo abstract).

Sintesi delle soluzioni possibili in Alessio Chiabotto  , Intellectual Property Rights Over Non-Human Generated Creations, 2017 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3053772),.

Ora un’articolata opinione contraria alla proteggibilità col diritto d’autore è fornita da Gervais, Daniel J., The Machine As Author (March 25, 2019). Iowa Law Review, Vol. 105, 2019. Available at SSRN: https://ssrn.com/abstract=3359524 (sintesi nel post http://copyrightblog.kluweriplaw.com/2019/05/21/can-machines-be-authors/) . La ragione sarebbe duplice. 1° mettere in esecuzione gli algoritmi non richiede gli incentivi per cui è (o: si dice essere) nata la protezione d’autore (crearli si, però: ma qui la protezione è quella autorale per il software) . Anzi, l’AI potrebbe minacciare la creatività umana. 2° le macchine non sono responsabili delle violazioni che le loro produzioni potrebbero determinare (diffamazioni, contraffazioni di altre opere dell’ingegno -come derivative works- o violazioni di altri diritti). Su questo secondo aspetto, però, la legge può intervenire, gravando qualcuno tra  i possibili candidati (programmatori, proprietari -iniziali o attuali-, utilizzatori a vario titolo)  

L’unica legislazione –almeno europea- in proposito (così Ryan Abbott, Artificial Intelligence, Big Data and Intellectual Property: Protecting Computer-Generated Works in the United Kingdom, in abbott in ssrn) è quella inglese: “In the case of a literary, dramatic, musical or artistic work which is computer-generated, the author shall be taken to be the person by whom the arrangements necessary for the creation of the work are undertaken” (art. 9/3 UK Copyright, Designs and Patents Act 1988)

 Viene segnalata la speciale regola UK circa la durata (“If the work is computer-generated the above provisions do not apply and copyright expires at the end of the period of 50 years from the end of the calendar year in which the work was made.”) da Maggiore M., ARTIFICIAL INTELLIGENCE, COMPUTER GENERATED WORKS AND DISPERSED AUTHORSHIP: SPECTRES THAT ARE HAUNTING COPYRIGHT, http://www.mmlex.it/artificial-intelligence-computer-generated-works-and-dispersed-authorship-spectres-that-are-haunting-copyright.

Sulla normativa inglese, introdotta nel 1988 come parte del Copyright, Designs and Patents Act, v.  T. Bond-S. Blair, Artificial Intelligence & copyright: Section 9(3) or authorship without an author, in Journal of Intellectual Property Law & Practice, Volume 14, Issue 6, June 2019, Page 423.

Ci sono già state delle aste di opere create tramite l’intelligenza artificiale, come riferice un articolo del 4 marzo 2019 del Guardian.   

Questo per il lato per così dire attivo di ipotetiche situazioni giuridiche coinvolgenti i computer. Ma il tema può essere allargato al lato passivo (cioè quando cagionino danno a terzi) e più in generale può considerarsi la disciplina civilistica concernente l’attività di computer e robot. Sul punto v.si la  Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) e, tra  i molti saggi dottrinali, L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, 2018/4, 713-740.

Altri ha così osservato: << Cio` che conta e`, quindi, considerare la responsabilita per danno provocato da robot nell’ambito della disciplina della sicurezza dei prodotti e della responsabilita`del produttore proprio perche´ si tratta di aree normative fortemente connesse, in quanto la mancanza di sicurezza di un prodotto puo` determinare un danno all’utilizzatore e, conseguentemente, la responsabilita`del produttore. Si tratta di normative che operano in modo differente perche´ quella sulla sicurezza dei prodotti mira ad una tutela in via preventiva, in quanto prevede che sul mercato siano immessi solo prodotti sicuri ed eliminatiquelli insicuri; mentre la normativa sulla responsabilita`del produttore, come noto, offre una tutela ex post di tipo risarcitorio nel caso di danni causati da prodotti difettosi/insicuri. Il quadro di coloro i quali sono soggetti all’obbligogenerale di sicurezza dei prodotti e` molto ampio tantoche, secondo quanto stabilito dall’art. 103, lett. d),sono il produttore, il distributore, l’importatore echiunque si presenti come produttore apponendo sulprodotto il proprio nome, marchio o altro segno distintivo, e la normativa in materia di sicurezza opta peruna migliore ripartizione delle responsabilita` in quanto coinvolge l’intera catena distributiva (sul punto la normativa dovrebbe essere integrata ricomprendendo anche altri soggetti quali: l’ideatore, il progettista, etc.), consentendo all’utente di avere maggiori garanzie rispetto allo schema di tutela proprio della responsabilita`da prodotto difettoso. L’approccio precauzionale rimane, quindi, quello da privilegiare in quanto fa sı` che in condizioni di incertezza scientifica – che nel caso dei robot intelligenti e`evidentemente determinata dalla loro possibilita` di evolversi attraverso l’esperienza fatta – il comportamento del produttore (inteso nel senso piu` ampio del termine) debba essere ispirato a prudenza al fine di privilegiare la sicurezza rispetto al rischio in correlazione con il tipo di prodotto/robot immesso sul mercato>> (Responsabilita` e robot, di G. Capilli, Nuova giur. civ. comm., 2019/3, 629-630).

SUI BREVETTI PER INVENZIONE – Infine, abbondano già i brevetti (o le domande degli stessi) sull’A.I. e in particolare sulla tecnologia c.d. machine learning  . Si veda il post 24.01.2019  di R. Hughes in Ipkitten sulla società londinese Deep Blue (ora nella galassia  Google), che pare essere leader del settore, e ivi il link all’elenco delle sue domande brevettuali, estratto dal database dell’Ufficio Brevetti Europeo e quello 15.08.2019 sempre di R. Hughes su  Stephen Thaler ,  titolare del primo brevetto relativo a software in grado di inventare