Auditing sul business etico e intelligenza artificiale: uno studio su una prassi che diverrà sempre più attuale

Uno studio recente affronta un tema,  che (non è previsione difficile) diverrà sempre più importante, quello dell’auditing dei processi applicativi della intelligenza artificiale:  Mökander, J., Floridi, L. Operationalising AI governance through ethics-based auditing: an industry case study. AI Ethics (2022). https://doi.org/10.1007/s43681-022-00171-7 .

Qui trovi ampia bibligrafia sui lavori anteriori e menzione alle note 75-76 delle proposte di legge UE e USA su disciplina armonizzata della IA e rispettivamente su algorithimic accountability .

Precisamente, riferiscono di un lavoro di 12 mesi svolto presso il colosso farmaceutico britannico AstraZeneca relativo alla AI ethic audit (v. § 4).

Gli aa. tengono a precisare che si tratta di “Ethic” AI auditing e che il profilo centrale è quello di organizzare la corporate governnace in funzione di un corretto utilizzo dell ‘AI (v. § 6.4  e § 8 Conclusions)

L’autore di opera dell’ingegno non può essere l’intelligenza artificiale (novità amministrative dagli USA)

Si consolida l’orientamento che nega legittimazione alla privativa in capo all’algoritmo di Intelligenza Artiiciale, copyright o brevetto ivnentivo che sia..

Ora si pronuncia in tale sneo pure il  reclamo del US copyright office 14.02.2022, relativo alla composizione grafica “A Recent Entrance to Paradise”.

Si tratta sempre di uno dei tentativi dell’indomito dr. Stephen Thaler.

<<For this reason, the Compendium of U.S. Copyright Office Practices — the practice manual for the Office — has long mandated human authorship for registration. After enactment of the 1976 Copyright Act, the second edition of the Compendium was updated to reflect the Office’s understanding that human authorship is required by the law. See U.S. COPYRIGHT OFFICE, COMPENDIUM OF U.S. COPYRIGHT OFFICE PRACTICES § 202.02(b) (2d ed. 1984) (“COMPENDIUM (SECOND)”) (“The term ‘authorship’ implies that, for a work to be copyrightable,
it must owe its origin to a human being. Materials produced solely by nature, by plants, or by animals are not copyrightable.”), available at  https://www.copyright.gov/history/comp/compendium-two.pdf. The current Compendium retains this requirement and articulates its application in multiple circumstances where non-human expression raises unique challenges.
See COMPENDIUM (THIRD) §§ 709.1 (automated computer translations); 803.6(B) (derivative sound recordings made by purely mechanical processes); 805.4(C) & 806.4(C) (human performance required for choreography and pantomimes); 808.8(E) (human selection of color in colorized motion pictures); 906.8 (machine produced expression in visual arts works, such as linoleum flooring); 909.3(B) (x-rays and other medical imaging); 1006.1(A) (hypertext markup language if created by a human being “rather than a website design program”). Although no
Compendium section explicitly addresses artificial intelligence, the Board concludes that Office policy and practice makes human authorship a prerequisite for copyright protection.
The Office’s position is supported by a recent report from the U.S. Patent and Trademark Office (“USPTO”) addressing intellectual property issues raised by AI. USPTO sought public comment on whether “a work produced by an AI algorithm or process, without the involvement of a natural person . . . qualif[ies] as a work of authorship” under the Copyright Act. U.S. PATENT AND TRADEMARK OFFICE, PUBLIC VIEWS ON ARTIFICIAL INTELLIGENCE AND INTELLECTUAL PROPERTY POLICY at 19 (2020), available at https://www.uspto.gov/sites/default/files/documents/USPTO_AI-Report_2020-10-07.pdf. In its summary of responses,
USPTO noted that “the vast majority of commenters acknowledged that existing law does not permit a non-human to be an author [and] this should remain the law.” Id. at 20–21.

The Board agrees.>>.

E’ rigdettato anche la domanda bdsata sul work made for hire (creazione da parte del dipendente), non essendoci chiaramente alcun rapporto di lavoro tra la macchina e Thaler.

C’è già molta letteratura sul punto.

Per altri cenni v. mio post 01.12.2018 .

La giustizia amministrativa sui concetti di “algoritmo” e di “intelligenza artificiale”

Un bando gara prevedeva la fornitura di pacemaker e tra i criteri per l’assegnazkione <<il parametro tabellare “Algoritmo di prevenzione+trattamento delle tachiaritmie atriali” al quale assegnare 15 punti per l’ipotesi di presenza di entrambi gli algoritmi e 7 punti nel caso di “presenza del solo algoritmo di prevenzione o del solo trattamento delle tachiaritmie atriali>>.

Il TAR, puntualizzato che “la legge di gara richiede unicamente la presenza di un algoritmo di trattamento (senza altro specificare)” ha definito il concetto di algoritmo, <<affermando che “con esso ci si richiama, semplicemente, a una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)“. Ha aggiunto, il primo giudice, al fine di meglio circoscrivere il concetto, che “non deve confondersi la nozione di “algoritmo” con quella di “intelligenza artificiale”, riconducibile invece allo studio di “agenti intelligenti”, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati…..sono tali, ad esempio, quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”.     4. Definita la nozione di algoritmo, il primo giudice ha così concluso il suo percorso argomentativo: “l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento). In altre parole, il dato testuale della lettera di invito non richiede che l’algoritmo di trattamento, al verificarsi dell’episodio aritmico, sia avviato dal dispositivo medesimo in automatico. Tale caratteristica attiene a una componente ulteriore, non indicata nella legge di gara, vale a dire a un algoritmo di intelligenza artificiale nella diagnosi dell’aritmia e avvio del trattamento. Fondatamente, pertanto, Abbott ha dedotto l’erroneità della valutazione della commissione di gara che – pur in presenza di un algoritmo di trattamento delle aritmie nel proprio dispositivo (vale a dire l’algoritmo NIPS, pacificamente definibile come tale) – ha attribuito soli 7 punti anziché 15 al dispositivo offerto. Infatti, la commissione ha confuso, sovrapponendoli indebitamente, il concetto di algoritmo con quello di avvio automatico del trattamento”.>>.

Ora interviene il Consiglio di STato, sez. III,  con sentenza 7891 del 25.11.2021, che sul punto così motiva, distaccandosi dal TAR: <<Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.

9.2. Nel caso di specie, per ottenere la fornitura di un dispositivo con elevato grado di automazione non occorreva che l’amministrazione facesse espresso riferimenti a elementi di intelligenza artificiale, essendo del tutto sufficiente – come ha fatto – anche in considerazione della peculiarità del prodotto (pacemaker dotati, per definizione, di una funzione continuativa di “sensing” del ritmo cardiaco e di regolazione dello stesso) il riferimento allo specifico concetto di algoritmo, ossia ad istruzioni capaci di fornire un efficiente grado di automazione, ulteriore rispetto a quello di base, sia nell’area della prevenzione che del trattamento delle tachiaritmie atriali. I pacemakers moderni e di alta fascia sono infatti dotati di un numero sempre maggiore di parametri programmabili e di algoritmi specifici progettati per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente. L’amministrazione ha espresso preferenza per la presenza congiunta di algoritmi di prevenzione e trattamento delle “tachiaritmie atriali”.>>

Anche Taiwan conferma che l’inventore deve essere un umano, per cui non può esserlo un sistema di Intelligenza Artificiale (ancora su DABUS)

GRUR International dà notizia di una decisione dell’ufficio brevettuale taiwanese (incardinato presso un Tribunale/Court, parrebbe dal nome) che rigetta la domanda di brevetto intestata alla intelligenza artificiale.

Manco a dirlo, si tratta del noto sistema di A.I. detto DABUS, autore del quale è il solito Stephen L. Thaler.

Ecco le massime presenti nella cit. rivista:

1. Only a natural person qualifies as an inventor under the patent laws of Taiwan. This reading is confirmed by a plain reading of the relevant statutes, the overall purpose of the patent system, and the inventor’s moral rights to indicate their name in the patent application.

2. An artificial intelligence system (AI) is not a person but an object of rights under the law of Taiwan. As such it cannot become a subject of rights, have legal capacity, or be entitled to legal rights.

3. The fact that an applicant only provides the name of an AI can be considered a failure to indicate the name and nationality of the inventor. If the applicant fails to remedy the omission within the statutory or specified time periods, the patent application shall be lawfully dismissed.

Anche il Regno Unito nega il brevetto all’invenzione generata da intelligenza artificiale (sul caso Thaler-DABUS)

la corte di appello UK , 21.09.2021, caso No: A3/2020/1851, Thaler c. COMPTROLLER GENERAL OF PATENTS TRADE MARKS AND DESIGNS, a maggioranza conferma il rigetto della domanda brevettuale.

La lunga battaglia processuale del dr. Thaler in  molti Uffici brevettuali e tribunali, sparsi nel mondo, segna un’altra battuta di arresto (si v. quella di inizio mese in Virginia USA, ricordata nel mio post di ieri).

Secondo i giudici Arnold e Laing, nè DABUS è inventore (deve esserlo un umano) nè Thaler (poi: T.) ha indicato un titolo (derivativo o altro) per essere indicato lui come tale.

J. Birss concorda sul primo punto , ma non sul secondo: secondo lui  i) T. ha in buona fede  indicato chi secondo lui è l’inventore, § 58, e ii) quale costruttore della macchimna , gli spetta -per accessione, direi- il diritto sull’output della stessa e cioè l’esclusiva brevettuale, § 82 (J. Arnold nega l’invocabilità dell’accession doctrine: § 130 ss).

Quanto ad ii) non mi pronuncio, se non per dire che l’applicazine dell’accession agli intangibles è ammissibile pur se in base al criterio analogico (essendo indubbiamente dettata dal diritto positivo per le res) .

Quanto ad i), c’è un palese errore. La sec. 13.2.a del patent act, laddove dice <<identifying the person or persons whom he believes to be the inventor  or inventors>>, intende si l’indicazione di chi secondo il depositante è l’inventore, ma sempre purchè sia persona fisica

Ancora su IP e Intelligenza Artificiale

Nuovo documento sul rapporto tra IP e Artificial Intelligence (poi: AI).

E’ lo studio  edito da The Joint Institute for Innovation Policy (Brussels) e da IViR – University of Amsterdam , autori Christian HARTMANN e Jacqueline E. M. ALLAN nonchè rispettivamente P. Bernt HUGENHOLTZ-João P. QUINTAIS-Daniel GERVAIS, titolato <<Trends and Developments in Artificial Intelligence Challenges to the Intellectual Property Rights Framework, Final report>>, settembre 2020.

Lo studio si occupa in particolare di brevetti inventivi e diritto di autore.

V.  la sintesi e le recommendations per diritto diautore sub § 5.1, po. 116 ss :

  • Current EU copyright rules are generally sufficiently flexible to deal with the challenges posed by AI-assisted outputs.
  • The absence of (fully) harmonised rules of authorship and copyright ownership has led to divergent solutions in national law of distinct Member States in respect of AI-assisted works, which might justify a harmonisation initiative.
  • Further research into the risks of false authorship attributions by publishers of “work-like” but “authorless” AI productions, seen in the light of the general authorship presumption in art. 5 of the Enforcement Directive, should be considered.
  • Related rights regimes in the EU potentially extend to “authorless” AI productions in a variety of sectors: audio recording, broadcasting, audivisual recording, and news. In addition, the sui generis database right may offer protection to AI-assisted databases that are the result of substantial investment.
  • The creation/obtaining distinction in the sui generis right is a cause of legal uncertainty regarding the status of machine-generated data that could justify revision or clarification of the EU Database Directive.
  • Further study on the role of alternative IP regimes to protect AI-assisted outputs, such as trade secret protection, unfair competition and contract law, should be encouraged.

Si vedano poi quelle per il diritto brevettuale: sub 5.2, p. 118 ss:

  • The EPC is currently suitable to address the challenges posed by AI technologies in the context of AI-assisted inventions or outputs.
  • While the increasing use of AI systems for inventive purposes does not require material changes to the core concepts of patent law, the emergence of AI may have practical consequences for national Intellectual Property Offices (IPOs) and the EPO. Also, certain rules may in specific cases be difficult to apply to AI-assisted outputs and, where that is the case, it may be justified to make minor adjustments.
  • In the context of assessing novelty, IPOs and the EPO should consider investing in maintaining a level of technical capability that matches the technology available to sophisticated patent applicants.
  • In the context of assessing the inventive step, it may be advisable to update the EPO examination guidelines to adjust the definition of the POSITA and secondary indicia so as to track developments in AI-assisted inventions or outputs.
  • In the context of assessing sufficiency of disclosure, it would be useful to study the feasibility and usefulness of a deposit system (or similar legal mechanism) for AI algorithms and/or training data and models that would require applicants in appropriate cases to provide information that is relevant to meet this legal requirement, while including safeguards to protect applicants’ confidential information to the extent it is required under EU or international rules [forse il punto più interessante in assoluto!]
  • For the remaining potential challenges identified in this report arising out of AI-assisted inventions or outputs, it may be good policy to wait for cases to emerge to identify actual issues that require a regulatory response, if any.

Ancora su intelligenza artificiale e proprietà intellettuale: indagine dell’ufficio USA

Il tema dei rapporti tra proprietà intellettuale (PI) e intelligenza artificiale (AI) è sempre più al centro dell’attenzione.

L’ufficio brevetti e marchi statunitense (USPTO) ha appena pubblicato i dati di un’indagine (request for comments, RFC) su AI e diritti di PI (ci son state 99 risposte, v. Appendix I, da parte di enti ma anche di individuals) : USPTO’s report “Public Views on AI and IP Policy”, ottobre 2020 (prendo la notizia dal post 12.10.2020 di Eleonora Rosati/Bertrand Sautier in ipkat).

Il report (id est, le risposte riferite) è alquanto interessante. Segnalo:

1° – INVENZIONI

  • le risposte non ritengono necessarie modifiche al diritto brevettuale: alla domanda 3 (<Do current patent laws and regulations regarding inventorship need to be revised to take into account inventions where an entity or entities other than a natural person contributed to the conception of an invention?>), la maggiornza delle risposte < reflected the view that there is no need for revising patent laws and regulations on inventorship to account for inventions in which an entity or entities other than a natural person contributed to the conception of an invention.>, p. 5. Alla domanda 4 (<Should an entity or entities other than a natural person, or company to which a natural person assigns an invention, be able to own a patent on the AI invention? For example: Should a company who trains the artificial intelligence process that creates the invention be able to be an owner?>) , la larga maggiorahza ha detto che <no changes should be necessary to the current U.S. law—that only a natural person or a company, via assignment, should be considered the owner of a patent or an invention. However, a minority of responses stated that while inventorship and ownership rights should not be extended to machines, consideration should be given to expanding ownership to a natural person: (1) who trains an AI process, or (2) who owns/controls an AI system>, p. 7
  • sulla domanda 10 (<Are there any new forms of intellectual property protections that are needed for AI inventions, such as data protection? Data is a foundational component of AI. Access to data>), le risposte sono invece divise: <Commenters were nearly equally divided between the view that new intellectual property rights were necessary to address AI inventions and the belief that the current U.S. IP framework was adequate to address AI inventions. Generally, however, commenters who did not see the need for new forms of IP rights suggested that developments in AI technology should be monitored to ensure needs were keeping pace with AI technology developments.
    The majority of opinions requesting new IP rights focused on the need to protect the data associated with AI, particularly ML. For example, one opinion stated that “companies that collect large amounts of data have a competitive advantage relative to new entrants to the market. There could be a mechanism to provide access to the repositories of data collected by large technology companies such that proprietary rights to the data are protected but new market entrants and others can use such data to train and develop their AI.”>, p. 15

2 – ALTRI DIRITTI DI PI

  • domanda 1: la creazione da parte di AI è proteggibile come diritto di autore? No de iure condito e pure de iure condendo: <The vast majority of commenters acknowledged that existing law does not permit a non-human to be an author (outside of the work-for-hire doctrine, which creates a legal fiction for non-human employers to be authors under certain circumstances); they also responded that this should remain the law. One comment stated: “A work produced by an AI algorithm or process, without intervention of a natural person contributing expression to the resulting works, does not, and should not qualify as a work of authorship protectable under U.S. copyright law.”109 Multiple commenters noted that the rationale for this position is to support legal incentives for humans to create new works.110 Other commenters noted that AI is a tool, similar to other tools that have been used in the past to create works: “Artificial intelligence is a tool, just as much as Photoshop, Garage Band, or any other consumer software in wide use today … the current debate over whether a non-human object or process can be ‘creative’ is not new; the government has long resisted calls to extend authorship to corporations or entities that are not natural humans>, p. 20-21
  • domanda 2: quale livello di coinvolgimento umano serve allora per la proteggibilità [domanda molto rilevante nella pratica!!] ? Non si può che vederlo caso per caso:  <More broadly speaking, commenters’ response to this question either referred back to their response to the first question without comment (stating that human involvement is necessary for copyright protection) or referred back and made some further observations or clarifications, often pointing out that each scenario will require fact-specific, case-by-case consideration. Several commenters raised or reiterated their view that natural persons, for the foreseeable future, will be heavily involved in the use of AI, such as when designing models and algorithms, identifying useful training data and standards, determining how technology will be used, guiding or overriding choices made by algorithms, and selecting which outputs are useful or desirable in some way. The commenters thus predicted that the outputs of AI will be heavily reliant on human creativity>, p. 22.
  • dom. 7 sull’uso di AI nelle ricerche sui marchi: v. la distinzione tra uso dell’USPTO  e uso dei titolari di marchio, p. 31 ss.
  • dom. 9 sulla protezione dei database, p. 36 ss.: la normativa attuale è adeguata e non c’è bisogno di introdurne una ad hoc come in UE : <Commenters who answered this question mostly found that existing laws are adequate to continue to protect AI-related databases and datasets and that there is no need for reconsidering a sui generis database protection law, such as exists in Europe. Furthermore, one commenter cautioned “that AI technology is developing rapidly and that any laws proposed now could be obsolete by the time they are enacted>, p. 37

Intelligenza artificiale e machine learning: un ottimo sunto delle relative questioni da parte del Parlamento UK

Il Parlamento britannico pubblica un post riassuntivo delle principali caratteristiche dei fenomeni dell’intelligenza artificale (AI) e machine learning (ML): v. POSTNOTE, n° 633, October 2020 INTERPRETABLE MACHINE LEARNING.

Con la consueta chiarezza e precisione che contraddistinguono la comunicazione divulgativa nella cultura anglosassone.

Riporto solo i concetti di IA e ML (v. Box 1):

<< Artificial intelligence (AI)  – There is no universally agreed definition of AI. It is defined in the Industrial Strategy as “technologies with the ability to perform tasks that would otherwise require human intelligence, such as visual perception, speech recognition, and language translation”. AI is useful for identifying patterns in large sets of data and making predictions.

Machine learning (ML) – ML is a branch of AI that allows a system to learn and improve from examples without all its instructions being explicitly programmed. An MLsystem is trained to carry out atask by analysing large amounts of training data and building a model that it can use toprocess future data, extrapolating its knowledge to unfamiliar situations. Applications of ML include virtual assistants (such as Alexa), product recommendation systems, and facial recognition. There is a range of ML techniques, but many experts attribute recent advances to developments in deep learning:

1) artificial neural networks (ANNs).Type of ML that have a designinspiredbythe way neurons transmit information in the human brain.17Multiple data processing units (nodes) are connected in layers, with the outputs of a previous layer used as inputs for the next.

2) deep learning (DL). Variation of ANNs. Uses a greater number of layers of artificial neurons to solve more difficult problems.16DL advances have improved areas such as voice and image recognition >>.

Il post si sofferma alquanto sulla “interpretabilità”. Tema importante, nei limiti in cui una decisione venga presa sulla base di AI/ML (diverrà dunque sempre più importante): il destinatario, per esaminarne la correttezza e valutarne l’eventuale impugnabilità, deve infatti senza troppa fatica comprenderne la motivazione.

Si legge ad es. <<Some stakeholders have said that ML that is not inherently interpretable should not be used in applications that could have a significant impact on an individual’s life (for example, in criminal justice decisions). The ICO and Alan Turing Institute have recommended that organisations prioritise using systems that use interpretable ML methods if possible, particularly for applications that have a potentially high impact on a person or are safety critical>> (p. 3).

Non è però chiaro perchè l’interpretability debba essere perseguita solo nelle decisioni più importanti e (a contrario) perchè si possa invece lasciare  nell’oscuro totale il destinatario in quelle meno importanti (come distinguere, poi, le prime dalle seconde?).

La Commissione UE sull’Intelligenza Artificiale (AI)

Sono stati da poco resi noti due documenti della Commisione sull’AI.

1) il Libro bianco On Artificial Intelligence – A European approach to excellence and trust del 19 febbraio 2020 COM(2020) 65 final .

Qui sono ricordati altri documenti interessanti:

– la Comunicazione della Commissione <<L’intelligenza artificiale per l’Europa>> del 25.04.2019, COM(2018) 237 final;

– i documenti prodotti dall’ High-Level Expert Group on Artificial Intelligence, e soprattutto: i) le Ethics Guidelines for Trustworthy Artificial Intelligence (AI) dell’8 aprile 2019  (qui v. anche il documento sulla definizione di Intelligenza Artificiale 08.04.2019) , nonchè ii) le Policy and investment recommendations for trustworthy Artificial Intelligence del 26 giugno 2019 .

2) il Technical Report dell’ European Commission Joint Research Centre (JRC) sui cruciali problemi della Robustness and Explainability of Artificial Intelligence,  2020, autori: HAMON Ronan-JNKLEWITZ Henrik-SANCHEZ MARTIN Jose Ignacio.

Chi è l’autore delle opere create tramite la “artificial intelligence”? (con un cenno ai brevetti per invenzione)

Chi è l’autore delle opere (interamente) generate dal computer? Si deve dare soggettività giuridica al robot? Si , parrebbe, secondo Franzosi M., Riv. dir. ind., 2018/2, 173/4. 

Ma, a monte, è proteggibile tale opera, tenuto conto che la creatività è tradizionalmente riconosciuta solo a persone fisiche? La risposta ad oggi è negativa, secondo Lavagnini S., Intelligenza artificiale e proprietà intellettuale: proteggibilità delle opere e titolarità dei diritti, Il dir. d’aut., 2018/3, 360 ss., a p. 370 ss.. Questa a. però ipotizza: i) alternativamente, la proteggibilità DE JURE CONDITO “nella misura in cui i risultati dell’attività dell’intelligenza artificiale (ossia la soluzione, il trovato, l’opera) dipendano in qualche modo dalle scelte e dagli input di un essere umano” (input non casuali, naturalmente, ma finalizzati, e tenendo conto che la creatività sarebbe da intendere in modo diverso da quello attuale: p. 372); ii) solo DE JURE CONDENDO, invece, la proteggibilità tramite un nuovo diritto connesso degli investimenti economico-finanziari eseguiti allo scopo (anzichè la creatività).

E se l’opera è non interamente ma  solo parzialmente realizzata con l’artificial intelligence (A.I.)? Ci riflette Christian F. Chessman   in ISpeak: Automated Authorship and Accountability in the Digital Age , 2018 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3118035; solo abstract).

Sintesi delle soluzioni possibili in Alessio Chiabotto  , Intellectual Property Rights Over Non-Human Generated Creations, 2017 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3053772),.

Ora un’articolata opinione contraria alla proteggibilità col diritto d’autore è fornita da Gervais, Daniel J., The Machine As Author (March 25, 2019). Iowa Law Review, Vol. 105, 2019. Available at SSRN: https://ssrn.com/abstract=3359524 (sintesi nel post http://copyrightblog.kluweriplaw.com/2019/05/21/can-machines-be-authors/) . La ragione sarebbe duplice. 1° mettere in esecuzione gli algoritmi non richiede gli incentivi per cui è (o: si dice essere) nata la protezione d’autore (crearli si, però: ma qui la protezione è quella autorale per il software) . Anzi, l’AI potrebbe minacciare la creatività umana. 2° le macchine non sono responsabili delle violazioni che le loro produzioni potrebbero determinare (diffamazioni, contraffazioni di altre opere dell’ingegno -come derivative works- o violazioni di altri diritti). Su questo secondo aspetto, però, la legge può intervenire, gravando qualcuno tra  i possibili candidati (programmatori, proprietari -iniziali o attuali-, utilizzatori a vario titolo)  

L’unica legislazione –almeno europea- in proposito (così Ryan Abbott, Artificial Intelligence, Big Data and Intellectual Property: Protecting Computer-Generated Works in the United Kingdom, in abbott in ssrn) è quella inglese: “In the case of a literary, dramatic, musical or artistic work which is computer-generated, the author shall be taken to be the person by whom the arrangements necessary for the creation of the work are undertaken” (art. 9/3 UK Copyright, Designs and Patents Act 1988)

 Viene segnalata la speciale regola UK circa la durata (“If the work is computer-generated the above provisions do not apply and copyright expires at the end of the period of 50 years from the end of the calendar year in which the work was made.”) da Maggiore M., ARTIFICIAL INTELLIGENCE, COMPUTER GENERATED WORKS AND DISPERSED AUTHORSHIP: SPECTRES THAT ARE HAUNTING COPYRIGHT, http://www.mmlex.it/artificial-intelligence-computer-generated-works-and-dispersed-authorship-spectres-that-are-haunting-copyright.

Sulla normativa inglese, introdotta nel 1988 come parte del Copyright, Designs and Patents Act, v.  T. Bond-S. Blair, Artificial Intelligence & copyright: Section 9(3) or authorship without an author, in Journal of Intellectual Property Law & Practice, Volume 14, Issue 6, June 2019, Page 423.

Ci sono già state delle aste di opere create tramite l’intelligenza artificiale, come riferice un articolo del 4 marzo 2019 del Guardian.   

Questo per il lato per così dire attivo di ipotetiche situazioni giuridiche coinvolgenti i computer. Ma il tema può essere allargato al lato passivo (cioè quando cagionino danno a terzi) e più in generale può considerarsi la disciplina civilistica concernente l’attività di computer e robot. Sul punto v.si la  Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) e, tra  i molti saggi dottrinali, L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, 2018/4, 713-740.

Altri ha così osservato: << Cio` che conta e`, quindi, considerare la responsabilita per danno provocato da robot nell’ambito della disciplina della sicurezza dei prodotti e della responsabilita`del produttore proprio perche´ si tratta di aree normative fortemente connesse, in quanto la mancanza di sicurezza di un prodotto puo` determinare un danno all’utilizzatore e, conseguentemente, la responsabilita`del produttore. Si tratta di normative che operano in modo differente perche´ quella sulla sicurezza dei prodotti mira ad una tutela in via preventiva, in quanto prevede che sul mercato siano immessi solo prodotti sicuri ed eliminatiquelli insicuri; mentre la normativa sulla responsabilita`del produttore, come noto, offre una tutela ex post di tipo risarcitorio nel caso di danni causati da prodotti difettosi/insicuri. Il quadro di coloro i quali sono soggetti all’obbligogenerale di sicurezza dei prodotti e` molto ampio tantoche, secondo quanto stabilito dall’art. 103, lett. d),sono il produttore, il distributore, l’importatore echiunque si presenti come produttore apponendo sulprodotto il proprio nome, marchio o altro segno distintivo, e la normativa in materia di sicurezza opta peruna migliore ripartizione delle responsabilita` in quanto coinvolge l’intera catena distributiva (sul punto la normativa dovrebbe essere integrata ricomprendendo anche altri soggetti quali: l’ideatore, il progettista, etc.), consentendo all’utente di avere maggiori garanzie rispetto allo schema di tutela proprio della responsabilita`da prodotto difettoso. L’approccio precauzionale rimane, quindi, quello da privilegiare in quanto fa sı` che in condizioni di incertezza scientifica – che nel caso dei robot intelligenti e`evidentemente determinata dalla loro possibilita` di evolversi attraverso l’esperienza fatta – il comportamento del produttore (inteso nel senso piu` ampio del termine) debba essere ispirato a prudenza al fine di privilegiare la sicurezza rispetto al rischio in correlazione con il tipo di prodotto/robot immesso sul mercato>> (Responsabilita` e robot, di G. Capilli, Nuova giur. civ. comm., 2019/3, 629-630).

SUI BREVETTI PER INVENZIONE – Infine, abbondano già i brevetti (o le domande degli stessi) sull’A.I. e in particolare sulla tecnologia c.d. machine learning  . Si veda il post 24.01.2019  di R. Hughes in Ipkitten sulla società londinese Deep Blue (ora nella galassia  Google), che pare essere leader del settore, e ivi il link all’elenco delle sue domande brevettuali, estratto dal database dell’Ufficio Brevetti Europeo e quello 15.08.2019 sempre di R. Hughes su  Stephen Thaler ,  titolare del primo brevetto relativo a software in grado di inventare