Studio dell’EUIPO sull’utilizzo di intelligenza artificiale nell’enforcement di diritto diautore e design

Nel marzo 2022 stato pubblicato per conto dell’EUIPO lo <<Study on The Impact of Artificial Intelligence on the Infringement and Enforcement of Copyright and Designs>> (qui la pagina web che ne dà notizia e il link).

sia l’executive summary che le cobncluysionbs iundicatno i) opportunities, ii) drivers, iii) limitations and iv) concerns (es: Retroactive deconstruction of an algorithm may be required to assess the factors that influence a model’s predictions)

Opportunities: “Currently, the main areas of AI development are machine learning, natural language processing,
computer vision, expert systems, and explainable AI. Explainable AI is currently receiving increased
attention by experts and policy makers. Other technologies enhanced by AI, such as quantum
computing, blockchain, 3D printing, generative design, cloud services, and robotics also have great
potential. AI can identify and prioritise risks, instantly spot malware on a network, guide incident response, and detect intrusions before they occur. For example, machine learning stands out as a key
AI subfield that can be used to develop law enforcement tools such as the analysis of large amounts
of information to detect threats and identify social engineering bots, scanning of images to detect false
pages or illicit content, improving automatic content recognition (ACR) tools, and providing insights to
find infringement patterns”

L’ Artificial Intelligence Act prosegue la sua strada. Presentata bozza per COREPER in vista del Consiglio UE

Il regolamento sulla intelligenza artificiale prosegue la sua strada.

il 2 novembre 2022 è stata diffusa la bozza preparata per il COREPER in vista dell’esame del Consiglio UE.

Link all’ultima versione -con evidenziazione delle modifiche- ad es. qui  tratto da https://artificialintelligenceact.eu/documents/ , ove anche tutti gli altri testi provvuisori in utile ordine cronologico.

L’atto non va confuso con la proposta di regolamento sulla resposnabilità civile per l’intelligenza artificiale decisa il 20 ottobre 2020 dal Parlamento UE , titolata <Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)>,  n° P9_TA(2020)0276   A9-0178/2020 .

Di questo ultimo atto riporto solo la disposizione sulla responsabilità per i sistemi AI non ad alto rischio (è un rovesciamento dell’onere della prova rispetto alla consueta interpretazione del nostro art  2043 cc):

<< Articolo 8  Regime di responsabilità per colpa per gli altri sistemi di IA

1. L’operatore di un sistema di IA che non si configura come un sistema di IA ad alto rischio ai sensi dell’articolo 3, lettera c), e dell’articolo 4, paragrafo 2, e che di conseguenza non sia stato inserito nell’elenco contenuto nell’allegato al presente regolamento, è soggetto a un regime di responsabilità per colpa in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema di IA.

2. L’operatore non è responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi:

a) il sistema di IA si è attivato senza che l’operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell’operatore, o

b) è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema di IA idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema di IA, monitorando le attività e mantenendo l’affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili.

L’operatore non può sottrarsi alla responsabilità sostenendo che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal suo sistema di IA. L’operatore non è responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

3. Laddove il danno o il pregiudizio sia stato causato da un terzo che abbia interferito con il sistema di IA attraverso la modifica del suo funzionamento o dei suoi effetti, l’operatore è comunque tenuto a corrispondere un risarcimento se tale terzo è irrintracciabile o insolvibile.

4. Il produttore di un sistema di IA è tenuto a cooperare con l’operatore o con la persona interessata, su loro richiesta, e a fornire loro informazioni, nella misura giustificata dall’importanza della pretesa, al fine di consentire l’individuazione delle responsabilità>>.

Ora è pure stata adottata la posizione comune del Consiglio: v. press release 6 dicembre 2022 .

Due proposte della Commissione UE sulla responsabilità civile: da intelligenza artificiale e sostituzione di quella generale da prodotto difettoso

Comunicato della Commissione sull oggetto e cioè sulle seguente due proposte dir dir.:

Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products,  Brussels, 28.9.2022 – COM(2022) 495 final, 2022/0302 (COD): qui ad es. importante disciplina (in parte anticipata da dottrina o giurisprudenza) sull’onere della prova, art. 9;

Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence
(AI Liability Directive)
, Brussels, 28.9.2022 – COM(2022) 496 final, 2022/0303 (COD)
: molto interessanti gli art. 3 (Disclosure of evidence and rebuttable presumption of non-compliance ) e art. 4 (Rebuttable presumption of a causal link in the case of fault). E’ prcisato che la dir. regola la responsabilità aquiliana cioè non da contratto, art. 1.

La giustizia amministrativa sui concetti di “algoritmo” e di “intelligenza artificiale”

Un bando gara prevedeva la fornitura di pacemaker e tra i criteri per l’assegnazkione <<il parametro tabellare “Algoritmo di prevenzione+trattamento delle tachiaritmie atriali” al quale assegnare 15 punti per l’ipotesi di presenza di entrambi gli algoritmi e 7 punti nel caso di “presenza del solo algoritmo di prevenzione o del solo trattamento delle tachiaritmie atriali>>.

Il TAR, puntualizzato che “la legge di gara richiede unicamente la presenza di un algoritmo di trattamento (senza altro specificare)” ha definito il concetto di algoritmo, <<affermando che “con esso ci si richiama, semplicemente, a una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)“. Ha aggiunto, il primo giudice, al fine di meglio circoscrivere il concetto, che “non deve confondersi la nozione di “algoritmo” con quella di “intelligenza artificiale”, riconducibile invece allo studio di “agenti intelligenti”, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati…..sono tali, ad esempio, quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”.     4. Definita la nozione di algoritmo, il primo giudice ha così concluso il suo percorso argomentativo: “l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento). In altre parole, il dato testuale della lettera di invito non richiede che l’algoritmo di trattamento, al verificarsi dell’episodio aritmico, sia avviato dal dispositivo medesimo in automatico. Tale caratteristica attiene a una componente ulteriore, non indicata nella legge di gara, vale a dire a un algoritmo di intelligenza artificiale nella diagnosi dell’aritmia e avvio del trattamento. Fondatamente, pertanto, Abbott ha dedotto l’erroneità della valutazione della commissione di gara che – pur in presenza di un algoritmo di trattamento delle aritmie nel proprio dispositivo (vale a dire l’algoritmo NIPS, pacificamente definibile come tale) – ha attribuito soli 7 punti anziché 15 al dispositivo offerto. Infatti, la commissione ha confuso, sovrapponendoli indebitamente, il concetto di algoritmo con quello di avvio automatico del trattamento”.>>.

Ora interviene il Consiglio di STato, sez. III,  con sentenza 7891 del 25.11.2021, che sul punto così motiva, distaccandosi dal TAR: <<Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.

9.2. Nel caso di specie, per ottenere la fornitura di un dispositivo con elevato grado di automazione non occorreva che l’amministrazione facesse espresso riferimenti a elementi di intelligenza artificiale, essendo del tutto sufficiente – come ha fatto – anche in considerazione della peculiarità del prodotto (pacemaker dotati, per definizione, di una funzione continuativa di “sensing” del ritmo cardiaco e di regolazione dello stesso) il riferimento allo specifico concetto di algoritmo, ossia ad istruzioni capaci di fornire un efficiente grado di automazione, ulteriore rispetto a quello di base, sia nell’area della prevenzione che del trattamento delle tachiaritmie atriali. I pacemakers moderni e di alta fascia sono infatti dotati di un numero sempre maggiore di parametri programmabili e di algoritmi specifici progettati per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente. L’amministrazione ha espresso preferenza per la presenza congiunta di algoritmi di prevenzione e trattamento delle “tachiaritmie atriali”.>>

L’intelligenza artificiale può essere “inventor” per il diritto australiano

La querelle aperta dal dr. Thaler con la sua DABUS machine, che sta cercando di ottenere brevetto inventivo a nome proprio ma come avente causa dall’inventore costituito da intelligenza artificiale (IA), trova ora una soluzione posiiva in Australia.

Qui la Corte Federale con decisione 30.07.2021, Thaler v Commissioner of Patents [2021] FCA 879, file n° VID 108 of 2021, con analitico esame,  riforma la decisione amministrativa di rifiuto.

<<Now whilst DABUS, as an artificial intelligence system, is not a legal person and cannot legally assign the invention, it does not follow that it is not possible to derive title from DABUS. The language of s 15(1)(c) recognises that the rights of a person who derives title to the invention from an inventor extend beyond assignments to encompass other means by which an interest may be conferred.>>, § 178

Per cui dr. Thaler legittimanente dichiara di essere avente causa da DABUS: <<In my view, Dr Thaler, as the owner and controller of DABUS, would own any inventions made by DABUS, when they came into his possession. In this case, Dr Thaler apparently obtained possession of the invention through and from DABUS.  And as a consequence of his possession of the invention, combined with his ownership and control of DABUS, he prima facie obtained title to the invention.  By deriving possession of the invention from DABUS, Dr Thaler prima facie derived title.  In this respect, title can be derived from the inventor notwithstanding that it vests ab initio other than in the inventor.  That is, there is no need for the inventor ever to have owned the invention, and there is no need for title to be derived by an assignment.>>, § 189.

E poi: <<In my view on the present material there is a prima facie basis for saying that Dr Thaler is a person who derives title from the inventor, DABUS, by reason of his possession of DABUS, his ownership of the copyright in DABUS’ source code, and his ownership and possession of the computer on which it resides. Now more generally there are various possibilities for patent ownership of the output of an artificial intelligence system. First, one might have the software programmer or developer of the artificial intelligence system, who no doubt may directly or via an employer own copyright in the program in any event.  Second, one might have the person who selected and provided the input data or training data for and trained the artificial intelligence system.  Indeed, the person who provided the input data may be different from the trainer.  Third, one might have the owner of the artificial intelligence system who invested, and potentially may have lost, their capital to produce the output.  Fourth, one might have the operator of the artificial intelligence system.  But in the present case it would seem that Dr Thaler is the owner>>, §§ 193-194.

In sitnesi, <<in my view an artificial intelligence system can be an inventor for the purposes of the Act. First, an inventor is an agent noun; an agent can be a person or thing that invents.  Second, so to hold reflects the reality in terms of many otherwise patentable inventions where it cannot sensibly be said that a human is the inventor.  Third, nothing in the Act dictates the contrary conclusion.>>, § 10.

Si osservi che dr Thaler <<is the owner of copyright in DABUS’s source code. He is also the owner, is responsible for and is the operator of the computer on which DABUS operates.  But Dr Thaler is not the inventor of the alleged invention the subject of the application.  The inventor is identified on the application as “DABUS, The invention was autonomously generated by an artificial intelligence”.  DABUS is not a natural or legal person.  DABUS is an artificial intelligence system that incorporates artificial neural networks.>>, § 8

Avevo segnalato il precedente inglese contrario con post 02.10.2020.

Un mese prima dr. Thaler aveva ottenuto il brevetto sulla stessa invenzione in Sud Africa: ne dà notizia www.ipwatchdog.com con post 29 luglio u.s. ove anche il link al documento amministrativo in cui si legge che l’istante è Thaler ma l’inventore è DABUS.

(notizia e link alla sentenza da gestaltlaw.com)

L’ Executive Order del presidente Biden per promuovere la concorrenza nell’economia statunitense

Ieri 9 luglio l’amministrazione Biden ha emesso l’Executive Order (EO) on Promoting Competition in the American Economy.

E’ l’EO n. 14.036, come si legge in wikipedia .

GLi EO non sono fotne diretta di diritto erga omnes ma solo ordini alle varie amministrazioni (di valutare riforme normative per quanto in proprio potere).

Qui la scheda informativa approntata dall’Amministrazione.

Segnalo qui alcuni punti.

  • ridurre la diffusione dele clausole di non concorrenza imposte dalle aziende ai dipendenti, assai diffuse in USa;
  • quanto al digital world, questa la sintesi iniziale: << The American information technology sector has long been an engine of innovation and growth, but today a small number of dominant Internet platforms use their power to exclude market entrants, to extract monopoly profits, and to gather intimate personal information that they can exploit for their own advantage. Too many small businesses across the economy depend on those platforms and a few online marketplaces for their survival. And too many local newspapers have shuttered or downsized, in part due to the Internet platforms’ dominance in advertising markets. … This order affirms that it is the policy of my Administration to enforce the antitrust laws to combat the excessive concentration of industry, the abuses of market power, and the harmful effects of monopoly and monopsony — especially as these issues arise in labor markets, agricultural markets, Internet platform industries, healthcare markets (including insurance, hospital, and prescription drug markets), repair markets, and United States markets directly affected by foreign cartel activity.
         It is also the policy of my Administration to enforce the antitrust laws to meet the challenges posed by new industries and technologies, including the rise of the dominant Internet platforms, especially as they stem from serial mergers, the acquisition of nascent competitors, the aggregation of data, unfair competition in attention markets, the surveillance of users, and the presence of network effects.
         Whereas decades of industry consolidation have often led to excessive market concentration, this order reaffirms that the United States retains the authority to challenge transactions whose previous consummation was in violation of the Sherman Antitrust Act (26 Stat. 209, 15 U.S.C. 1 et seq.) (Sherman Act), the Clayton Antitrust Act (Public Law 63-212, 38 Stat. 730, 15 U.S.C. 12 et seq.) (Clayton Act), or other laws.  See 15 U.S.C. 18; Standard Oil Co. v. United States, 221 U.S. 1 (1911). >>
  • <internet service>: migliorare la situazione dei consumatori sotto alcuni specifici profili (qui di minor intersse): v. facts shet alla voce relativa;
  • <technology>: v. fact sheet relativa voce e spt. i profili antitrust, naturalmente:

A)  Big Tech platforms purchasing would-be competitors: Over the past ten years, the largest tech platforms have acquired hundreds of companies—including alleged “killer acquisitions” meant to shut down a potential competitive threat. Too often, federal agencies have not blocked, conditioned, or, in some cases, meaningfully examined these acquisitions.

Per cui il Presidente annuncia una policy <<of greater scrutiny of mergers, especially by dominant internet platforms, with particular attention to the acquisition of nascent competitors, serial mergers, the accumulation of data, competition by “free” products, and the effect on user privacy>>.

B) Big Tech platforms gathering too much personal information:  Many of the large platforms’ business models have depended on the accumulation of extraordinarily amounts of sensitive personal information and related data.

Per questo il Presidente encourages the FTC to establish rules on surveillance and the accumulation of data.

C) Big Tech platforms unfairly competing with small businesses:  The large platforms’ power gives them unfair opportunities to get a leg up on the small businesses that rely on them to reach customers. For example, companies that run dominant online retail marketplaces can see how small businesses’ products sell and then use the data to launch their own competing products. Because they run the platform, they can also display their own copycat products more prominently than the small businesses’ products..

Pertanto, il Presidente <encourages the FTC to establish rules barring unfair methods of competition on internet marketplaces>.

I rimedi proposti perà o mancano o sono genericissimni. Si v. l’accurato commento del prof. Hovenkamp President Biden’s Executive Order on Promoting Competition: an Antitrust Analysis, in ssrn :

<<While the President’s Executive Order has been touted as a “Progressive” document, its content falls short of that. It does notsuggest thatthe antitrust enforcement agencies break up any firms, other than becoming more aggressive about mergers. Nor does it contain any general expression of concern about vertical integration as such or advocacy for removal of antitrust immunities.Consistent with antitrust policy generally, it repeatedly expresses concerns about market power,or the power to profit by charging high prices,butitnevercomplainsabout large firm size as such. Further, while it discusses market power repeatedly, it does not speak aboutdisplacing antitrusts current economicapproachwithconcerns aboutpolitical power or large firm size.To the contrary,it makes no reference to political powerat all,except for this one telling passagethat it quotesfrom a 1957 Supreme Court decision declaring that the Sherman Act:

rests on the premise that the unrestrained interaction of competitive forces will yield thebest allocation of our economic resources, the lowest prices, the highest quality and the greatest material progress, while at the same time providing an environment conducive to the preservation of our democratic political and social institutions.

The passage is important for what it does notsay about political power, even during a period ofgreat antitrust expansion. The goals areto achieve the bestallocation ofeconomicresources, lowest prices, highest quality, and greatest material progressbut all of this within an environment that is conducive to the preservation of our democratic institutions>>, pp. 3-4

Intelligenza artificiale, riduzione della competitività e danno ai consumatori: un paper approfondito dell’autorità britannica

L’autorità britannica per la concorrenza  fa uscire un paper introduttivo  al tema in oggetto, aprendo alle consultazioni. Si tratta di Algorithms: How they can reduce competition and harm consumers, 19.01.2021, della Competition and Markets Authority (CMA).

Il paper è approfondito e interessante: affronta un tema non nuovo ma finora poco studiato (lo dice lo stessa CMA).

Si affrontano i danni possibilmente derivanti dalla personalizzazione sia tramite prezzi (personalized pricing) sia tramite altre modalità.

I prezzi personalizzati possono talora essere benefici. Talatra però <<personalised pricing could lead to consumer harm. The conditions under which competition authorities might be concerned about personalised pricing are outlined in an OFT economics paper in 2013, and include where there is insufficient competition (i.e. monopolist price discrimination), where personalised pricing is particularly complex or lacking transparency to consumers and/or where it is very costly for firms to implement . In addition, personalised pricing could harm overall economic efficiency if it causes consumers to lose trust in online markets. It could also be harmful for economic efficiency when personalised pricing increases search and transaction costs, such as consumers needing to shop around or take significant or costly steps to avoid being charged a premium>> (p. ; v. poi il § Complex and opaque pricing techniques).

Quanto ai danni da personalizzazione non su prezzo: Personalised rankings, Recommendation and filtering algorithms, Manipulating user journeys, Algorithmic discrimination (qui ci sono invero già moltssimi scritti teorici, ma poco attenti ai riscontri paratici), Geographic targeting, Unfair ranking and design, Preferencing others for commercial advantage, dark patterns (nascondono ciò che l’utente sta per accettare), etc.

C’è poi una sezione sulle pratiche escludenti (self preferencing -noti sono gli addebiti al marketplace di Amazon-, Manipulating platform algorithms and unintended exclusion, Predatory pricing).

Altra sezione è quella sull’algorithmic collusion : Facilitate explicit coordination, Hub-and-spoke , Autonomous tacit collusion.

Il senso pratico dei britannici emerge nella sezione 3, Techniques to investigate these harms (distinguendo tra ipotesi con accesso diretto ai dati e agli algoritmi e senza accesso direto)

Infine, sez. 4, considerazioni di policy. C’è un seria ragione per intervenire :

  • The opacity of algorithmic systems and the lack of operational transparency make it hard for consumers and customers to effectively discipline firms. Many of the practices we have outlined regarding online choice architecture are likely to become more subtle and challenging to detect.
  • Some of the practices we outline involve the algorithmic systems of firms that occupy important strategic positions in the UK economy (and internationally).

In conclusione (§ 5) :

Firms maximise profit. In pursuing this objective, without adequate governance, firms designing machine learning systems to achieve this will continually refine and optimise for this using whatever data is useful. Algorithmic systems can interact with pre-existing sources of market failure, such as market power and consumers’ behavioural biases. This means that using some algorithmic systems may result in products that are harmful. As regulators, we need to ensure that firms have incentives to adopt appropriate standards and checks and balances.

The market positions of the largest gateway platforms are substantial and appear to be durable, so unintended harms from their algorithmic systems can have large impacts on other firms that are reliant on the gateway platforms for their business. If algorithmic systems are not explainable and transparent, it may also make it increasingly difficult for regulators to challenge ineffective measures to counter harms.

Due to the various harms identified in this paper, firms must ensure that they are able to explain how their algorithmic systems work.

Ancora su IP e Intelligenza Artificiale

Nuovo documento sul rapporto tra IP e Artificial Intelligence (poi: AI).

E’ lo studio  edito da The Joint Institute for Innovation Policy (Brussels) e da IViR – University of Amsterdam , autori Christian HARTMANN e Jacqueline E. M. ALLAN nonchè rispettivamente P. Bernt HUGENHOLTZ-João P. QUINTAIS-Daniel GERVAIS, titolato <<Trends and Developments in Artificial Intelligence Challenges to the Intellectual Property Rights Framework, Final report>>, settembre 2020.

Lo studio si occupa in particolare di brevetti inventivi e diritto di autore.

V.  la sintesi e le recommendations per diritto diautore sub § 5.1, po. 116 ss :

  • Current EU copyright rules are generally sufficiently flexible to deal with the challenges posed by AI-assisted outputs.
  • The absence of (fully) harmonised rules of authorship and copyright ownership has led to divergent solutions in national law of distinct Member States in respect of AI-assisted works, which might justify a harmonisation initiative.
  • Further research into the risks of false authorship attributions by publishers of “work-like” but “authorless” AI productions, seen in the light of the general authorship presumption in art. 5 of the Enforcement Directive, should be considered.
  • Related rights regimes in the EU potentially extend to “authorless” AI productions in a variety of sectors: audio recording, broadcasting, audivisual recording, and news. In addition, the sui generis database right may offer protection to AI-assisted databases that are the result of substantial investment.
  • The creation/obtaining distinction in the sui generis right is a cause of legal uncertainty regarding the status of machine-generated data that could justify revision or clarification of the EU Database Directive.
  • Further study on the role of alternative IP regimes to protect AI-assisted outputs, such as trade secret protection, unfair competition and contract law, should be encouraged.

Si vedano poi quelle per il diritto brevettuale: sub 5.2, p. 118 ss:

  • The EPC is currently suitable to address the challenges posed by AI technologies in the context of AI-assisted inventions or outputs.
  • While the increasing use of AI systems for inventive purposes does not require material changes to the core concepts of patent law, the emergence of AI may have practical consequences for national Intellectual Property Offices (IPOs) and the EPO. Also, certain rules may in specific cases be difficult to apply to AI-assisted outputs and, where that is the case, it may be justified to make minor adjustments.
  • In the context of assessing novelty, IPOs and the EPO should consider investing in maintaining a level of technical capability that matches the technology available to sophisticated patent applicants.
  • In the context of assessing the inventive step, it may be advisable to update the EPO examination guidelines to adjust the definition of the POSITA and secondary indicia so as to track developments in AI-assisted inventions or outputs.
  • In the context of assessing sufficiency of disclosure, it would be useful to study the feasibility and usefulness of a deposit system (or similar legal mechanism) for AI algorithms and/or training data and models that would require applicants in appropriate cases to provide information that is relevant to meet this legal requirement, while including safeguards to protect applicants’ confidential information to the extent it is required under EU or international rules [forse il punto più interessante in assoluto!]
  • For the remaining potential challenges identified in this report arising out of AI-assisted inventions or outputs, it may be good policy to wait for cases to emerge to identify actual issues that require a regulatory response, if any.

Ancora su intelligenza artificiale e proprietà intellettuale: indagine dell’ufficio USA

Il tema dei rapporti tra proprietà intellettuale (PI) e intelligenza artificiale (AI) è sempre più al centro dell’attenzione.

L’ufficio brevetti e marchi statunitense (USPTO) ha appena pubblicato i dati di un’indagine (request for comments, RFC) su AI e diritti di PI (ci son state 99 risposte, v. Appendix I, da parte di enti ma anche di individuals) : USPTO’s report “Public Views on AI and IP Policy”, ottobre 2020 (prendo la notizia dal post 12.10.2020 di Eleonora Rosati/Bertrand Sautier in ipkat).

Il report (id est, le risposte riferite) è alquanto interessante. Segnalo:

1° – INVENZIONI

  • le risposte non ritengono necessarie modifiche al diritto brevettuale: alla domanda 3 (<Do current patent laws and regulations regarding inventorship need to be revised to take into account inventions where an entity or entities other than a natural person contributed to the conception of an invention?>), la maggiornza delle risposte < reflected the view that there is no need for revising patent laws and regulations on inventorship to account for inventions in which an entity or entities other than a natural person contributed to the conception of an invention.>, p. 5. Alla domanda 4 (<Should an entity or entities other than a natural person, or company to which a natural person assigns an invention, be able to own a patent on the AI invention? For example: Should a company who trains the artificial intelligence process that creates the invention be able to be an owner?>) , la larga maggiorahza ha detto che <no changes should be necessary to the current U.S. law—that only a natural person or a company, via assignment, should be considered the owner of a patent or an invention. However, a minority of responses stated that while inventorship and ownership rights should not be extended to machines, consideration should be given to expanding ownership to a natural person: (1) who trains an AI process, or (2) who owns/controls an AI system>, p. 7
  • sulla domanda 10 (<Are there any new forms of intellectual property protections that are needed for AI inventions, such as data protection? Data is a foundational component of AI. Access to data>), le risposte sono invece divise: <Commenters were nearly equally divided between the view that new intellectual property rights were necessary to address AI inventions and the belief that the current U.S. IP framework was adequate to address AI inventions. Generally, however, commenters who did not see the need for new forms of IP rights suggested that developments in AI technology should be monitored to ensure needs were keeping pace with AI technology developments.
    The majority of opinions requesting new IP rights focused on the need to protect the data associated with AI, particularly ML. For example, one opinion stated that “companies that collect large amounts of data have a competitive advantage relative to new entrants to the market. There could be a mechanism to provide access to the repositories of data collected by large technology companies such that proprietary rights to the data are protected but new market entrants and others can use such data to train and develop their AI.”>, p. 15

2 – ALTRI DIRITTI DI PI

  • domanda 1: la creazione da parte di AI è proteggibile come diritto di autore? No de iure condito e pure de iure condendo: <The vast majority of commenters acknowledged that existing law does not permit a non-human to be an author (outside of the work-for-hire doctrine, which creates a legal fiction for non-human employers to be authors under certain circumstances); they also responded that this should remain the law. One comment stated: “A work produced by an AI algorithm or process, without intervention of a natural person contributing expression to the resulting works, does not, and should not qualify as a work of authorship protectable under U.S. copyright law.”109 Multiple commenters noted that the rationale for this position is to support legal incentives for humans to create new works.110 Other commenters noted that AI is a tool, similar to other tools that have been used in the past to create works: “Artificial intelligence is a tool, just as much as Photoshop, Garage Band, or any other consumer software in wide use today … the current debate over whether a non-human object or process can be ‘creative’ is not new; the government has long resisted calls to extend authorship to corporations or entities that are not natural humans>, p. 20-21
  • domanda 2: quale livello di coinvolgimento umano serve allora per la proteggibilità [domanda molto rilevante nella pratica!!] ? Non si può che vederlo caso per caso:  <More broadly speaking, commenters’ response to this question either referred back to their response to the first question without comment (stating that human involvement is necessary for copyright protection) or referred back and made some further observations or clarifications, often pointing out that each scenario will require fact-specific, case-by-case consideration. Several commenters raised or reiterated their view that natural persons, for the foreseeable future, will be heavily involved in the use of AI, such as when designing models and algorithms, identifying useful training data and standards, determining how technology will be used, guiding or overriding choices made by algorithms, and selecting which outputs are useful or desirable in some way. The commenters thus predicted that the outputs of AI will be heavily reliant on human creativity>, p. 22.
  • dom. 7 sull’uso di AI nelle ricerche sui marchi: v. la distinzione tra uso dell’USPTO  e uso dei titolari di marchio, p. 31 ss.
  • dom. 9 sulla protezione dei database, p. 36 ss.: la normativa attuale è adeguata e non c’è bisogno di introdurne una ad hoc come in UE : <Commenters who answered this question mostly found that existing laws are adequate to continue to protect AI-related databases and datasets and that there is no need for reconsidering a sui generis database protection law, such as exists in Europe. Furthermore, one commenter cautioned “that AI technology is developing rapidly and that any laws proposed now could be obsolete by the time they are enacted>, p. 37

Report del Parlamento UE sul nesso tra intelligenza artificiale (AI) e proprietà intellettuale (PI)

è uscito il <REPORT on intellectual property rights for the development of artificial intelligence technologies> (2020/2015(INI)) – A9-0176/2020 del 2 ottobre 2020, approvato dal Parlamento UE (Commissione on Legal Affairs-relatore Stéphane Séjourné).

Non ci sono grandi novità : ripercorre le principali preoccupazioni e/o esigenze, che chi si interessa di AI è ormai abituato a leggere.

Riporto alcuni passi dalla MOTION FOR A EUROPEAN PARLIAMENT RESOLUTION, p. 3 ss:

  • nota che i documenti della Commissione dello scorso anno sul tema dell’AI (v. mio post 20.02.2020) non tenevano conto della PI: <notes, however, that the issue of the protection of IPRs in the context of the development of AI and related technologies has not been addressed by the Commission, despite the key importance of these rights;>, § 1, p. 6.
  • eventuale legislazione dovrà essere tramite regolamento , non direttiva, § 3.
  • sullo streaming rileva <the importance of streaming services being transparent and responsible in their use of algorithms, so that access to cultural and creative content in various forms and  different languages as well as impartial access to European works can be better guaranteed;>, § 8
  • raccomanda un approccio settoriale e tipologico per la PI, § \0.
  • circa l’attuazione/enforcement, <acknowledges the potential of AI technologies to improve the enforcement of IPRs, notwithstanding the need for human verification and review, especially where legal consequences are concerned>, § 11;
  • sui non-personal data ,<is worried about the possibility of mass manipulation of citizens being used to destabilise democracies and calls for increased awareness-raising and media literacy as well as for urgently needed AI technologies to be made available to verify facts and information>, § 18;  e osserva che <AI technologies could be useful in the context of IPR enforcement, but would require human review and a guarantee that any AI-driven decision-making systems are fully transparent; stresses that any future AI regime may not circumvent possible requirements for open source technology in public tenders or prevent the interconnectivity of digital services>, § 18, ed ancora: <notes that AI systems are software-based and rely on statistical models, which may include errors; stresses that AI-generated output must not be discriminatory and that one of the most efficient ways of reducing bias in AI systems is to ensure – to the extent possible under Union law – that the maximum amount of non-personal data is available for training purposes and machine learning; calls on the Commission to reflect on the use of public domain data for such purposes>, § 18.

Dal seguente  EXPLANATORY STATEMENT, p. 12-13:

  • le domande di brevetto relato alla AI presso l’EPO sono più che triplicate in dieci anni;
  • AI è usata ad es. per la ricerca dello stato dell’arte;
  • rivalutare la PI alla luce dell’AI costituisce una priorità per le UE.