Azione di classe contro Google, basata su illecito data scraping per allenare la sua intelligenza artificiale

E’ diffusa in rete la notizia della citazione in giudizio per l’illecito in oggetto del 11 luglio 2023 da parte della Clarkson law firm, reperibile ad es proprio nel sito dello studio)  (“web-scraping theft” per la chatbox BArd, concorrente di OpenAI, ad altro).

Provato Bard con richiesta di consulenza giuridica: fa diversi errori (serve altro allenamento)

Google scansionerebbe e raccoglierebbe qualunque dato passa per i suoi server (irragionevole dubitarne). Pare che non sia molto coperta da consenso contrattuale (nonostante nessuno riesca a farle modificare i moduli di accettazione iniziali)

Sono azionati diritto di privacy,  di proprietà sui dati (non coincidente con la privacy; opinabile, ma dipende da come i due istituti son configurati nei singoli ordinamenti), di copyright, di concorrenza sleale (sub III, da § 153 ss.)

Linee guida dello US Copyright Office sulla registrabilità di opere prodotte con intelligenza artificiale

Sono state diffuse le “Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence” , 10-16 marzo 2023.

Fonte: web page dell’Ufficio .

Il passo interessante è sub III:

<<It begins by asking ‘‘whether the ‘work’ is basically one of human authorship, with the computer [or other device] merely beingan assisting instrument, or whether thetraditional elements of authorship in the work (literary, artistic, or musicalexpression or elements of selection,arrangement, etc.) were actually conceived and executed not by man but by a machine.’’ In the case of works containing AI-generated material, theOffice will consider whether the AI contributions are the result of‘‘mechanical reproduction’’ or instead of an author’s ‘‘own original mentalconception, to which [the author] gave visible form.’’ The answer will depend on the circumstances,particularly how the AI tool operatesand how it was used to create the final work. This is necessarily a case-by case inquiry. If a work’s traditional elements of authorship were produced by a machine, the work lacks human authorship and the Office will not register it.
For example, when an AI technology receives solely a prompt from a human and produces complex written, visual, or musical works in response, the ‘‘traditional elements of authorship’’ are determined and executed by the technology—not the human user.
Based on the Office’s understanding of the generative AI technologies currently available, users do not exercise ultimate creative control over how such systems interpret prompts and generate material.
Instead,these prompts function more like instructions to a commissioned artist—they identify what the prompter wishes to have depicted, but the machine determines how those instructions are implemented in its output.
Forexample, if a user instructs a text generating technology to ‘‘write a poem about copyright law in the style ofWilliam Shakespeare,’’ she can expect the system to generate text that is recognizable as a poem, mentions copyright, and resembles Shakespeare’s style. But the technology will decide the rhyming pattern, the words in each line, and the structure of the text.
When an AI technology determines the expressive elements of its output, the generated material is not the product of human authorship. As a result, that material is not protected by copyright and must be disclaimed in a registration application.
In other cases, however, a work containing AI-generated material will also contain sufficient human authorship to support a copyright claim. For example, a human may select or arrange AI-generated material in a sufficiently creative way that ‘‘the resulting work as a whole constitutes an original work of authorship.’’ Or anartist may modify material originally generated by AI technology to such a degree that the modifications meet the standard for copyright protection. In these cases, copyright will only protect the human-authored aspects of the work, which are ‘‘independent of’’ and do ‘‘not affect’’ the copyright status of the AI-generated material itself>>
Mi pare affermazione di buon senso.

Studio dell’EUIPO sull’utilizzo di intelligenza artificiale nell’enforcement di diritto diautore e design

Nel marzo 2022 stato pubblicato per conto dell’EUIPO lo <<Study on The Impact of Artificial Intelligence on the Infringement and Enforcement of Copyright and Designs>> (qui la pagina web che ne dà notizia e il link).

sia l’executive summary che le cobncluysionbs iundicatno i) opportunities, ii) drivers, iii) limitations and iv) concerns (es: Retroactive deconstruction of an algorithm may be required to assess the factors that influence a model’s predictions)

Opportunities: “Currently, the main areas of AI development are machine learning, natural language processing,
computer vision, expert systems, and explainable AI. Explainable AI is currently receiving increased
attention by experts and policy makers. Other technologies enhanced by AI, such as quantum
computing, blockchain, 3D printing, generative design, cloud services, and robotics also have great
potential. AI can identify and prioritise risks, instantly spot malware on a network, guide incident response, and detect intrusions before they occur. For example, machine learning stands out as a key
AI subfield that can be used to develop law enforcement tools such as the analysis of large amounts
of information to detect threats and identify social engineering bots, scanning of images to detect false
pages or illicit content, improving automatic content recognition (ACR) tools, and providing insights to
find infringement patterns”

L’ Artificial Intelligence Act prosegue la sua strada. Presentata bozza per COREPER in vista del Consiglio UE

Il regolamento sulla intelligenza artificiale prosegue la sua strada.

il 2 novembre 2022 è stata diffusa la bozza preparata per il COREPER in vista dell’esame del Consiglio UE.

Link all’ultima versione -con evidenziazione delle modifiche- ad es. qui  tratto da https://artificialintelligenceact.eu/documents/ , ove anche tutti gli altri testi provvuisori in utile ordine cronologico.

L’atto non va confuso con la proposta di regolamento sulla resposnabilità civile per l’intelligenza artificiale decisa il 20 ottobre 2020 dal Parlamento UE , titolata <Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)>,  n° P9_TA(2020)0276   A9-0178/2020 .

Di questo ultimo atto riporto solo la disposizione sulla responsabilità per i sistemi AI non ad alto rischio (è un rovesciamento dell’onere della prova rispetto alla consueta interpretazione del nostro art  2043 cc):

<< Articolo 8  Regime di responsabilità per colpa per gli altri sistemi di IA

1. L’operatore di un sistema di IA che non si configura come un sistema di IA ad alto rischio ai sensi dell’articolo 3, lettera c), e dell’articolo 4, paragrafo 2, e che di conseguenza non sia stato inserito nell’elenco contenuto nell’allegato al presente regolamento, è soggetto a un regime di responsabilità per colpa in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema di IA.

2. L’operatore non è responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi:

a) il sistema di IA si è attivato senza che l’operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell’operatore, o

b) è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema di IA idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema di IA, monitorando le attività e mantenendo l’affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili.

L’operatore non può sottrarsi alla responsabilità sostenendo che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal suo sistema di IA. L’operatore non è responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

3. Laddove il danno o il pregiudizio sia stato causato da un terzo che abbia interferito con il sistema di IA attraverso la modifica del suo funzionamento o dei suoi effetti, l’operatore è comunque tenuto a corrispondere un risarcimento se tale terzo è irrintracciabile o insolvibile.

4. Il produttore di un sistema di IA è tenuto a cooperare con l’operatore o con la persona interessata, su loro richiesta, e a fornire loro informazioni, nella misura giustificata dall’importanza della pretesa, al fine di consentire l’individuazione delle responsabilità>>.

Ora è pure stata adottata la posizione comune del Consiglio: v. press release 6 dicembre 2022 .

Due proposte della Commissione UE sulla responsabilità civile: da intelligenza artificiale e sostituzione di quella generale da prodotto difettoso

Comunicato della Commissione sull oggetto e cioè sulle seguente due proposte dir dir.:

Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products,  Brussels, 28.9.2022 – COM(2022) 495 final, 2022/0302 (COD): qui ad es. importante disciplina (in parte anticipata da dottrina o giurisprudenza) sull’onere della prova, art. 9;

Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence
(AI Liability Directive)
, Brussels, 28.9.2022 – COM(2022) 496 final, 2022/0303 (COD)
: molto interessanti gli art. 3 (Disclosure of evidence and rebuttable presumption of non-compliance ) e art. 4 (Rebuttable presumption of a causal link in the case of fault). E’ prcisato che la dir. regola la responsabilità aquiliana cioè non da contratto, art. 1.

La giustizia amministrativa sui concetti di “algoritmo” e di “intelligenza artificiale”

Un bando gara prevedeva la fornitura di pacemaker e tra i criteri per l’assegnazkione <<il parametro tabellare “Algoritmo di prevenzione+trattamento delle tachiaritmie atriali” al quale assegnare 15 punti per l’ipotesi di presenza di entrambi gli algoritmi e 7 punti nel caso di “presenza del solo algoritmo di prevenzione o del solo trattamento delle tachiaritmie atriali>>.

Il TAR, puntualizzato che “la legge di gara richiede unicamente la presenza di un algoritmo di trattamento (senza altro specificare)” ha definito il concetto di algoritmo, <<affermando che “con esso ci si richiama, semplicemente, a una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)“. Ha aggiunto, il primo giudice, al fine di meglio circoscrivere il concetto, che “non deve confondersi la nozione di “algoritmo” con quella di “intelligenza artificiale”, riconducibile invece allo studio di “agenti intelligenti”, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati…..sono tali, ad esempio, quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”.     4. Definita la nozione di algoritmo, il primo giudice ha così concluso il suo percorso argomentativo: “l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento). In altre parole, il dato testuale della lettera di invito non richiede che l’algoritmo di trattamento, al verificarsi dell’episodio aritmico, sia avviato dal dispositivo medesimo in automatico. Tale caratteristica attiene a una componente ulteriore, non indicata nella legge di gara, vale a dire a un algoritmo di intelligenza artificiale nella diagnosi dell’aritmia e avvio del trattamento. Fondatamente, pertanto, Abbott ha dedotto l’erroneità della valutazione della commissione di gara che – pur in presenza di un algoritmo di trattamento delle aritmie nel proprio dispositivo (vale a dire l’algoritmo NIPS, pacificamente definibile come tale) – ha attribuito soli 7 punti anziché 15 al dispositivo offerto. Infatti, la commissione ha confuso, sovrapponendoli indebitamente, il concetto di algoritmo con quello di avvio automatico del trattamento”.>>.

Ora interviene il Consiglio di STato, sez. III,  con sentenza 7891 del 25.11.2021, che sul punto così motiva, distaccandosi dal TAR: <<Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.

9.2. Nel caso di specie, per ottenere la fornitura di un dispositivo con elevato grado di automazione non occorreva che l’amministrazione facesse espresso riferimenti a elementi di intelligenza artificiale, essendo del tutto sufficiente – come ha fatto – anche in considerazione della peculiarità del prodotto (pacemaker dotati, per definizione, di una funzione continuativa di “sensing” del ritmo cardiaco e di regolazione dello stesso) il riferimento allo specifico concetto di algoritmo, ossia ad istruzioni capaci di fornire un efficiente grado di automazione, ulteriore rispetto a quello di base, sia nell’area della prevenzione che del trattamento delle tachiaritmie atriali. I pacemakers moderni e di alta fascia sono infatti dotati di un numero sempre maggiore di parametri programmabili e di algoritmi specifici progettati per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente. L’amministrazione ha espresso preferenza per la presenza congiunta di algoritmi di prevenzione e trattamento delle “tachiaritmie atriali”.>>

L’intelligenza artificiale può essere “inventor” per il diritto australiano

La querelle aperta dal dr. Thaler con la sua DABUS machine, che sta cercando di ottenere brevetto inventivo a nome proprio ma come avente causa dall’inventore costituito da intelligenza artificiale (IA), trova ora una soluzione posiiva in Australia.

Qui la Corte Federale con decisione 30.07.2021, Thaler v Commissioner of Patents [2021] FCA 879, file n° VID 108 of 2021, con analitico esame,  riforma la decisione amministrativa di rifiuto.

<<Now whilst DABUS, as an artificial intelligence system, is not a legal person and cannot legally assign the invention, it does not follow that it is not possible to derive title from DABUS. The language of s 15(1)(c) recognises that the rights of a person who derives title to the invention from an inventor extend beyond assignments to encompass other means by which an interest may be conferred.>>, § 178

Per cui dr. Thaler legittimanente dichiara di essere avente causa da DABUS: <<In my view, Dr Thaler, as the owner and controller of DABUS, would own any inventions made by DABUS, when they came into his possession. In this case, Dr Thaler apparently obtained possession of the invention through and from DABUS.  And as a consequence of his possession of the invention, combined with his ownership and control of DABUS, he prima facie obtained title to the invention.  By deriving possession of the invention from DABUS, Dr Thaler prima facie derived title.  In this respect, title can be derived from the inventor notwithstanding that it vests ab initio other than in the inventor.  That is, there is no need for the inventor ever to have owned the invention, and there is no need for title to be derived by an assignment.>>, § 189.

E poi: <<In my view on the present material there is a prima facie basis for saying that Dr Thaler is a person who derives title from the inventor, DABUS, by reason of his possession of DABUS, his ownership of the copyright in DABUS’ source code, and his ownership and possession of the computer on which it resides. Now more generally there are various possibilities for patent ownership of the output of an artificial intelligence system. First, one might have the software programmer or developer of the artificial intelligence system, who no doubt may directly or via an employer own copyright in the program in any event.  Second, one might have the person who selected and provided the input data or training data for and trained the artificial intelligence system.  Indeed, the person who provided the input data may be different from the trainer.  Third, one might have the owner of the artificial intelligence system who invested, and potentially may have lost, their capital to produce the output.  Fourth, one might have the operator of the artificial intelligence system.  But in the present case it would seem that Dr Thaler is the owner>>, §§ 193-194.

In sitnesi, <<in my view an artificial intelligence system can be an inventor for the purposes of the Act. First, an inventor is an agent noun; an agent can be a person or thing that invents.  Second, so to hold reflects the reality in terms of many otherwise patentable inventions where it cannot sensibly be said that a human is the inventor.  Third, nothing in the Act dictates the contrary conclusion.>>, § 10.

Si osservi che dr Thaler <<is the owner of copyright in DABUS’s source code. He is also the owner, is responsible for and is the operator of the computer on which DABUS operates.  But Dr Thaler is not the inventor of the alleged invention the subject of the application.  The inventor is identified on the application as “DABUS, The invention was autonomously generated by an artificial intelligence”.  DABUS is not a natural or legal person.  DABUS is an artificial intelligence system that incorporates artificial neural networks.>>, § 8

Avevo segnalato il precedente inglese contrario con post 02.10.2020.

Un mese prima dr. Thaler aveva ottenuto il brevetto sulla stessa invenzione in Sud Africa: ne dà notizia www.ipwatchdog.com con post 29 luglio u.s. ove anche il link al documento amministrativo in cui si legge che l’istante è Thaler ma l’inventore è DABUS.

(notizia e link alla sentenza da gestaltlaw.com)

L’ Executive Order del presidente Biden per promuovere la concorrenza nell’economia statunitense

Ieri 9 luglio l’amministrazione Biden ha emesso l’Executive Order (EO) on Promoting Competition in the American Economy.

E’ l’EO n. 14.036, come si legge in wikipedia .

GLi EO non sono fotne diretta di diritto erga omnes ma solo ordini alle varie amministrazioni (di valutare riforme normative per quanto in proprio potere).

Qui la scheda informativa approntata dall’Amministrazione.

Segnalo qui alcuni punti.

  • ridurre la diffusione dele clausole di non concorrenza imposte dalle aziende ai dipendenti, assai diffuse in USa;
  • quanto al digital world, questa la sintesi iniziale: << The American information technology sector has long been an engine of innovation and growth, but today a small number of dominant Internet platforms use their power to exclude market entrants, to extract monopoly profits, and to gather intimate personal information that they can exploit for their own advantage. Too many small businesses across the economy depend on those platforms and a few online marketplaces for their survival. And too many local newspapers have shuttered or downsized, in part due to the Internet platforms’ dominance in advertising markets. … This order affirms that it is the policy of my Administration to enforce the antitrust laws to combat the excessive concentration of industry, the abuses of market power, and the harmful effects of monopoly and monopsony — especially as these issues arise in labor markets, agricultural markets, Internet platform industries, healthcare markets (including insurance, hospital, and prescription drug markets), repair markets, and United States markets directly affected by foreign cartel activity.
         It is also the policy of my Administration to enforce the antitrust laws to meet the challenges posed by new industries and technologies, including the rise of the dominant Internet platforms, especially as they stem from serial mergers, the acquisition of nascent competitors, the aggregation of data, unfair competition in attention markets, the surveillance of users, and the presence of network effects.
         Whereas decades of industry consolidation have often led to excessive market concentration, this order reaffirms that the United States retains the authority to challenge transactions whose previous consummation was in violation of the Sherman Antitrust Act (26 Stat. 209, 15 U.S.C. 1 et seq.) (Sherman Act), the Clayton Antitrust Act (Public Law 63-212, 38 Stat. 730, 15 U.S.C. 12 et seq.) (Clayton Act), or other laws.  See 15 U.S.C. 18; Standard Oil Co. v. United States, 221 U.S. 1 (1911). >>
  • <internet service>: migliorare la situazione dei consumatori sotto alcuni specifici profili (qui di minor intersse): v. facts shet alla voce relativa;
  • <technology>: v. fact sheet relativa voce e spt. i profili antitrust, naturalmente:

A)  Big Tech platforms purchasing would-be competitors: Over the past ten years, the largest tech platforms have acquired hundreds of companies—including alleged “killer acquisitions” meant to shut down a potential competitive threat. Too often, federal agencies have not blocked, conditioned, or, in some cases, meaningfully examined these acquisitions.

Per cui il Presidente annuncia una policy <<of greater scrutiny of mergers, especially by dominant internet platforms, with particular attention to the acquisition of nascent competitors, serial mergers, the accumulation of data, competition by “free” products, and the effect on user privacy>>.

B) Big Tech platforms gathering too much personal information:  Many of the large platforms’ business models have depended on the accumulation of extraordinarily amounts of sensitive personal information and related data.

Per questo il Presidente encourages the FTC to establish rules on surveillance and the accumulation of data.

C) Big Tech platforms unfairly competing with small businesses:  The large platforms’ power gives them unfair opportunities to get a leg up on the small businesses that rely on them to reach customers. For example, companies that run dominant online retail marketplaces can see how small businesses’ products sell and then use the data to launch their own competing products. Because they run the platform, they can also display their own copycat products more prominently than the small businesses’ products..

Pertanto, il Presidente <encourages the FTC to establish rules barring unfair methods of competition on internet marketplaces>.

I rimedi proposti perà o mancano o sono genericissimni. Si v. l’accurato commento del prof. Hovenkamp President Biden’s Executive Order on Promoting Competition: an Antitrust Analysis, in ssrn :

<<While the President’s Executive Order has been touted as a “Progressive” document, its content falls short of that. It does notsuggest thatthe antitrust enforcement agencies break up any firms, other than becoming more aggressive about mergers. Nor does it contain any general expression of concern about vertical integration as such or advocacy for removal of antitrust immunities.Consistent with antitrust policy generally, it repeatedly expresses concerns about market power,or the power to profit by charging high prices,butitnevercomplainsabout large firm size as such. Further, while it discusses market power repeatedly, it does not speak aboutdisplacing antitrusts current economicapproachwithconcerns aboutpolitical power or large firm size.To the contrary,it makes no reference to political powerat all,except for this one telling passagethat it quotesfrom a 1957 Supreme Court decision declaring that the Sherman Act:

rests on the premise that the unrestrained interaction of competitive forces will yield thebest allocation of our economic resources, the lowest prices, the highest quality and the greatest material progress, while at the same time providing an environment conducive to the preservation of our democratic political and social institutions.

The passage is important for what it does notsay about political power, even during a period ofgreat antitrust expansion. The goals areto achieve the bestallocation ofeconomicresources, lowest prices, highest quality, and greatest material progressbut all of this within an environment that is conducive to the preservation of our democratic institutions>>, pp. 3-4

Intelligenza artificiale, riduzione della competitività e danno ai consumatori: un paper approfondito dell’autorità britannica

L’autorità britannica per la concorrenza  fa uscire un paper introduttivo  al tema in oggetto, aprendo alle consultazioni. Si tratta di Algorithms: How they can reduce competition and harm consumers, 19.01.2021, della Competition and Markets Authority (CMA).

Il paper è approfondito e interessante: affronta un tema non nuovo ma finora poco studiato (lo dice lo stessa CMA).

Si affrontano i danni possibilmente derivanti dalla personalizzazione sia tramite prezzi (personalized pricing) sia tramite altre modalità.

I prezzi personalizzati possono talora essere benefici. Talatra però <<personalised pricing could lead to consumer harm. The conditions under which competition authorities might be concerned about personalised pricing are outlined in an OFT economics paper in 2013, and include where there is insufficient competition (i.e. monopolist price discrimination), where personalised pricing is particularly complex or lacking transparency to consumers and/or where it is very costly for firms to implement . In addition, personalised pricing could harm overall economic efficiency if it causes consumers to lose trust in online markets. It could also be harmful for economic efficiency when personalised pricing increases search and transaction costs, such as consumers needing to shop around or take significant or costly steps to avoid being charged a premium>> (p. ; v. poi il § Complex and opaque pricing techniques).

Quanto ai danni da personalizzazione non su prezzo: Personalised rankings, Recommendation and filtering algorithms, Manipulating user journeys, Algorithmic discrimination (qui ci sono invero già moltssimi scritti teorici, ma poco attenti ai riscontri paratici), Geographic targeting, Unfair ranking and design, Preferencing others for commercial advantage, dark patterns (nascondono ciò che l’utente sta per accettare), etc.

C’è poi una sezione sulle pratiche escludenti (self preferencing -noti sono gli addebiti al marketplace di Amazon-, Manipulating platform algorithms and unintended exclusion, Predatory pricing).

Altra sezione è quella sull’algorithmic collusion : Facilitate explicit coordination, Hub-and-spoke , Autonomous tacit collusion.

Il senso pratico dei britannici emerge nella sezione 3, Techniques to investigate these harms (distinguendo tra ipotesi con accesso diretto ai dati e agli algoritmi e senza accesso direto)

Infine, sez. 4, considerazioni di policy. C’è un seria ragione per intervenire :

  • The opacity of algorithmic systems and the lack of operational transparency make it hard for consumers and customers to effectively discipline firms. Many of the practices we have outlined regarding online choice architecture are likely to become more subtle and challenging to detect.
  • Some of the practices we outline involve the algorithmic systems of firms that occupy important strategic positions in the UK economy (and internationally).

In conclusione (§ 5) :

Firms maximise profit. In pursuing this objective, without adequate governance, firms designing machine learning systems to achieve this will continually refine and optimise for this using whatever data is useful. Algorithmic systems can interact with pre-existing sources of market failure, such as market power and consumers’ behavioural biases. This means that using some algorithmic systems may result in products that are harmful. As regulators, we need to ensure that firms have incentives to adopt appropriate standards and checks and balances.

The market positions of the largest gateway platforms are substantial and appear to be durable, so unintended harms from their algorithmic systems can have large impacts on other firms that are reliant on the gateway platforms for their business. If algorithmic systems are not explainable and transparent, it may also make it increasingly difficult for regulators to challenge ineffective measures to counter harms.

Due to the various harms identified in this paper, firms must ensure that they are able to explain how their algorithmic systems work.

Ancora su IP e Intelligenza Artificiale

Nuovo documento sul rapporto tra IP e Artificial Intelligence (poi: AI).

E’ lo studio  edito da The Joint Institute for Innovation Policy (Brussels) e da IViR – University of Amsterdam , autori Christian HARTMANN e Jacqueline E. M. ALLAN nonchè rispettivamente P. Bernt HUGENHOLTZ-João P. QUINTAIS-Daniel GERVAIS, titolato <<Trends and Developments in Artificial Intelligence Challenges to the Intellectual Property Rights Framework, Final report>>, settembre 2020.

Lo studio si occupa in particolare di brevetti inventivi e diritto di autore.

V.  la sintesi e le recommendations per diritto diautore sub § 5.1, po. 116 ss :

  • Current EU copyright rules are generally sufficiently flexible to deal with the challenges posed by AI-assisted outputs.
  • The absence of (fully) harmonised rules of authorship and copyright ownership has led to divergent solutions in national law of distinct Member States in respect of AI-assisted works, which might justify a harmonisation initiative.
  • Further research into the risks of false authorship attributions by publishers of “work-like” but “authorless” AI productions, seen in the light of the general authorship presumption in art. 5 of the Enforcement Directive, should be considered.
  • Related rights regimes in the EU potentially extend to “authorless” AI productions in a variety of sectors: audio recording, broadcasting, audivisual recording, and news. In addition, the sui generis database right may offer protection to AI-assisted databases that are the result of substantial investment.
  • The creation/obtaining distinction in the sui generis right is a cause of legal uncertainty regarding the status of machine-generated data that could justify revision or clarification of the EU Database Directive.
  • Further study on the role of alternative IP regimes to protect AI-assisted outputs, such as trade secret protection, unfair competition and contract law, should be encouraged.

Si vedano poi quelle per il diritto brevettuale: sub 5.2, p. 118 ss:

  • The EPC is currently suitable to address the challenges posed by AI technologies in the context of AI-assisted inventions or outputs.
  • While the increasing use of AI systems for inventive purposes does not require material changes to the core concepts of patent law, the emergence of AI may have practical consequences for national Intellectual Property Offices (IPOs) and the EPO. Also, certain rules may in specific cases be difficult to apply to AI-assisted outputs and, where that is the case, it may be justified to make minor adjustments.
  • In the context of assessing novelty, IPOs and the EPO should consider investing in maintaining a level of technical capability that matches the technology available to sophisticated patent applicants.
  • In the context of assessing the inventive step, it may be advisable to update the EPO examination guidelines to adjust the definition of the POSITA and secondary indicia so as to track developments in AI-assisted inventions or outputs.
  • In the context of assessing sufficiency of disclosure, it would be useful to study the feasibility and usefulness of a deposit system (or similar legal mechanism) for AI algorithms and/or training data and models that would require applicants in appropriate cases to provide information that is relevant to meet this legal requirement, while including safeguards to protect applicants’ confidential information to the extent it is required under EU or international rules [forse il punto più interessante in assoluto!]
  • For the remaining potential challenges identified in this report arising out of AI-assisted inventions or outputs, it may be good policy to wait for cases to emerge to identify actual issues that require a regulatory response, if any.