Trib. Roma sulla responsabilità del provider per materuiali caricati dagli utenti

Eleonora Rosati su IPKat ci notizia di (e ci linka a) due sentenza 2023 di Trib. Roma sez. spec. impr. sull’oggetto, entrambe tra RTI (attore) e una piattaforma di hosting files (Vimeo e V Kontacte).

Le domande sono respinte, alla luce del precedente della Corte di Giustizia Cyando del 2021.

Si tratta di :

Trib. Roma 07.04.2023 n. 5700/2023, RG 59780/2017, Giudice rel. Picaro, RTI  c. Vimeo;

Trib. Roma 12.10.2023 n. 14531/2023, RG 4341/2027, giud. rel.: Cavaliere, RTI v. V Kontakte;

Per Rosati la lettura del pcedente europeo è errata.

Qui io solo evidenzio che i) civilisticamente non ha dignità giuridica da noi la distinzine tra responsabilità primaria e secondaria/indiretta nel caso di materiali illeciti caricati dagli utenti e ii) il safe harbour copre ogni responsabilità da esso conseguente.

Il punto più importante è che, per perdere il safe harbour, bisogna che il provider avesse contezza dell’esistenza degli specifici illeciti azionati, non di una loro generica possibilità.

Altra questione poi è quella del livello di dettaglio della denuncia al provider da parte del titolare dei diritti.   Per il Trib. deve essere elevato: ed è  esatto, stante il principio per cui onus probandi incumbit ei qui dicit , regola processuale che va applicata anche alla denuncia de qua (nè c’è ragione per caricare il provider di attività faticose e incerte, a meno che tali non siano più per ragioni ad es. di avanzamento tecnologico).

Il servizio (filtrato?) di Gmail può fruire del safe harbour ex § 230 CDA

Eric Goldman riferisce (e dà link al testo) di US District court-East. Distr. of California 24 agosto 2023, No. 2:22-cv-01904-DJC-JBP, Republican National Committee v. Google.

Il gruppo politico di destra accusa Google (G.) di filtraggi illegittimi delle sue mail.

G. si difende con successo eccependo il safe harbour ex 230.c.2.a (No provider or user of an interactive computer service shall be held liable on account of—
(A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected;)

Il punto critico è l’accertamento dei requisiti di objectionable  e della buona fede.

Come osserva Eric Goldman, interessante è pure la considerazione di policy della corte:

<<Section 230 also addresses Congress’s concern with the growth of unsolicited commercial electronic mail, and the fact that the volume of such mail can make email in general less usable as articulated in the CAN-SPAM Act. See 15 U.S.C. § 7701(a)(4), (6).   Permitting suits to go forward against a service provider  based on the over-filtering of mass marketing emails would discourage providers from offering spam filters or significantly decrease the number of emails segregated. It would also place courts in the business of micromanaging content providers’ filtering systems in contravention of Congress’s directive that it be the provider or user that determines what is objectionable (subject to a provider acting in bad faith). See 47 U.S.C. § 230(c)(2)(A) (providing no civil liability for “any action voluntarily taken in good faith to restrict access to . . . material that the provide or user considers to be . . . objectionable” (emphasis added)). This concern is exemplified by the fact that the study on which the RNC relies to show bad faith states that each of the three email systems had some sort of right- or left- leaning bias. (ECF No. 30-10 at 9 (“all [spam filtering algorithms] exhibited political biases in the months leading up to the 2020 US elections”).) While Google’s bias was greater than that of Yahoo or Outlook, the RNC offers no limiting principle as to how much “bias” is permissible, if any. Moreover, the study authors note that reducing the filters’ political biases “is not an easy problem to solve. Attempts to reduce the biases of [spam filtering algorithms] may inadvertently affect their efficacy.” (Id.) This is precisely the impact Congress desired to avoid in enacting the Communications Decency Act, and reinforces the conclusion that section 230 bars this suit>>.

SAfe harbour ex § 230 CDA in una azione contro piattaforma (di affitti brevi) VRBO per danni da incendio della casa affittata

Eric Goldman dà ntozia del caso deciso dalla Dis. Court East. Dist. NY 29 sett. 2023, 22-cv-7081 (GRB)(ARL), Eiener c. Mlller e VRBO.

La domanda erso VRBO è rigettata in limine per il cit. safe harbour.

Si tratta di un hosting provider .

la curiosità sta nel fatto che qui il danno è solo indirettametne connesso alla piattaforma dato che deriva dalla res ivi pubblicizzata, non dalla informazione in sè di affittabilità.

O meglio: gli attori allegano che l’informazione on line era errata e/o insufficiente.

Ebbene, dA noi rientra tale fattispecie nella disciplina della resp. del provider, ora regolata dagli artt. 4 segg. del DSA reg. UE 2065 del 2022?

La sospensione dell’account Twitter è coperto dal safe habour ex § 230 CDA (con una notazione per il diritto UE)

Distr. Court of california 23 agosto 2023, Case No. 23-cv-00980-JSC., Zhang v. Twitter, rigetta la domanda dell’utente Twitter per presenza del safe harbor.

Regola ormai pacifica tanto che viene da cheidersi come possa uin avvocato consugliuare la lite (nel caso però Zhang aveva agito “representing himself”)

Qui segnalo solo la (fugace) illustazione del motivo per cui T. non è il fornitore delle informaizonie  e quindi ricorre il requisito di legge

<<Second, Plaintiff seeks to hold Twitter liable for decisions regarding “information provided by another information content provider”—that is, information he and the third-party user, rather than Twitter, provided. Plaintiff’s argument Twitter is itself “an information content provider” of the third-party account holder’s content within the meaning of Section 230(f)(3) is misplaced. (Dkt. No. 53 at 21-22.) Section 230(f)(3) defines “information content provider” as “any person or entity that is responsible, in whole or in part, for the creation or development of information provided through the Internet or any other interactive computer service.”

Plaintiff appears to argue Twitter’s placement of information in “social media feeds” renders it an information content provider.

Not so. “[P]roliferation and dissemination of content does not equal creation or development of content.” Kimzey v. Yelp! Inc., 836 F.3d 1263, 1271 (9th Cir. 2016); see also Fair Hous. Council of San Fernando Valley v. Roommates.Com, LLC, 521 F.3d 1157, 1174 (9th Cir. 2008) (finding Section 230 immunity applies where the interactive computer service provider “is not responsible, in whole or in part, for the development of th[e] content, which comes entirely from subscribers and is passively displayed by [the interactive computer service provider].”)>>.

Si veda la corrispondente disposizione del digital services act, art. 6 reg. ue 2022/2065, e le tante sentenze  emesse in Italia ex art. 16 e 17 d. lgs 70/2003.

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

La Corte di Giustizia sull’ambito del giudicato di accertamento sottostante l’inibitoria: quando ricorre “la medesima violazione” accertata illecita, che può ritenersi contenuta nell’inibitoria e che dunque la viola?

La Corte con sentenza 03.10.2019, C-18/18, Eva Glawischnig‑Piesczek c. Facebook Ireland Limited, interviene con un’attesa sentenza sull’ampiezza del giudicato coperto dall’accertamento di illiceità, sottostante all’inibitoria di comportamenti futuri.

Userò indifferentemente i termini inibitoria e ingiunzione come pure inibire/ingiungere. Injunction in common law corrisponde grosso modo alla nostra inibitoria: solo che ha un contenuto molto più ampio (Mattei U., Tutela inibitoria e tutela risarcitoria, Giuffrè, 1987, 157/8)  e in particolare può avere anche contenuto positivo (si parla infatti oltre che di prohibitory injunction , pure di mandatory injunction: voce Injunction, in A Dictionary of Law Enforcement (2 ed.) a cura di Graham Gooch and Michael Williams, Oxf. Univ. Press, 2015). Da noi invece l’inibitoria è un ordine di cessazione (inibire=vietare), anche se teoricamente si potrebbe vietare una condotta omissiva, nel caso fosse dovuta una condotta positiva (in tema di responsabilità contrattuale, dunque; da vedere in quella aquiliana): difficilmente però, in tal caso ne seguirebbe la conseguenza logica di dover tenere una condotta positiva precisamente individuata (l’intercambiabilità tra ottica positiva e negativa è però affermata da Frignani A., voce Inibitoria (azione), Enc. dir., 1971, § 7 Contenuto: <<La contraddizione è soltanto apparente, in quanto ciò che si vuole impedire per il futuro (o inibire) è l’illecito in se stesso; e non c’è dubbio che l’illecito visto sotto il profilo della condotta, possa essere sia commissivo sia omissivo secondo il tipo di obbligo violato. Di conseguenza, di fronte ad un illecito commissivo si avrà una condanna ad un non facere, mentre, invece, in presenza di un illecito omissivo si avrà una condanna ad un facere. Bisogna tuttavia rilevare che si tratta di due aspetti dello stesso fenomeno, talvolta inscindibilmente legati l’uno all’altro, talvolta addirittura intercambiabili. Infatti, da un punto di vista teorico, anche l’inibitoria positiva potrebbe sempre essere rovesciata in una inibitoria negativa. Il che è quanto dire che il giudice invece di ordinare un determinato comportamento atto a far cessare l’illecito, potrebbe ordinare la cessazione dell’illecito tout court. In altri termini, sempre in linea puramente teorica, si potrebbe affermare che tutte le inibitorie positive potrebbero risolversi in altrettante inibitorie negative>>. In breve, da noi l’inibitoria in linea di massima ha contenuto solo negativo cioè ordina un’astensione (solamente un contenuto negativo per Basilico, La tutela civile preventiva, Giuffrè, 2013, 205-216, secondo cui quando ha un contenuto positivo si tratta di tutela contro l’inadempimento contrattuale). La traduzione italiana della sentenza usa il termine ingiunzione.

A dire il vero non è chiarissimo se riguardi pure la rimozione di materiale già caricato o solo l’inibizione o blocco di caricamenti futuri . Le cose potrebbero combinarsi, dal momento che qualche caricamento potrebbe sfuggire ai filtri: quindi  potrebbe succedere di dovere rimuovere ciò che oggi non c’è sul server del provider ma che in futuro ci sarà.

I fatti storici contemplano un post diffamatorio su Facebook inerente una politica austriaca: consisteva in un link ad altro sito (del quale il post offre un’anteprima) e un commento diffamante.

La questione giuridica sorta riguarda il se eventuali futuri comportamenti identici da altra fonte, oppure anche solo equivalenti, rientrino tra quelli oggetto dell’inibitoria. Anzi più precisamente la questione è affrontata dal punto di vista del contenuto dell’inibitoria e cioè nell’ottica del giudice che deve emetterla. Ma il problema si pone anche se il giudice nulla dice in proposito (non è scontato che il dictum giudiziale in tale caso vada interpretato in modo formalistico e rigoroso).

In sostanza il giudice a quo chiede  se il diritto europeo e in particolare l’articolo 15 paragrafo 1 direttiva 31/2000 (divieto di porre obblighi di sorveglianza o di ricerca generalizzati) osti ad un’inibitoria (anzi letteralmente: ad un obbligo di rimuovere, ma come detto poi il giudice lo interpreta anche come riferito ad un ordine di bloccare l’accesso futuro) di caricamenti di informazioni future “identiche” a quelle accertati illeciti e prescindere dall’uploader (cioè da chi metta on line le informazioni stesse). Cioè identiche nel contenuto ma non nel soggetto che le metta on line.

Chiede poi se osti ad inibitoria riferite a contenuti non identici a quelli accertati illeciti ma solo “equivalenti” ad essi. Qui però la Corte stranamente non menziona più il profilo soggettivo e cioè la questione della rilevanza dell’identità o diversità dell’uploader (cioè se faccia una qualche differenza, ai fini dell’inibitoria di informazioni equivalenti, che siano caricate dall’uploader originario oppure da un soggetto terzo)

Nell’ambito di tale questione si chiede poi  se gli effetti di tale ingiunzione possono essere estesi a livello mondiale

la terza questione pregiudiziale non è ben chiara e sembra riferita al dovere di trattamento di informazioni illecite non identiche bensì equivalenti , appena il gestore ne sia venuto a conoscenza: e cioè a prescindere, sembrerebbe, dal soggetto che glielo notifica. Di questa domanda , data la sua scarsa comprensibilità, non mi occupo (l’intero set delle questioni pregiudiziali non è però scritto o tradotto in modo molto chiaro).

Circa la prima domanda pregiudiziale la Corte afferma che il giudice può legittimamente esigere il blocco dell’accesso alle informazioni identiche a quelle già accertati illecite, a prescindere da chi sia l’uploader (<< qualunque sia l’autore della richiesta di memorizzazione>> par. 37).

E’ abbastanza semplice  arrivare a questa conclusione, dal momento che è certo che non ricorre il concetto di sorveglianza/ricerca generale ex art. 15 dir., unico aspetto rilevante presso la Corte .

Più complesso è il secondo quesito, relativo alla possibilità di inibire anche permanenza o caricamenti  di materiali o informazioni dal contenuto equivalente anziché identico a quello già accertato illecito

(si dovrebbe distinguere, dato che si può ordinare di : i) evitare caricametni futuri; ii) far permanere caricamenti passati già effettuati; iii) far permanere caricamenti futuri che venissero effettettuati nonostante i filtri perchè in violazione o comunque in superamento degli stessi)

Il giudice europeo ritiene che l’ingiunzione, per essere effettiva e cioè per far effettivamente cessa l’illecito/impedirne il reiterarsi, deve  potersi estendere alle informazioni equivalenti: cioè a quelle che recano sostanzialmente il medesimo messaggio, anche se formulato in modo leggermente diverso. Precisamente dice <<deve potersi estendere alle informazioni il cui contenuto, pur veicolando sostanzialmente lo stesso messaggio, sia formulato in modo leggermente diverso, a causa delle parole utilizzate o della loro combinazione, rispetto all’informazione il cui contenuto sia stato dichiarato illecito. Diversamente infatti, e come sottolineato dal giudice del rinvio, gli effetti inerenti a un’ingiunzione del genere potrebbero facilmente essere elusi tramite la memorizzazione di messaggi appena diversi da quelli dichiarati illeciti in precedenza, il che potrebbe condurre l’interessato a dover moltiplicare le procedure al fine di ottenere la cessazione dei comportamenti illeciti di cui è vittima>> (par.  41).

La Corte però ricorda che la tutela del soggetto le Ieso non è assoluta e deve conciliarsi con le esigenze di non imporre obblighi eccessivi al provider: è questa la ragione dell’articolo 15 comma 1 dir. 31 (§ 44). In applicazione di questo criterio, allora, afferma che le informazioni “equivalenti” sono quelle che <<contengono elementi specifici debitamente individuati dall’autore dell’ingiunzione>> (cioè dal giudice),  <<quali il nome della persona interessata dalla violazione precedentemente accertata, le circostanze in cui è stata accertata tale violazione nonché un contenuto equivalente a quello dichiarato illecito>> (§ 45). Si precisa pure che <<differenze nella formulazione di tale contenuto equivalente rispetto al contenuto dichiarato illecito non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto>> (§ 45).

Ora, che debba esserci equivalenza anzi identità circa il nome della persona interessata (l’aggredito) e  equivalenza circa le circostanze relative alla violazione (nel caso: opinioni sulla politica di accoglimetno dei migranti) è condibvisibile e potrebbe essere non difficile da accertare in concreto. Potrebbe invece essere difficile accertare  l’equivalenza circa il resto del contenuto e cioè il giudizio negativo e diffamante sulla persona.

La Corte lodevolmente cerca di ridurre il margine di opinabilità e tutelare quindi la libertà imprenditoriale del provider, in mancanza di uno specifico Safe Harbor per la fase esecutiva delle inibitorie (non menziona la libertà di espressione e di inoformazine dell’uploader: probabilmente dato che in thesi si tratta di caricamente di materiali illeciti). Precisa che << la sorveglianza e la ricerca che richiede sono limitate alle informazioni contenenti gli elementi specificati nell’ingiunzione>> e che la ricerca dell’equivalenza non può <<il prestatore di servizi di hosting ad effettuare una valutazione autonoma, e quest’ultimo può quindi ricorrere a tecniche e mezzi di ricerca automatizzati>>: cioè par di capire deve essere palese, ictu oculi rilevabile (non dal soggetto medio di un certo paese ma dal livello medio di professionalità di un operatore del medesimo settore professionale) e deve essere verificabile invia automatica.

Inoltre il dovere è limitato , si badi, alle informaizoni <<contenenti gli elementi specificati nell’ingiunzione>>.

Il passaggio è importante: ad es in relazione alla norma italiana (assente nella direttiva) del 17 comma 3, D. LGS. 70/2003, che afferma la responsabilità civile per chi, richiesto dall’autorità, non abbia prontamente impedito l’accesso oppure, avendo comunque avuto conoscenza dell’illiceità, non ha informato l’autorità stessa. In particolare il riferimento è al primo caso: la violazione di una inibitoria inftti può avvenire anche quando il provider sbagli nella valutazione e ritenga non rientrare nel concetto di equivalenza ciò che invece ex post si accerta rientrarvi. In tal caso infatti  si avrebbe una mancanza di blocco dell’accesso, pur se richiesto dall’autorità: quindi integrandosi la fattispecie posta dal 17 comma 3 punto

In tal modo dice la CG l’ingiunzione non contrasta col divieto di sorvegnlianza rierca generale (§ 47).

La Corte però e sorprendentemente non dedica alcuna riga -salvo errore ad una prima lettura- a specificare se il dictum sull’inbitoria di conteuti equivalenti valga solo verso il medeismo soggetto già ritenuto autore dell’illecito o anche verso terzi. Dico sorprendentemente perchè la distinzione era stata fatta in modo netto dal’AG. Nè lo si capisce dal concetto di equivalenza: questo contiene anche il profilo soggettivo e, se si, lo ritiene discriminante o no? Il che è probabilmente una conseguenza dell’aver sin dall’inizio impostato le questioni pregiudiziali senza dare attenzione a questo punto, come si è segnlato sopra.

L’impressione traibile dal ragionamento svolto, però, è che la Corte ritenga compatibile col diritto UE  l’inibitoria riferita a condotte equivalenti a prescindere da chi possa caricare i materiali illeciti :  cioè non solo se caricati dall’autore del caricamento già accertato illecito, ma da chiunque

Circa la possibilità di inibitorie a livello mondiale il giudice dice che la Direttiva 31 non osta alla stessa. Saggiamente però fa presente -anche se in maniera non chiarissima (più chiaro è il relativo passaggio dell’AG) che  va tenuta in considerazione la coerenza della normativa dell’UE con le norme internazionali: in particolare aggiungerei -sulla scia di quanto detto dall’avvocato generale- il rapporto con la sovranità che gli altri stati esercitano sui loro territori e popolazioni. Pretendere infatti di bloccare caricamenti, che possono avvenire da qualunque parte del mondo, potrebbe essere ritenuto incompatibile con le sovranità nazionali sugli altri territori e con le rispettive legislazioni,le quali possono essere diverse (§ 100). E’ il problema delle cross-borders injuntions e cioè della possibilità di effetti extraterritoriali di un provvedimento giudiziale (analogamente, direi, al caso di esecizio della sovranità tramite non  l’organo giudiziario ma tramite quello legislativo e cioè tramite  una norma di legge che pretendesse di applicarsi anche all’estero): non nuovo nel dibattito giuridico.

La struttura del ragionamemento sul punto è analoga a quella della recente sentenza nel caso Google c. Commission nationale de l’informatique et des libertés (CNIL), del 24.09.2019, C-507/17 sul c.d. delisting nazionale, europeo o mondiale (l’analogia è negata da Andrej Savin  nel suo  EU Internet Law & Policy Blog , The CJEU Facebook Judgment on Filtering with Global Effect: Clarifying Some Misunderstandings 4 ottobre 2019). In entrambi i casi la Corte dice che il delisting mondiale non è contrario a specifiche norme di diritto UE, ma non è nemmeno imposto. dalle stesse (anche qui assai più utili sono le  Conclusioni dell’AG  10.01.2019, che guarda caso è il medesimo)

Passiamo alle conclusioni dell’avvocato generale (poi: AG) 04.06.2019, un po’ più articolate.

Dopo aver chiarito che il provider è soggetto ad ingiunzioni anche se non è responsabile delle informazioni e che la disciplina delle ingiunzioni spetta e diritti nazionali (§§  32-33), affronta il divieto di obbligo generale in materia di sorveglianza.

Ricorda che questo va inteso come sorveglianza sulla totalità o quasi totalità dei dati di tutti gli utenti del suo servizio ti richiama con ciò le sentenze L’Oreal e Scarlett x-tended (§ 35 ).

Qui introduce un’osservazione sulla cui esattezza bisognerebbe ragionare. Dice che se uno Stato potesse imporre una sorveglianza generale, il provider perderebbe il suo carattere tecnico, automatico e passivo e cioè non sarebbe più neutro (§ 36). il punto è discutibile, dal momento che, se la sorveglianza avviene tramite sistemi di filtraggio automatico, la passività del’ISP rimane. Mi  pare tuttavia una questione poco importante, dal momento che il divieto di sorveglianza/ricerca generale è posto dalla legge.

Inoltre l’AG dice che, anche non concordando con ciò, un provider che esercitasse sorveglianza generale potrebbe  essere ritenuto responsabile di qualsiasi informazione illecita, senza rispettare quindi le lettere a e b nel paragrafo 1 articolo 14 punto (§ 37). L’affermazione appare poco lineare e poco pertinente. Da un lato egli sarebbe responsabile non tanto delle informazioni ilecite, quanto del divieto della violazione di questo divieto di sorveglianza, cosa diversa. Dall’altro e soprattutto, ha poco senso ipotizzare uno scenario fattuale di sorveglianza/ricerca generale  che cozzerebbe con lo safe harbour dell’art. 14: lo avrebbe se mancasse un divieto di dovere di sorveglianza/ricerca generale, il quale invece c’è ed è espresso.

Il punto importante è la conclusione di questo passaggio (§ 40), secondo cui dal 14 paragrafo 3 dell’articolo 15 un obbligo imposto da uno Stato nazionale al provider tramite in ingiunzione non può avere la conseguenza di renderlo non più neutro rispetto alla totalità o quasi totalità delle informazioni memorizzate.

L’affermazione non mi pare esattissima perché confonde il fatto col giudizio, che vanno invece tenuti ben distinti. Il fatto è che il dovere di vigilanza riguarda tutte o quasi le informazioni e di tutti gli utenti: il che è condivisibile. Costituisce invece un giudizio il “rendere il provider  non più neutro”. Prima viene il fatto da valutare e poi viene la valutazione del fatto .

Al paragrafo 41 ricorda che si può senz’altro inibire una violazione futura e che ciò non contrasta con  il divieto di sorveglianza generale (§ 41).

Su questo non ci sono dubbi: il dato normativo non è equivoco.

Ricorda poi ai paragrafi 43 e 44 la sentenza L’Oréal che ha legittimato le inibitorie di “nuove violazioni della stessa natura da parte dello stesso commerciante nei confronti degli stessi marchi” (C. G. 12.07.2011,  C‑324/09, L’Oreal ed altri c. eBay, § 141.

Quindi un provider può essere costretto a rimuovere informazioni illecite non ancora diffuse, senza che la diffusione venga portata nuovamente a sua conoscenza tramite comunicazione ad hoc e in maniera separata rispetto alla domanda iniziale (AG § 44). il che sembra voler dire che non serve una nuova contestazione ed eventualmente un nuovo processo.

Deve trattarsi però di violazioni della stessa natura, dello stesso destinatario e nei confronti degli stessi diritti: § 45. Qui c’è forse una ripetizione poiché violazioni della stessa natura e nei confronti degli stessi diritti dicono forse la stessa cosa: una violazione del medesimo diritto costituirà spesso una violazione della stessa natura e così forse pure per il reciproco. Tuttavia dato il tasso di genericità dei concetti di “stessa natura” e “stessi diritti”, è inopportuno soffermarvisi, anche se nella pratica il profilo sarà assai importante.

In ogni caso l’AG ricorda e richiama le sue conclusioni nella causa McFadden C-484/14, § 132, in cui si dice che l’obbligo inibitorio “in casi specifici” (cons. 47 dir. 31) deve essere delimitato per l’oggetto e per la durata. Questi requisiti generali sono adattabili al caso specifico, prosegue l’AG, relativo ad un post su Facebook. dato che un host provider -quale FB- è in condizioni migliori per adottare misure di ricerca ed eliminazione informazioni illecite rispetto al fornitore di accesso (§  48).

Affronta poi (§ 49) il requisito della limitazione temporale, richiamando le sentenze L’Oréal, § 140, e Netlog, § 45 (dove però si legge <<implica una sorveglianza, nell’interesse di tali titolari, sulla totalità o sulla maggior parte delle informazioni memorizzate presso il prestatore di servizi di hosting coinvolto>>, mentre in L’Oreal l’ingiunzione era riferita solo ai marchi in causa). Dice che un obbligo di sorveglianza permanente è difficilmente conciliabile con il concetto di obbligo “applicabile a casi specifici” ai sensi del cons. 47 dir. 31.

L’affermazione non persuadegranchè , dal momento che l’inibitoria concernente un solo cliente, se non addirittura una singola opera o opere determinate, anche se illimitato nel tempo, non  può rientrare nel concetto di “sorveglianza/ricerca  generale”.

Potrebbe semmai confliggere con la necessità che le misure siano proporzionate e soggette a termini ragionevoli (art. 3 § 2 e § 1 della dir. 48/2004).

La sintesi è al § 50: <<Di conseguenza, il carattere mirato di un obbligo in materia di sorveglianza dovrebbe essere previsto prendendo in considerazione la durata di tale sorveglianza, nonché le precisazioni relative alla natura delle violazioni considerate, al loro autore e al loro oggetto. Tutti siffatti elementi sono interdipendenti e connessi gli uni agli altri. Essi devono essere pertanto valutati in maniera globale al fine di rispondere alla questione se un’ingiunzione rispetti o meno il divieto previsto all’articolo 15, paragrafo 1, della direttiva 2000/31>> Rimarco il cenno al limite temporale della misura, poco trattato nei discorsi giuridici in tema: le inibitorie dovranno contenerlo  e sarà interessante vedere in concreto come verrà quantificato.

Ai §§  51-53 ripropone una sintesi del percorso svolto fino a quel momento.

Successivamente va al cuore del quesito sottoposto alla corte. Affronta il primo, il più semplice, cioè quello delle informazioni identiche dallo stesso utente o anche da altri utenti. Tenendo conto che si tratta di un’ordinanza cautelare [il che però appare irrilevante]  e che esistono strumenti informatici tali per cui l’attività del provider non consiste in un filtro attivo e non automatico, l’AG ammette la compatibilità col divieto di sorveglianza generale dell’inibitoria per violazioni identiche a carico e provenienti da qualunque utente (§§ 57 61). Sul punto  èstato quindi seguito dalla CG.

Poi affronta l’inibitoria su contenuti equivalenti. Ancora una volta, è questo il passaggio più importante e delicato

Ricorda che dalla domanda di pronuncia pregiudiziale il concetto di informazione equivalente <<riguarda le informazioni che divergono a malapena dall’informazione iniziale o le situazioni in cui il messaggio resta, in sostanza, immutato. Intendo tali indicazioni nel senso che una riproduzione dell’informazione qualificata come illecita, la quale contenga un errore di battitura, nonché quella che presenti una sintassi o una punteggiatura diverse, costituisce un’«informazione equivalente»>> (§ 67)

Poi ricorda che le violazioni in materia di proprietà intellettuale sotto questo profilo sono diverse delle violazioni dell’onore (diffamazioni). Infatti è più frequente nelle violazioni del primo tipo che ci sia la ripetizione della condotta accertata illecita,  mentre questo è insolito per le diffamazioni. In questa ultime dunque il riferimento ad atti della stessa natura non può svolgere lo stesso ruolo che svolge in materia di violazione della proprietà intellettuale : §§ 69-70. Altro punto non secondario: trovare il nucleo del fatto lesivo in una violazione di autore sarebbe più semplice che in una di diffamzione.

Sembra puoi dire che il riferimento a informazioni “equivalenti” incide sulla ampiezza dell’obbligo di sorveglianza e dunque che -se opportunamente modulato- rispetta il divieto di sorveglianza generale. Un giudice quindi in via inibitoria può statuire sulla rimozione di informazioni equivalenti ma <<deve (…) rispettare il principio della certezza del diritto e garantire che gli effetti di tale ingiunzione siano chiari, precisi e prevedibili.Nel farlo, tale giudice deve ponderare i diritti fondamentali coinvolti e tenere conto del principio di proporzionalità.>> (§ 72) .  Il suggerimento è astrattamente giusto ma generico e non aiuta ad applicarlo in concreto.

Pertanto, alla luce di  questa considerazione, al provider può essere  ordinato di individuare informazioni equivalenti a quella illecita, se provenienti dallo stesso utente: §  73

L’avvocato generale nega invece la possibilità di inibire caricamenti o permanenza di informazioni illecite equivalenti a carico di utenti diversi (qui non seguito dalla CG la quale -salvo errore- non fa la distinzione tra stesso utente/diverso utente). Questo perché <<73. (…) richiederebbe la sorveglianza della totalità delle informazioni diffuse attraverso una piattaforma di rete sociale. Orbene, a differenza delle informazioni identiche a quella qualificata come illecita, le informazioni equivalenti a quest’ultima non possono essere individuate senza che un host provider ricorra a soluzioni sofisticate. Di conseguenza, non soltanto il ruolo di un prestatore che esercita una sorveglianza generale non sarebbe più neutro, nel senso che non sarebbe soltanto tecnico, automatico e passivo, ma tale prestatore, esercitando una forma di censura, diverrebbe un contributore attivo di tale piattaforma. 74.      Inoltre, un obbligo di individuare informazioni equivalenti a quella qualificata come illecita provenienti da qualsiasi utente non assicurerebbe un giusto equilibrio fra la protezione della vita privata e dei diritti della personalità, quella della libertà d’impresa, nonché quella della libertà di espressione e di informazione. Da un lato, la ricerca e l’individuazione di siffatte informazioni richiederebbero soluzioni costose, le quali dovrebbero essere elaborate e introdotte da un host provider. Dall’altro, l’attuazione di siffatte soluzioni darebbe luogo ad una censura, con la conseguenza che la libertà di espressione e di informazione potrebbe essere sistematicamente limitata>>.

L’affermazione lascia un pò perplessi. Inibire contenuti equivalenti a quelli specificamente accertati illeciti non significa imporre un dovere di sorveglianza/ricerca generale, come era invece ad es. nel caso Sabam Netlog. E’ vero che nel caso qui sub iudice riguarda tutti gli utenti, ma solo circa i contenuti equivalenti a quelli accertati illeciti: quindi inibisce in modo molto specifico.

Secondo l’AG la ricerca delle informazioni equivalenti impone soluzioni sofisticate e quindi richiedenti investimenti finanziari.  Dal che seguirebbe che il suo ruolo non solo non sarebbe più neutro ma, esercitando una forma di censura, diventerebbe un contributore attivo della piattaforma.

Affermazione però poco condivisibile, poiché lo stesso avviene anche quando il controllo sulle informazioni equivalente riguarda un solo utente (quello autore del illecito o altro non conta). L’aumentare il numero delle persone sorvegliate, se il meccanismo è automatico, non rende il ruolo del provider attivo anziché passivo. Il filtraggio è automatico o per tutti o per nessuno: non può esserlo solo per uno o pochi e non per la genralità. Diverso sarebbe se avvenisse in via umana e manuale: allora sì farebbe la differenza il numero dei soggetti da sorvegliare. Così pure la necessità di adottare soluzioni tecnicamente sofisticate non ha nulla a che fare con la generalità della sorveglianza. questa concerne l’ambito oggetivo del controllo, non l’entità dei mezzi finanziari per realizzarlo. I mezzi finanziari per conseguire gli strumenti tecnici hanno a che fare con il livello di diligenza che è cosa diversa dal dato oggettivo della delimitazione dell’ambito da sottoporre a controllo.

Poi passa ad esaminare la possibilità di estendere l’inibitoria anche a livello mondiale. l’AG affronta quindi la questione della extraterritorialità del provvedimento di rimozione. La soluzione è negativa nel senso che -par di capire- è meglio che il giudice si autolimiti alla sfera dello Stato a cui appartiene, anche se astrattamente e formalmente la normative UE non vi osterebbe.

Ciò sulla base soprattutto dei seguenti argomenti, se ben capisco (ma il punto è complesso, richiedendosi un approfondimento internazionalprocessualistico): i) sarebbe di difficilissima attuazione pratica, se si segue l’insegnamento di C.G. 17.10.2017, C-194/16, Bolagsupplysningen OÜ-Ilsjan c. Svensk Handel AB, secondo cui la domanda di rimozione va posta al giudice competente a decidere sul risarcimento totale del danno (anzichè frazionato per Stato), il  quale giudicherebbe in base a una o più leggi applicabil (§§ 96): ed un giudice con competenza “totale” sarebbe difficile da trovare.

ii) Inoltre toccherebbe al soggetto leso dimostrare che l’informazione illecita secondo la legge applicabile delle norme di conflitto dello Stato europeo è tale pure secondo tutte le leggi potenzialmente applicabili (§97)? Onere improbo!

iii) Infine un ulteriore ostacolo consiste nel fatto che la tutela dei diritti fondamentali, antagonisti di quello azionato in giudizio può essere diversa nei vari Stati (§ 98-99): col rischio che in questi si rischierebbe di proibire l’accesso ad informazioni e quindi conculcare il diritto di informazione che è invece ammesso in base a quel medesimo Stato (§ 98/99).

In conclusione <<il giudice di uno Stato membro può, in teoria, statuire sulla rimozione di informazioni diffuse a mezzo Internet a livello mondiale. Tuttavia, a causa delle differenze esistenti fra le leggi nazionali, da un lato, e la tutela della vita privata e dei diritti della personalità da esse prevista, dall’altro [per inciso: distinzione superflua, dato che la tutela è prevista nelle leggi degli Stati] , e al fine di rispettare i diritti fondamentali ampiamente diffusi, un siffatto giudice deve adottare piuttosto un atteggiamento di autolimitazione. Di conseguenza, nel rispetto della cortesia internazionale, menzionata dal governo portoghese, tale giudice dovrebbe limitare, per quanto possibile, gli effetti extraterritoriali delle sue ingiunzioni in materia di pregiudizio alla vita privata e ai diritti della personalità (52). L’attuazione di un obbligo di rimozione non dovrebbe eccedere quanto necessario ad assicurare la protezione della persona lesa. Pertanto, invece di cancellare il contenuto, detto giudice potrebbe, se del caso, ordinare la disabilitazione dell’accesso a tali informazioni con l’ausilio del blocco geografico>> (§ 100).

Sull’ultima affermazione, mi  chiedo -ai fini della tutela del diritto all’informazione degli utenti- che differenza ci sia tra il dovere di rimuovere e il dovere di bloccare gli accessi: in entrambi infatti gli utenti interessati non possono accedere a quelle informazioni,.