Finalmente la bozza delle modifiche europee alla regolamentazione dei servizi digitali

la Commissione UE a dicembre 2020 ha fatto circolare la bozza di legislazione sui servizi digitali nota come Digital Services Act , che modifica anche la Direttiva sul commercio elettronico (n 31 del 2000 da noi attuata con il decreto legislativo 70 del 2003).

Si tratta di Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC,  del 15 dicembre 2020, COM(2020) 825 final  – 2020/0361(COD) .

Ora è tradotta in italiano col nome di <legge sui servizi digitali>.

L’atto è complesso e non vale la pena qui di esaminarlo in dettaglio, dovendo superare lo scoglio del Consiglio e del Parlamento (ove saranno possibili diverse modifiche , come l’esperienza insegna).

Accenno brevemente alle disposizioni che sembrano più significative ad oggi. E’ utile leggere pure l’EXPLANATORY MEMORANDUM iniziale e ad es. qui il rapporto con le altre leggi europee (Consistency with other Union policies)

Va tenuto conto che questo strumento normativo è stato presentato contemporaneamente ad un’altro , il  regolamento sui profili concorrenziali delle piattaforme, detto Digital Markets Act

Il cap. 1 contiene soprattutto definizioni.

Il capitolo 2 è quello che qui interessa maggiormente. Riguarda la responsabilità dei fornitori di servizi internet , articoli 3 e seguenti.  Rimane la tripartizione passata.

Resta uguale la disciplina del mere conduit provider e del caching prpovider, articoli 3/4

Cambia invece un pò (non ci sono però stravolgimenti) quella circa l’hosting. provider. Ad es.  il safe harbour non si applica, quando la piattaforma fa apparire di essere non un mero fornitore di hosting bensì’ il fornitore diretto dell’informazione sub iudice: <<Paragraph 1 shall not apply with respect to liability under consumer protection law of online platforms allowing consumers to conclude distance contracts with traders, where such an online platform presents the specific item of information or otherwise enables the specific transaction at issue in a way that would lead an average and reasonably well-informed consumer to believe that the information, or the product or service that is the object of the transaction, is provided either by the online platform itself or by a recipient of the service who is acting under its authority or control.>>, art.  5 paragrafo 3 (novità assai significativa).

Importante  è pu re l’articolo 6:  il fatto di portare avanti indagini volontarie non fa venir meno necessariamente il safe harbor

Rimane il divieto di imporre obblighi generali di monitoraggio:  la norma appare sostanzialmente invariata (art. 7)

Nell’articolo 8 viene specificato l’ex paragrafo 2 dell’articolo 15 cioè l’assoggettaabilità ad injunction.

Qui ad esempio la particolarità è che la denuncia la richiesta dell’autorità deve concernere un elemento specifico (specific item) a  contenuto illecito. La disciplina viene inoltre arricchita in vario modo (v. paragrafo 2).

La disciplina viene ulteriormente integrata dall’articolo 9 il quale a differenza dell’articolo 8 riguardo a un ingiunzione di fornire informazioni (mentre l’articolo 8 riguardava un ingiunzione per agire contro illegalità). Anche qui si richiede uno specific item , anche se muta l’oggetto: non è più per un oggetto illegale ma è riferito a soggetti (gli utenti dell piattaforma, gli uploaders).

il capitolo III sezione 1, artt. 10 ss. impone una disciplina organizzativa a carico di tutte le piattaforme: vengono imposti l’istituzione di un point of contact, doveri di  trasparenza nel reporting , eccetera

Iel capo III sezione II viene (finalmente!) regolato il meccanismo di notice And Take down con una certa analiticità (articoli 14 e 15)

Ci sono altre disposizioni importanti : ad es. l’esenzione per le imprese micro e piccole (individuate con rinvio all’allegato della  Raccomandazione 2003/361/EC).

Interessante poi l’articolo 19 sui trusted flagger,  che dà priorità alle segnalazione provenienti da questi soggetti particolarmente credibili (trusted flagger appunto, le cui caratteristiche sono indicate al § 2).

E poi previsto il dovere di sospensione per i violatori frequenti , articolo 20, e uno per la notificazione di sospetti di violazioni penali , articolo 21.

E’ posto un obbligo di tracciabilità delle informazioni per i contratti conclusi tramite la piattaforma -articolo 22- e un altro addizionale di trasparenza , ex articolo 23

Ci sono doveri speciali per le very large online platforms . Queste sono quelle con utenti mensili pari/maggiori di 45 milioni (sono ad es. tenute ad eseguire un Risk Assessment , articolo 26). Queste dovranno anche adottare delle misure di mitigation of Risk secondo l’articolo 27 e avranno doveri addizionali (tipo Independent Audit ed altri ancora)

Il capitolo 4 concerne l’enforcement , comprensivo pure di una regola sulla giurisdizione , articolo 40

E’  creata la figura dei cosiddetti Digital Services Coordinators cioè l’Autorità che in ogni Stato sovrintenderà l’attuazione della normativa. I poteri di questi Digital Services coordinators sono indicati  nell’articolo 41

Viene istituito uno un Board indipendente per i servizi digitali (articolo 42) , sostanzialmente per un migliore applicazione del regolamento

La successiva sezione 3 del cap. 4 (art. 50 segg.)  disciplina le conseguenze in caso di violazioni da parte delle very large online platforms (di cui al cit. art. 25).

Infine, il regolamento abroga gli articoli 12-15 della direttiva 2000/31, cit. all’inizio.

Su streaming musicale, opere derivate, public performance e safe harbour

La corte di Atlanta si pronuncia su una lite promossa dalle major musicali contro un sito di download musicali via streaming.

Si tratta di Corte Distrettuale del Northern District della Georgia, divisione di Atlanta, 30.11.2020, Atlantic recording corporation e altri c. Spinrilla e I.D. Copeland (il fondatore), CIVIL ACTION NO. 1:17-CV-00431-AT.

Le major agiscono contro questi sito web di upload e download di musica hiphop, per lo più nella forma di raccolte (mixtape).

la lunga sentenza è divisa in due parti sotto il profilo sostanziale, dopo la parte in fatto. Di quest’ultima ricordo solo : – il cenno al software di filtraggio Audible Magic portato all’attenzione della convenuta da UMG recordings, uno degli attori,  P. 5; – , e i suggerimenti dati dal fondatore Copeland ai cosiddetti D.J. di rallentare la velocità per superare il filtro: allo scopo, secondo lo stesso Copeland, di trasformare l’opera in opera diversa da quella segnalata, p. 6.

Nella prima parte (sub III, p. 11) , oltre alla questione della necessità o meno del profilo soggettivo, esamina se ricorra  public performance nella mera messa a disposizione  e cioè senza attendere il download: e la risposta è positiva, come ovvio (v. spt. 33-34). Soluzione scontata anche da noi, visto l’art. 16 c.1 ult. parte l. aut.

Nella seconda parte esamina l’eccezione di esimente per safe harbour ex § 512 DMCA (sub IV, p. 34 ss).

Il safe harbour però sortisce solo all’esito di una fattispecie ricca di elementi costitutivi.

A p. 36 ss sono ricordati ed esamnati. Qui segnalo il fatto che la conoscenza effettiva o doverosa da allarme  (red flag) devono riferirsi a <fatti specifici>, p. 36 : cosa spesso dimenticata dai nostri studiosi e giudici .

Inoltre devono ricorrere dei requisiti formal/procedurali: cosa apparentemente banale ma necessaria per fruire dello safe harbour.

Precisamente il provider deve aver designato un agent per ricevere le notificazioni: p. 37 e § 512(c)(2).

INoltre deve anche aver adottato e ragionevolemente attuato una policy contro i violatori seriali (repeat infringer), p. 38 e § 512 (i)(1).

La corte si dilunga su cosa ciò significi, p 39 ss.

Quantomeno significherà che un service provider <<must respond to notifications or red flag knowledge of recurrent instances of specific  nfringement. Id. More clearly, a service provider loses the safe harbor defense if it enables users to evade detection of copyright infringement. See Aimster, 334 F.3d at 655 (holding that the defendant did not reasonably implement a repeat infringer policy when it invited users to infringe plaintiff’s copyrights and showed them how to encrypt their files for distribution in order to evade detection of copyright infringement). Service providers must also keep adequate records of users who commit copyright infringement in order to adequately implement a repeat infringer policy>>, p. 40-41.

Purtroppp Spirilla si adeguò ai due citt. requisiti (designated agent + policy per repeat infrigner) solo nel luglio 2017, p. 42.

Per questo motivo il safe harbour viene negato fino a quella data, p. 43.

Gli attori afermano che anche per il periodo successivo non spetta il safe harbour: ma la Corte ricorda che, come che sia, manca a monte il repsupposto della relativa notiica di take down notice, p. 44-45.

(notizia e link alla sentenza presi dal blog del prof. Eric Goldman)

Safe harbour in tema di diritto di autore (§ 512 DMCA) e diffide automatiche al provider

Altra sentenza californiana in tema di safe harbour ma questa volta in tema di copyright e cioè ex § 512 DMCA ; in particolare circa la sua lettera f), relativa alla responsabilità del denunciante/diffidante.

Si tratta di US Dist. Court-Central District of California 2 ottobre 2020, Enttech Media Group LLC c. Okularity e altri .

Enttech (E.) , magazine di moda e fatti sociali, riproduceva fotografie altrui.

E. si occupa di scandagliare l’internet per conto dei suoi clienti, cercando riproduzioni illecite delle loro immagini, per poi inviare automaticamente take down notices al provider, attivando così la procedjura ex § 512 DMCA sub (c)(3).

Il § 512 però commina responsabilità all’intimante se invia l’intimazione senza buona fede: <<Any person who knowingly materially misrepresents under this section (1)that material or activity is infringing …  shall be liable for any damages etc.>> (in sostanza si tratta di una calunnia).

Lascio da parte altre questioni e riferisco solo sul punto relativo a quest’ultima disposizione (v. <DISCUSSION . B> , p. 6-7).

Il punto interessante qui è che la denuncia  avvenne automaticametne, in quanto in esecuzione dell’apposito software di Okularity per conto dei titolari di diritti suoi clienti.

Il <knowingly> richiede che l’attore provi che il denunziante non era in buona fede. E nel caso specifico ci è riuscito. Infatti la denuncia automatica, senza considerare la possibilità di usi leciti (non infringing use of images), [di per sè, aggiungo io]  costituisce assenza di buona fede: senza considerare il fair use, infatti, non si può in buona fede sostenere che ricorra violazione, p. 7.

(notizia presa dal blog di Eric Goldman)

Raccogliere dati da Facebook senza suo consenso: è illecito?

Capita talora che Facebook (poi: F.) , invece che essere convenuta, sia attore: e cioè che, oltre a raccogliere dati dagli utenti, a sua volta subisca raccolte di dati dei sui utenti da un concorrente (c.d. data scraping e cioè raccolte massive ed automatizzate di dati).

La corte del Northern District della Californa ha deciso in via cautelare (temporary restraining order : “TRO”) la lite tra F. e Brandtotal ltd (poi: Br.) (US Nort. D. of California, 9 novembre 2020, Facebook v. Brandtotal, Case No.20-cv-07182-JCS).

Br. induceva i clienti ad installare due proprie estensioni scaricate da Google Store (UpVoice + AdsFeed) , con le quali raccoglieva molti loro dati su F. e su Instragram, nonostante misure adottate da F. per contrastare il fenomeno, p. 2..

Accortasene, F. disattivava sulla propria piattaforma gli account di Br.

Precisamente, secondo F., Br. faceva questo:

<< Once installed by the users . . . [BrandTotal] used the users’ browsers as a proxy to access Facebook computers, without Facebook’s authorization, meanwhile pretending to be a legitimate Facebook or Instagram user. The malicious extensions contained JavaScript files designed to web scrape the user’s profile information, user advertisement interest information, and advertisements and advertising metrics from ads appearing on a user’s account, while the user visited the Facebook or Instagram websites. The data scraped by [BrandTotal] included both public and non-publicly viewable data about the users.  [BrandTotal’s] malicious extensions were designed to web scrape Facebook and Instagram user profile information, regardless of the account’s privacy settings. The malicious extensions were programmed to send unauthorized, automated commands to Facebook and Instagram servers purporting to originate from the user (instead of [BrandTotal]), web scrape the information, and send the scraped data to the user’s computer, and then to servers that [BrandTotal] controlled >>, p. 3

Per precisazioni sulla parte in fatto, v.  Introduction, p. 1 ss e Background.  II, p. 2 ss.

I claims di F. sono: <<(1) breach of contract, based on the Facebook Network and Instagram terms of service, id. ¶¶ 67–73; (2) unjust enrichment, id. ¶¶ 74–80;
(3) unauthorized access in violation of the CFAA,
id. ¶¶ 81–86; (4) unauthorized access in violation of California Penal Code § 502, id. ¶¶ 87–95; (5) interference with contractual relations by inducing Facebook’s users to share their login credentials with BrandTotal, in violation of Facebook’s terms of service, id. ¶¶ 96–102; and (6) unlawful, unfair, or fraudulent business practices in violation of California’s Unfair Competition Law, Cal. Bus. & Prof. Code § 17200 (the “UCL”), Compl. ¶¶ 103–10. Facebook seeks both injunctive and compensatory relief. See id.
at 21–22, ¶¶ (a)–(h) (Prayer for Relief)>>, p. 5

Quelli di Br. sono:  <<(1) intentional interference with contract, based on contracts with its corporate customers, id. ¶¶ 32–41; (2) intentional interference with prospective economic advantage, id. ¶¶ 42–48; (3) unlawful, unfair, and fraudulent conduct in violation of the UCL, id. ¶¶ 49–63; and (4) declaratory judgment that BrandTotal has not breached any contract with Facebook because its access “has never been unlawful, misleading, or fraudulent,” because its products “have never impaired the proper working appearance or the intended operation of any Facebook product” or “accessed any Facebook product using automated means,” and because the individual users own the information at issue and have the right to decide whether to share it with BrandTotal, id. ¶¶ 64–73. BrandTotal seeks both injunctive and compensatory relief>>, p. 6/7.

La parte interessante è sub III, Analysis.

Qui , sub B a p. 12 ss , si espone che Br. ha invocato un precedente del 2019 hiQ Labs v. Linkedin in cui hiQLabs ottenne una riammissione ai servizi di Linkedin, pur avendo raccolto senza autorizzazione i dati dei suoi utenti. Solo che , fa notare il giudice, ci sono differenze sostanziali : i) mentre i dati di L. sono pubblici, quelli raccolti tramite F. sono invece largamente non pubblici (p. 22); ii) per questo l’interesse di F. al controllo dei dati è assai maggiore di quello di L., dato che molti sono ad accesso ristretto, p. 23.

Inoltre Br. non ha provato l’ irreparable harm per ottenere l’inibitoria della rimozione /disattivazione, p. 15 ss e 19-20.

Poi il giudice passa ad esaminare il likelihood of success (fumus boni iuris), p. 20 ss. Da un lato Br. non ha provato l’elemento soggettivo e cioè la consapevoelzza di F. che così facendo andava ad alterare il rapporto contratttuale tra Br e i suoi clienti, p. 21. Dall’altro c’è un serio interesse commerciale di F nell’ impedire l’accesso ai dati da parte di Br., p. 24 righe 18-22 e p. 26 righe 8-12.

Si aggiunge però che F. potrebbe aver agito così anche per impedire la sopravvivenza di (o comunque per danneggiare) un concorrente potenzialmente fastidioso nel mercato dell’advertising analytics: ciò dunque potrebbe far pendere la bilancia verso Br. per ragioni proconcorrenziali, p. 26.

Le ragioni proconcorrenziali sollevate da Br., però, sono serie ma non sufficienti: <The Court concludes that BrandTotal has raised serious questions as to the merits of this claim, but on the current record, it has not established a likelihood of success>, P. 26.

Complessivamente dunque , il bilanciamento equitativo delle pretese opposte (balancing of equities)  in relazione al danno per le parti porterebbe a far prevalere Br, p. 30-31,

Tenendo però conto di ragioni di public interest, la pretesa di inibitoria di Br verso F. va respinta, p. 31-34:  < BrandTotal has shown a risk of irreparable harm in the absence of relief, serious issues going to the merits of its claims, and a balance of hardships that tips in its favor, perhaps sharply so. The public interest, however, weighs against granting the relief that BrandTotal seeks >, p. 34

Ancora su counterclaim ex articolo 512 F DMCA e su vicarious liability del provider

Nella vertenza tra Warner Records ed altri c. Charter Communications , risolve alcune questioni  la District Court del Colorado con provvedimento 5 novembre 2020,  Civil Action No. 19-cv-00874-RBJ-MEH.

Qui interessa solamente quella relativa al § 512 DMCA (del 17 US Code) che pone il Safe Harbor per le violazioni di diritto d’autore.

Si trattava di violazioni massicce -denunciate dalle maggiori aziende del settore musicale statunitense (e quindi pure mondiale)- tramite la modalità c.d. peer to peer , tollerate da Charter Communications (poi: Charter) , che aveva omesso di rimuovere i materiali denunciati come illeciti. Il fatto è ben descritto nella precedente decisione di aprile 2020 tra le stesse parti e con stesso giudice: US District Court of Colorado, giudice Brooke Jackson, 15 aprile 2020, Civil Action No. 19-cv-00874-RBJ-MEH , sub <Background>. Qui si legge pure che Charter è uno dei maggiori provider USA con più di 22 milioni di utenti e che la denuncia aveva identificato i singoli utenti tramite il numero IP usato.

Secondo la lettera (f) Misrepresentations del § 512 cit., chi chiede la rimozione di file calunniosamente può rispondere dei danni:  <<(f) Misrepresentations.—Any person who knowingly materially misrepresents under this section—

(1) that material or activity is infringing, or

(2) that material or activity was removed or disabled by mistake or misidentification,

shall be liable for any damages, including costs and attorneys’ fees, incurred by the alleged infringer, by any copyright owner or copyright owner’s authorized licensee, or by a service provider, who is injured by such misrepresentation, as the result of the service provider relying upon such misrepresentation in removing or disabling access to the material or activity claimed to be infringing, or in replacing the removed material or ceasing to disable access to it.>>

Charter aveva in via riconvenzionale fatto valere proprio questa norma sostenendo che ne ricorresse la fattispecie astratta. ciò perchè gli attori, dagli 11482 lavori asseritamente copiati secondo la denuncia iniziale, avevano poi chiesto agito solo per 11027 e cioè per 455 in meno. Se li hanno “abbandonati” , dice Charter,  vuol dire che sapevano che non che non erano stati violati, p. 3

La corte (giustamente, direi ) nega che ridurre di 455 il numero dei lavori, per cui si agisce in giudizio rispetto alla diffida stragiudiziale, di per sè costituisca knowingly materially misrepresentation-.

In particolare Charter non ha allegato <<facts plausibly showing that plaintiffs knowingly or materially misrepresented its infringement claims in the original complaint>>., p. 3

Inoltre l’aver “abbandonato” 455 opere (meno del 4% del totale di quelle azionate) non è material (cioè essenziale/consistente). La Corte aggiunge che come per il provider è necessario l’automatismo per gestire i claims di denuncia, così lo è per i titolari dei diritti nell’individuare le opere a fronte di centinaia di migliaia di infringements (p4: passaggio però non chiaro della Corte)

Infine, non si può dedurre una misrepresentation dal mero fatto di abbandonare l’azione in corte per le opere per le quali non si ravvisano titoli giuridici sufficienti (p. 4): in altre parole, par di capire, non c’è nulla di sleale in ciò (trattandosi anzi di condotta leale, vien da aggiungere)

Infine, Charter non ha allegato alcuna precisa voce di danno , pagina 4

Perciò la corte accoglie l’istanza di rigetto del counterclaim proposto da Charter.

Il cit. provvedimento del 15 aprile, confermando una precedente recommendation del giduice Hegarty, afferma la responsabilità vicaria in capo a Charter (si badi: responsabilità in positivo, cioè ascrizione della stessa, non esenzione da responsbilità , come per il safe harbour). Ricorrono nel caso infatti i due requisiti tradizionalmente richiesti:

i) direct financial benefit from the alleged infingement;  e

ii) possibilità giuridica e fattuale di controllare le attività illecite degli utenti.

La Corte discute ampiamente i due punti (soprattutto il primo: v. sub A, pp. 5-11 del provv. 15 aprile 2020).

Rimedio risarcitorio per falsa allegazione di violazione ex art. 512.f DMCA

Secondo il safe harbour di cui al § 512.f DMCA statunitense,  il denunciante risponde dei danni se è stato “calunnioso” potremmo dire. Precisamente così recita la disposizione :

< (f) MISREPRESENTATIONS — Any person who knowingly materially misrepresents under this section— (1) that material or activity is infringing, or (2)that material or activity was removed or disabled by mistake or misidentification >.

La corte del distretto nord della California applica la norma e concede il risarcimento di danno e la condanna alle spese legali ( pare sia una delle poche sentenze in tale senso): US District Court NORTH. DIST. OF CALIFORNIA  – San Francisco Division , The California Beach Co. v. Du, Oct. 6, 2020, caso n° 19-cv-08426-YGR(LB).

La società istante, a seguito di denuncia del sig. Du , aveva avuto sospesi i propri account in Facebook, Instagram e Amazon, che costituivano il mezzo principale delle proprie vendite (il 98 % mensile delle entrate derivava dai primi due).

La sentenza entra poi nel merito del calcolo del lucro cessante e trova congrua la quantificazione di $ 317.000,00 (316,991) e di $ 51.474 per spese legali.

(notizia della sentenza appresa dal blog del prof. Eric Goldman).

Altro rigetto di domanda risarcitoria contro Twitter basata su asseritamente illegittima sospensione dell’account

La Corte del Maryland rigetta domanda risarcitoria contro Twitter (poi: T.) basata sull’asseritamente illegittima sospensione dell’account.

Si tratta di US District Court for the District of Maryland, Jones v. Twitter, Civil No. RDB-20-1963, 23.10.2020.

T. aveva sospeso l’account per hateful conduct e precisamente per un tweet  relativo al comico – presentatore Trevor Noah.

Il Tweet <<allegedly “contains a nine or ten word sentence in addition to the two account names.”>>  ma l’attore non lo riportava per esteso , <<recognizing “the decorum of the Court and the deep sensitivity that these public persons and public entities now represent”>> (si difendeva in proprio … ).

J. presentava molte causae petendi ma qui ricorderò solo quella concernente il safe harbour di cui al § 230 CDA.

Il giudice la liquida in fretta, dicendo che ricorrono tutti gli estremi per la sua applicazione  (v. sub I. Counts 1-7, 9-11, and 15 are barred by the Communications Decency Act, 47 U.S.C. § 230(c)(1)).           E pertanto rigetta la relativa domanda.

Non ci sono affermazioni degne di nota, trattandosi di una piana applicazione della normativa.

Ricordo solo che cita l’importante precedente Zeran v. Am. Online, Inc. del  1997 e che l’attore all’evidenza con la domanda giudiziale cercacava “to hold Twitter liable as a publisher of third-party content, as Plaintiff’s entire Complaint  relates to Twitter’s decision not to publish Plaintiff’s content“..

la Corte Suprema USA interviene sul § 230 CDA (anche se solo per negare la trattazione di un caso e cioè il writ of certiorari)

La Corte Suprema USA (SCOTUS)  , nella persona del giudice Thomas (poi: JT), interviene sul § 230 CDA

Lo fa però solo per rigettare un’istanza di writ of certiorari (revisione di un caso già deciso da corte inferiore )

Si tratta di SUPREME COURT OF THE U.S., MALWAREBYTES, INC. v. ENIGMA SOFTWARE GROUP USA, LLC,  ON PETITION FOR WRIT OF CERTIORARI TO THE UNITED STATES COURT OF APPEALS FOR THE NINTH CIRCUIT No. 19–1284. Decided October 13, 2020 .

NOn è chiarisisma la fattispecie concreta: il caso coinvolge <Enigma Software Group USA and Mal-warebytes, two competitors that provide software to enable individuals to filter unwanted content, such as content pos-ing security risks. Enigma sued Malwarebytes, alleging that Malwarebytes engaged in anticompetitive conduct by reconfiguring its products to make it difficult for consumers to download and use Enigma products. In its defense, Mal-warebytes invoked a provision of §230 that states that a computer service provider cannot be held liable for providing tools “to restrict access to material” that it “considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable.” §230(c)(2).> p .1    Non si capisce quale sia stata esattamente la condotta impeditiva del convenuto Malware, tale per cui questi possa aver inbvocato il § 230 CDA.

In ogni caso, essendo stata proposta una azione per anticompetitive conduct, il § 230 non si applica: lo disse il 9° circuito e lo conferma ora JT (po. 1)

In ogni caso JT ricorda a p. 2- 3 la storia e la ratio del §230. Ricorda che in 24 anni, mai è stato portato all’attenzione di SCOTUS

Poi muove quattro critiche alla interpretazione sempre più ampia che le Corti ne hanno dato:

1)    l’immunità non è più solo per publisher e speaker, ma viene estesa anche ai distributors (contrariamente alla tradizione precedente), sub I.A;
2)    l’immunità non è più solo per i contenuti forniti da terzi, ma -alla fine- anche per i conteuti propri del provider, dato che hanno ristretto l’ambito applicativo della disposizione sul developer (che impedisce di invocare l’esimente ex 230.f.3), sub B: <Under this interpretation, a company can solicit thousands of potentially defamatory statements, “selec[t] and edi[t] . . . for publication” several of those statements, add commentary, and then feature the final product promi-nently over other submissions—all while enjoying immun-ity. .Jones v. Dirty World Entertainment Recordings … (interpreting “de-velopment” narrowly to “preserv[e] the broad immunity th[at §230] provides for website operators’ exercise of tradi-tional publisher functions”). To say that editing a state-ment and adding commentary in this context does not“creat[e] or develo[p]” the final product, even in part, is dubious>

3)    il safe harbour del § 230.c.1 (per cui nulla rischia il provider che disabilita  o rimuove in buona fede)  è interpretato troppo ampiamente sotto il profilo soggettivo (buona fede/mala fede).    Secondo la giusta interpretazione letterale,  <taken together, both provisions in §230(c) most naturally read to protect companies when they unknowingly decline to exercise editorial functions to edit or remove third-party content, §230(c)(1), and when they decide to ex-ercise those editorial functions in good faith>. Costruendo invece la disposizone ampiamente <to protect any decision to edit or remove content, Barnes v. Yahoo!, Inc., 570 F. 3d 1096, 1105 (CA9 2009), courts have curtailed the limits Congress placed on decisions to remove content, see eventures Worldwide, LLC v. Google, Inc., 2017 WL 2210029, *3 (MD Fla., Feb. 8, 2017) (rejecting the interpretation that§230(c)(1) protects removal decisions because it would “swallo[w] the more specific immunity in (c)(2)”). With no limits on an Internet company’s discretion to take down material, §230 now apparently protects companies who racially discriminate in removing content. >, sub C.

4) infine le corti hanno pure esteso il §230 <to protect companies from a broad array of traditional product-defect claims. In one case, for example, several victims of human traffickingalleged that an Internet company that allowed users to post classified ads for “Escorts” deliberately structured its web-site to facilitate illegal human trafficking. > (sub I.D; seguono altri esempi).

Tuttavia, precisa JT,  ridurre l’area del safe harbour, non priva i convenuti di difesa. Semplicemente ciò < would give plaintiffs a chance to raise their claims in the first place. Plaintiffs still must prove the merits of their cases, and some claims will un-doubtedly fail. Moreover, States and the Federal Govern-ment are free to update their liability laws to make them more appropriate for an Internet-driven society. >, II , p. 9-10.

Twitter è esente da responsabilità diffamatoria, fruendo del safe harbour ex § 230 CDA statunitense

Altra decisione che esenta Twitter da responsabilità diffamatoria sulla base del § 230 Communication Decency Act CDA.

Si tratta di US DISTRICT COURT EASTERN DISTRICT OF NEW YORK del 17 settempbre 2020, MAYER CHAIM BRIKMAN (RABBI) ed altri c. Twitter e altro, caso 1:19-cv-05143-RPK-CLP.  Ne dà notizia l’aggiornato blog di Eric Goldman.

Un rabbino aveva citato Twitter (e un utente che aveva retwittato)  per danni e injunction, affermando che Twitter aveva ospitato e non rimosso un finto account della sinagoga, contenente post offensivi. Dunque era responsabile del danno diffamatorio.

Precisamente: <<they claim that through “actions and/or inactions,” Twitter has “knowingly and with malice . . . allowed and helped non-defendant owners of Twitter handle @KnesesG, to abuse, harras [sic], bully, intimidate, [and] defame” plaintiffs. Id. ¶¶ 10-12. Plaintiffs aver that by allowing @KnesesG to use its platform in this way, Twitter has committed “Libel Per Se” under the laws of the State of New York. Ibid. As relevant here, they seek an award of damages and injunctive relief that would prohibit Twitter from “publishing any statements constituting defamation/libel . . . in relation to plaintiffs.”>>.

L’istanza è respinta in base al safe harbour presente nel § 230 CDA.

Vediamo il passaggio specifico.

Il giudice premette (ricorda) che i requisiti della fattispecie propria dell’esimente sono i soliti tre:  i) che sia un internet provider; ii) che si tratti di informazioni provenienti da terzo; iii) che la domanda lo consideri “as the publisher or speaker of that information” e cioè come editore-

Pacificamente presenti i primi due, andiamo a vedere il terzo punto, qui il più importante e cioè quello della prospettazione attorea come editore.

<<Finally, plaintiffs’ claims would hold Twitter liable as the publisher or speaker of the information provided by @KnesesG. [NB: il finto account della sinagoga contenente post offensivi].  Plaintiffs allege that Twitter has “allowed and helped” @KnesesG to defame plaintiffs by hosting its tweets on its platform … or by refusing to remove those tweets when plaintiffs reported them …  Either theory would amount to holding Twitter liable as the “publisher or speaker” of “information provided by another information content provider.” See 47 U.S.C. § 230(c)(1). Making information public and distributing it to interested parties are quintessential acts of publishing. See Facebook, 934 F.3d at 65-68.

Plaintiffs’ theory of liability would “eviscerate Section 230(c)(1)” because it would hold Twitter liable “simply [for] organizing and displaying content exclusively provided by third parties.” … Similarly, holding Twitter liable for failing to remove the tweets plaintiffs find objectionable would also hold Twitter liable based on its role as a publisher of those tweets because “[d]eciding whether or not to remove content . . . falls squarely within [the] exercise of a publisher’s traditional role and is therefore subject to the CDA’s broad immunity.” Murawski v. Pataki, 514 F. Supp. 2d 577, 591 (S.D.N.Y. 2007); see Ricci, 781 F.3d at 28 (finding allegations that defendant “refused to remove” allegedly defamatory content could not withstand immunity under the CDA).

Plaintiff’s suggestion that Twitter aided and abetted defamation “[m]erely [by] arranging and displaying others’ content” on its platform fails to overcome Twitter’s immunity under the CDA because such activity “is not enough to hold [Twitter] responsible as the ‘developer’ or ‘creator’ of that content.” … Instead, to impose liability on Twitter as a developer or creator of third-party content—rather than as a publisher of it—Twitter must have “directly and materially contributed to what made the content itself unlawful.” Id. at 68 (citation and internal quotation marks omitted); see, e.g., id. at 69-71 (finding that Facebook could not be held liable for posts published by Hamas because it neither edited nor suggested edits to those posts); Kimzey v. Yelp! Inc., 836 F.3d 1263, 1269-70 (9th Cir. 2016) (finding that Yelp was not liable for defamation because it did “absolutely nothing to enhance the defamatory sting of the message beyond the words offered by the user”) (citation and internal quotation marks omitted); Nemet Chevrolet, Ltd. v. Consumeraffairs.com, Inc., 591 F.3d 250, 257 (4th Cir. 2009) (rejecting plaintiffs’ claims because they “[did] not show, or even intimate” that the defendant “contributed to the allegedly fraudulent nature of the comments at issue”) (citation and internal quotation marks omitted); see also Klayman v. Zuckerberg, 753 F.3d 1354, 1358 (D.C. Cir. 2014) (“[A] website does not create or develop content when it merely provides a neutral means by which third parties can post information of their own independent choosing online.”).

Plaintiffs have not alleged that Twitter contributed to the defamatory content of the tweets at issue and thus have pleaded no basis upon which it can be held liable as the creator or developer of those tweets. See Goddard v. Google, Inc., No. 08-cv-2738 (JF), 2008 WL 5245490, at *7 (N.D. Cal. Dec. 17, 2008) (rejecting plaintiff’s aiding and abetting claims as “simply inconsistent with § 230” because plaintiff had made “no allegations . . . that Google ‘developed’ the offending ads in any respect”); cf. LeadClick, 838 F.3d at 176 (finding defendant was not entitled to immunity under the CDA because it “participated in the development of the deceptive content posted on fake news pages”).

Accordingly, plaintiffs’ defamation claims against Twitter also satisfy the final requirement for CDA preemption: the claims seek to hold Twitter, an interactive computer service, liable as the publisher of information provided by another information content provider, @KnesesG>>.

Interessante è che l’allegazione censurava non solo l’omessa rimozione ma pure il semplice hosting del post: forse mescolando fatti relativi alla perdita delll’esimente (responsabilità in negativo) con quelli relativi alla responsabilità in positivo.