Chi ritweetta un post lesivo è coperto dal safe harbour ex § 230 CDA? Pare di si

La Corte Suprema del New Hampshire, opinion 11.05.2022, Hillsborough-northern judicial district No. 2020-0496 , Banaian c. Bascom et aa., affronta il tema e risponde positivamente.

In una scuola situata a nord di Boston, uno studente aveva hackerato il sito della scuola e aveva inserito post offensivi, suggerenti che una docente fosse  “sexually pe[r]verted and desirous of seeking sexual liaisons with Merrimack Valley students and their parents.”

Altro studente tweetta il post e altri poi ritweettano (“ritwittano”, secondo Treccani) il primo tweet.

La docente agisce verso i retweeters , i quali però eccepiscono il safe harbour ex § 230.c)  CDA.  Disposizione che così recita:

<<c) Protection for “Good Samaritan” blocking and screening of offensive material.

(1) Treatment of publisher or speaker

No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.>>.

La questione giuridica è se nel concetto di user rientrino gli alunni del caso  sub iudice.

La SC conferma che è così. Del resto sarebbe assai difficile ragionare diversamente.

Precisamente: << We are persuaded by the reasoning set forth in these cases. The plaintiff identifies no case law that supports a contrary result. Rather, the plaintiff argues that because the text of the statute is ambiguous, the title of section 230(c) — “Protection for ‘Good Samaritan’ blocking and screening of offensive material” — should be used to resolve the ambiguity. We disagree, however, that the term “user” in the text of section 230 is ambiguous. See Webster’s Third New International Dictionary 2524 (unabridged ed. 2002) (defining “user” to mean “one that uses”); American Heritage Dictionary of the English Language 1908 (5th ed. 2011) (defining “user” to mean “[o]ne who uses a computer, computer program, or online service”). “[H]eadings and titles are not meant to take the place of the detailed provisions of the text”; hence, “the wise rule that the title of a statute and the heading of a section cannot limit the plain meaning of the text.” Brotherhood of R.R. Trainmen v. Baltimore & O.R. Co., 331 U.S. 519, 528-29 (1947). Likewise, to the extent the plaintiff asserts that the legislative history of section 230 compels the conclusion that Congress did not intend “users” to refer to individual users, we do not consider legislative history to construe a statute which is clear on its face. See Adkins v. Silverman, 899 F.3d 395, 403 (5th Cir. 2018) (explaining that “where a statute’s text is clear, courts should not resort to legislative history”).

Despite the plaintiff’s assertion to the contrary, we conclude that it is evident that section 230 of the CDA abrogates the common law of defamation as applied to individual users. The CDA provides that “[n]o cause of action may be brought and no liability may be imposed under any State or local law that is inconsistent with this section.” 47 U.S.C. § 230(e)(3). We agree with the trial court that the statute’s plain language confers immunity from suit upon users and that “Congress chose to immunize all users who repost[] the content of others.” That individual users are immunized from claims of defamation for retweeting content that they did not create is evident from the statutory language. See Zeran v. America Online, Inc., 129 F.3d 327, 334 (4th Cir. 1997) (explaining that the language of section 230 makes “plain that Congress’ desire to promote unfettered speech on the Internet must supersede conflicting common law causes of action”).
We hold that the retweeter defendants are “user[s] of an interactive computer service” under section 230(c)(1) of the CDA, and thus the plaintiff’s claims against them are barred. See 47 U.S.C. § 230(e)(3). Accordingly, we  uphold the trial court’s granting of the motions to dismiss because the factspled in the plaintiff’s complaint do not constitute a basis for legal relief.
>>

(notizia della e link alla sentenza dal blog del prof. Eric Goldman)

Disciplina speciale UE in arrivo per i provider “to prevent and combat child sexual abuse”

La Commissione UE l’11 maggio 2022 ha proposto un regolamento contenente  <<rules to prevent and combat child sexual abuse>> COM(2022) 209 final – 2022/0155 (COD): qui la pagina e qui il link diretto al testo .

Segnalo solo la parte relativa agli obblighi per i provider (capitolo II “OBLIGATIONS OF PROVIDERS OF RELEVANT INFORMATION SOCIETY SERVICES TO PREVENT AND COMBAT ONLINE CHILD SEXUAL ABUSE”); la loro individuazione (campo soggettivo di applicazione) rinvia largamente al digital services act (v. la  bozza)

  • dovranno i) fornire un risk assessment e ii) adottare misure di loro contenimento. Le seconde dovranno rispondere ai requisiti (fumosi) dell’art. 4.2
  • obblighi di indagine/ispezione, art. 10: <<Providers of hosting services and providers of interpersonal communication services that have received a detection order shall execute it by installing and operating technologies to detect the dissemination of known or new child sexual abuse material or the solicitation of children, as applicable, using the corresponding indicators provided by the EU Centre in accordance with Article 46. 2. The provider shall be entitled to acquire, install and operate, free of charge, technologies made available by the EU Centre in accordance with Article 50(1), for the sole purpose of executing the detection order. The provider shall not be required to use any specific technology, including those made available by the EU Centre, as long as the requirements set out in this Article are met. The use of the technologies made available by the EU Centre shall not affect the responsibility of the provider to comply with those requirements and for any decisions it may take in connection to or as a result of the use of the technologies.>>
  • gravosi i conseguenti doveri precisati al § 4 , art. 10:<<The provider shall:(a) take all the necessary measures to ensure that the technologies and indicators,as well as the processing of personal data and other data in connection thereto,are used for the sole purpose of detecting the dissemination of known or newchild sexual abuse material or the solicitation of children, as applicable, insofaras strictly necessary to execute the detection orders addressed to them;(b) establish effective internal procedures to prevent and, where necessary, detectand remedy any misuse of the technologies, indicators and personal data andother data referred to in point (a), including unauthorized access to, andunauthorised transfers of, such personal data and other data;(c) ensure regular human oversight as necessary to ensure that the technologiesoperate in a sufficiently reliable manner and, where necessary, in particularwhen potential errors and potential solicitation of children are detected, humanintervention;  d) establish and operate an accessible, age-appropriate and user-friendlymechanism that allows users to submit to it, within a reasonable timeframe,complaints about alleged infringements of its obligations under this Section, aswell as any decisions that the provider may have taken in relation to the use ofthe technologies, including the removal or disabling of access to materialprovided by users, blocking the users’ accounts or suspending or terminatingthe provision of the service to the users, and process such complaints in anobjective, effective and timely manner;(e) inform the Coordinating Authority, at the latest one month before the start datespecified in the detection order, on the implementation of the envisagedmeasures set out in the implementation plan referred to in Article 7(3);(f) regularly review the functioning of the measures referred to in points (a), (b),(c) and (d) of this paragraph and adjust them where necessary to ensure that the requirements set out therein are met, as well as document the review processand the outcomes thereof and include that information in the report referred to in Article 9(3)>>
  • reporting: sono indicati i dettagli del relativo dovere all’art. 13
  • doveri di rimozione entro 24 ore, art. 14: <<remove or disable access in all Member States of one or more specific items of material >> (notare l’oggteto: specific items)
  • doveri di bloccaggio, art. 16 (articolo importante, come comprensibile, prob. il più imporante assieme a quelli di indagine e di rimozione): << take reasonable measures to prevent users from accessing known child sexual abuse material indicated by all uniform resource locators on the list of uniform resource locators included in the database of indicators [ex art. 44]>>, c.1 (annosa questione del grado di precisione nell’indicazione dei siti).
  • responsabilità, art. 19: Providers of relevant information society services shall not be liable for child sexual abuse offences solely because they carry out, in good faith, the necessary activities to comply with the requirements of this Regulation, in particular activities aimed at detecting, identifying, removing, disabling of access to, blocking or reporting online child sexual abuse in accordance with those requirements.

Precisaizone praticamente utile , avendo alcuni ipotizzato che il cercare di prevenire eliminerebbe la possibilità di dire <non sapevo>. Teoricamente però inutile sia perchè si tratta di adempimento di dovere giudirico , sia perchè non c’è alcun concorso colposo nell’illecito (hosting di materiale vietato) se si adottano strategie informatiche di contrasto che richiedono magari un certo tempo per la implementazione e l’affinamento.

  • grosso problema sarà quello dei costi attuativi per i provider di minori dimensioni. 

Ancora sul diritto di parola vs. Twitter : non c’è violazione del Primo emendamento poichè non è State Actor (sul caso Trump c. Twitter)

Altra decisione nella lite Trump e altri c. Twitter (Distr. Nord della California , 6 maggio 2022, case 3:21-cv-08378-JD ) prodotta dalla nota censura  operata da Tw. contro il primo.

Anche qui va male all’ex presidente: Tw. no è State ACtor in alcun modo e dunque egli non può appellarsi al diritto di parola del Primo Emendamento.

Notare l’inziale understatement del collegio: <<Plaintiffs are not starting from a position of strength. Twitter is a private company, and “the First Amendment applies only to governmental abridgements of speech, and not to alleged abridgements by private companies>>.

<<Plaintiffs’ only hope of stating a First Amendment claim is to plausibly allege that Twitter was in effect operating as the government under the “state-action doctrine.” This doctrine provides that, in some situations, “governmental authority may dominate an activity to such an extent that its participants must be deemed to act with the authority of the government and, as a result, be subject to constitutional constraints>>.

<< The salient question under the state action doctrine is whether “the conduct allegedly causing the deprivation of a federal right” is “fairly attributable to the State.” >>

Si pensi che, circa la prova della state action nel caso specifico ,  <<in plaintiffs’ view, these account actions were the result of coercion by members of Congress affiliated with the Democratic Party>>!!

E’ pure rigettata la domadna di esame della costituzionalità del § 230 CDA perchè manca la injury richiesta allo scopo

Asserita violazione di copyright da parte di Pinterest rigettata per l’operatività del safe harbour ex 512.c DMCA

Un fotografo lamenta la riproduzione illecita di sue fotografie in Pinterest (P.).

Precisamente  lamenta non il fatto che altri utenti le carichino o le appuntino o lo faccia P. (verosimilmente ci sarà licenza concordata con/imposta da P. a proprio favore); bensì il fatto che P. le proponga nei feed altrui in abbinamento ad inserzioni pubblicitarie.

P. eccepisce il safe harbour ex § 512.c DMCA.

Il distretto nord della California decide la lite con provvedimento 3 maggio 2022, Davis c. PinterestCase 4:19-cv-07650-HSG , rigettando la domanda per l’esimente predetta.

la sentenza pare corretta, alla luce del tenore delle disposizoni di legge. L’attore aveva invece eccepito la mancanza tra gli altri del requisito dello storage dei materiali altrui .

La sentenza è ineressante perchè esamina il funzionamento di P.

Dice, poi,  che manca la prova per cui P. modifichierebbe il lavoro artistico inserendovi pubblicità: infatti i due newsfeed (pins degli utenti e inserzioni pubblicitarie) sono prodotti da due distinti algoritmi, pp.19-20 e 23/4.

Non c’è violazione di copyright: To the extent that Plaintiff suggests tracking user activity through algorithms or displaying  advertising on the platform is somehow copyright infringement, he offers no support for this novel theory.5 See, e.g., Dkt. No. 176 at 7 (“The undisputed evidence is that the users never asked to be  tracked using the Variants that Pinterest created from Plaintiff’s Works . . . .”). Copyright infringement requires Plaintiff to establish that Pinterest “violate[d] at least one exclusive right granted to copyright holders under 17 U.S.C. § 106.” Perfect 10, Inc. v. Amazon.com, Inc., 508 F.3d 1146, 1159 (9th Cir. 2007). Neither tracking users’ activity nor displaying advertising near  Plaintiff’s works violates Plaintiff’s exclusive rights. But even if this did constitute infringing  activity, such conduct would still fall within § 512(c)’s protection., p. 23.

Esamina anhe il grado di dettaglio cui è tenuto l’attore nell’individuare le vioalzioni: tutte le 51 foto azionate o alcune solo, a titolo di esempio (III.A.i, p. 9)? Vecchia questione anche da noi in tema di responsabilità degli internet provider …

Infine manca pure il financial benefit, che deve essere provato relativamene alle vioalzioni specificamente azionate e non -in generale – relativametne al modello di business del convenuto  (altra vecchia questione nazionale  …). Si badi però che nel diritto usa il requisito è espressamente preevisto.

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Il blocco dell’account Twitter per post ingannevoli o fuorvianti (misleading) è coperto dal safe harbour ex § 230 CDA

Il distretto nord della California con provv. 29.04.2022, No. C 21-09818 WHA, Berenson v. Twitter, decide la domanda giudiziale allegante un illegittimo blocco dell’account per post fuorvianti (misleading) dopo la nuova Twitter policy five-strike in tema di covid 19.

E la rigetta, riconoscendo il safe harbour ex § 230.c.2.a del CDA.

A nulla valgono le allegazioni attoree intorno alla mancanza di buona fede in Twitter: << With the exception of the claims for breach of contract and promissory estoppel, all claims in this action are barred by 47 U.S.C. Section 230(c)(2)(A), which provides, “No provider or user of an interactive computer service shall be held liable on account of — any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected.” For an internet platform like Twitter, Section 230 precludes liability for removing content and preventing content from being posted that the platform finds would cause its users harm, such as misinformation regarding COVID-19. Plaintiff’s allegations regarding the leadup to his account suspension do not provide a sufficient factual underpinning for his conclusion Twitter lacked good faith. Twitter constructed a robust five-strike COVID-19 misinformation policy and, even if it applied those strikes in error, that alone would not show bad faith. Rather, the allegations are consistent with Twitter’s good faith effort to respond to clearly objectionable content posted by users on its platform. See Barnes v. Yahoo!, Inc., 570 F.3d 1096, 1105 (9th Cir. 2009); Domen v. Vimeo, Inc., 433 F. Supp. 3d 592, 604 (S.D.N.Y. 2020) (Judge Stewart D. Aaron)>>.

Invece non  rientrano nella citata esimente (quindi la causa prosegue su quelle) le domande basate su violazione contrattuale e promissory estoppel.

La domanda basata sulla vioalzione del diritto di parola è pure respinta per il solito motivo della mancanza di state action, essendo Tw. un  ente privato: <<Aside from Section 230, plaintiff fails to even state a First Amendment claim. The free speech clause only prohibits government abridgement of speech — plaintiff concedes Twitter is a private company (Compl. ¶15). Manhattan Cmty. Access Corp. v. Halleck, 139 S. Ct. 1921, 1928 (2019). Twitter’s actions here, moreover, do not constitute state action under the joint action test because the combination of (1) the shift in Twitter’s enforcement position, and (2) general cajoling from various federal officials regarding misinformation on social media platforms do not plausibly assert Twitter conspired or was otherwise a willful participant in government action. See Heineke v. Santa Clara Univ., 965 F.3d 1009, 1014 (9th Cir. 2020).  For the same reasons, plaintiff has not alleged state action under the governmental nexus test either, which is generally subsumed by the joint action test. Naoko Ohno v. Yuko Yasuma, 723 F.3d 984, 995 n.13 (9th Cir. 2013). Twitter “may be a paradigmatic public square on the Internet, but it is not transformed into a state actor solely by providing a forum for speech.” Prager Univ. v. Google LLC, 951 F.3d 991, 997 (9th Cir. 2020) (cleaned up, quotation omitted). >>

(notizia e link alla sentenza dal blog del prof. Eric goldman)

La corte europea rigetta la domanda di annullamento dell’art. 17 § 4 lett. b)-c) della direttiva copyright

Con la sentenza 26.04.2022, C-401/19,  la Corte di Giustizia UE  rigetta la domanda di annullamento dell’art. 17 § 4 (eventualmente dell’intero art. 17, se non separabile) della direttiva c.d. copyright 2019/790 , avanzata dalla Polonia.

In breve , secondo la ricorrente, le disposizioni censurate inibiscono eccessivamente la libertà di parola  con i nuovi doveri di filtraggio: <<39 La Repubblica di Polonia sostiene che, imponendo ai fornitori di servizi di condivisione di contenuti online l’obbligo di compiere i massimi sforzi, da un lato, per assicurare che non siano disponibili contenuti protetti specifici per i quali i titolari di diritti abbiano fornito le informazioni pertinenti e necessarie e, dall’alto, per impedire che i contenuti protetti oggetto di una segnalazione sufficientemente motivata da parte di tali titolari siano caricati in futuro, l’articolo 17, paragrafo 4, lettera b) e lettera c), in fine, della direttiva 2019/790 limiterebbe l’esercizio del diritto alla libertà di espressione e d’informazione degli utenti di tali servizi, garantito all’articolo 11 della Carta.>>

La CG rigetta, come prevedibile.

Infatti da un lato sarebbe stato uno scossone enorme alla proprietà intellettuale armonizzata UE.  Dall’altro, l’iter legislativo era stato lungo e tormentatissimo , avendo affrontato sin da subito le stesse oiezioni qui sollevate dalla Polonia: erano dunque state prese nel testo finale delle contromisure ad hoc (id est misure a tutela dei diritti antagonisti al diritto di autore e cioè a tutela della liberà di espressione).

La sentenza è importante e andrà studiata con attenzione.

Si badi che la restrizione al diritto di free speech è ravvisata (ad es. §§ 55 e 68). Però le cit contromisure fanno si che il bilanciAmento finale (art. 52.1 Carta dir. fondam. UE) ammetta tale restrizione.

Il cuore del’iter argomentativo sta nei sei aspetti esaminati nei §§ 72-97 ed è sintetizzabile così: “una lesione al diritto di parola apparentemente c’è: ma la direttiva ha adottato adeguate contromisure a sua tutela”.

Resta allora da vedere se i singoli Stati (da noi, se l’Italia) abbiano  attuato la dir. (d. lgs. 177 del 08.11.2021 – G.U. n. 283 del 27.11.2021) secondo i principi ora dettagliati dalla CG.

Ritwittare aggiungendo commenti diffamatori non è protetto dal safe harbour ex 230 CDA

Byrne è citato per diffamazione da Us Dominion (azienda usa che fornisce software per la gestione dei processi elettorali) per dichiaraizoni e tweet offensivi.

Egli cerca l’esimente del safe harbour ex 230 CDA ma gli va male: è infatti content provider.

Il mero twittare un link (a materiale diffamatorio) pootrebbe esserne coperto: ma non i commenti accompagnatori.

Così il Trib. del District of Columbia 20.04.4022, Case 1:21-cv-02131-CJN, US Dominion v. Byrne: <<A so-called “information content provider” does not enjoy immunity under § 230.   Klayman v. Zuckerberg, 753 F.3d 1354, 1356 (D.C. Cir. 2014). Any “person or entity that is responsible, in whole or in part, for the creation or development of information provided through the Internet or any other interactive computer service” qualifies as an “information content provider.” 47 U.S.C. § 230(f)(3); Bennett, 882 F.3d at 1166 (noting a dividing line between service and content in that ‘interactive computer service’ providers—which are generally eligible for CDA section 230 immunity—and ‘information content provider[s],’ which are not entitled to immunity”).
While § 230 may provide immunity for someone who merely shares a link on Twitter,
Roca Labs, Inc. v. Consumer Opinion Corp., 140 F. Supp. 3d 1311, 1321 (M.D. Fla. 2015), it does not immunize someone for making additional remarks that are allegedly defamatory, see La Liberte v. Reid, 966 F.3d 79, 89 (2d Cir. 2020). Here, Byrne stated that he “vouch[ed] for” the evidence proving that Dominion had a connection to China. See
Compl. ¶ 153(m). Byrne’s alleged statements accompanying the retweet therefore fall outside the ambit of § 230 immunity>>.

Questione non difficile: che il mero caricamente di un link sia protetto, è questione interessante; che invece i commenti accompagnatori ingiuriosi rendano l’autore un content provider, è certo.

La violazione contrattuale è coperta da safe harbour editoriale ex § 230 CDA?

La questione è sfiorata dalla Appellate Division di New York 22.03.2022, 2022 NY Slip Op 01978, Word of God Fellowship, Inc. v Vimeo, Inc., ove l’attore agisce c. Vimeo dopo aver subito la rimozione di video perchè confusori sulla sicurezza vaccinale.

L’importante domanda trova a mio parere risposta negativa: la piattaforma non può invocare il safe harbour se viola una regola contrattuale che si era assunta liberamente.

Diverso è se, come nel caso de quo, il contratto di hosting preveda la facoltà di rimuovere: ma allora il diritto di rimozione ha base nel contratto e non nell’esimente da safe harbour

(notizia della sentenza e link dal blog del prof. Eric Goldman)

(Cor)Responsabilità di Youtube per violazione di copyright commessa da un suo utente

Il consueto problema della qualificazione giuridica della piattaforma Youtube in caso di violazione di copyright è affrontato dalla Southern District Court di New TYork, 21.03.22, Buisiness Casual v. Youtube, caso 21-cv-3610 (JGK).

Tre le causae petendi azionate.

Il direct infringement è escluso per insufficiente allegazione/prova dell’elemento soggettivo richeisto dalla common law, p. 8 ss

Più interessante è che per la Corte , oltre a ciò, esso è escluso a causa della licenza pretesa da Youtube per chi carica materiali propri, come noto. Essa infatti impedirebbbe di ravvisare contraffazione in Y.

L’attore tenta di eludere tale esito  (<<Business Casual contends that the License does not cover the conduct at issue here because the License does not grant any rights “to an unrelated third party, like TV-Novosti, to do whatever it pleases with Business Casual’s content.”>>): ma per la Corte la licenza è sufficientemente ampia da coprire le condotte sub iudice di Y., p. 12.

Ancora, a fronte di una incomprensibile causa petendi dell’attore circa il non sufficientemente motivato ricorso di Y. al safe harbour ex § 512 DMCA, la Corte rigetta, precisando -in breve ma esattamente- la costruzione giuridica del safe harbour: <<The DMCA safe harbors provide potential defenses against copyright infringement claims where, but for the safe harbors, the plaintiff has a meritorious cause of action against the defendant for copyright infringement>>, p.  13

Infine son rigettate pure le causae petendi del concorso nell’illecito, contributory infringement, e della respooonsabilità vicaria, vicarious infringement, 14-15.

(notizia e link alla sentenza dal blog del prof. Eric Goldman)