Azione in corte di Trump contro i colossi digitali che lo esclusero dai social (ancora su social networks e Primo Emendamento)

Techdirt.com pubblica l’atto di citazione di Trump 7 luglio 2021 contro Facebook (Fb)   che nei mesi scorsi lo bannò.  E’ una class action.

Il link diretto è qui .

L’atto è interessante e qui ricordo solo alcuni punti sull’annosa questione del rapporto social networks/primo emendamento.

Nella introduction c’è la sintesi di tutta l’allegazione, pp. 1-4.

A p. 6 ss trovi descrizione del funzionamneot di Fb e dei social: interessa spt. l’allegazione di coordinamento tra Fb e Tw, § 34 e la piattaforma CENTRA per il monitoraggio degli utenti completo cioè  anche circa la loro attività su altre piattaforme ,  § 36 ss. .

 Alle parti III-IV-V l’allegazione sul coordinamenot (anche forzoso, sub III, § 56)  tra Stato  Federale e piattaforme.  Il che vale a preparare il punto centrale seguente: l’azione di Fb costituisce <State action> e dunque non può censurare il free speech:

<<In censoring the specific speech at issue in this lawsuit and deplatforming Plaintiff, Defendants were acting in concert with federal officials, including officials at the CDC and the Biden transition team. 151.As such, Defendants’ censorship activities amount to state action. 152.Defendants’ censoring the Plaintiff’s Facebook account, as well as those Putative Class Members, violates the First Amendment to the United States Constitution because it eliminates the Plaintiffs and Class Member’s participation in a public forum and the right to communicate to others their content and point of view. 153.Defendants’ censoring of the Plaintiff and Putative Class Members from their Facebook accounts violates the First Amendment because it imposes viewpoint and content-based restrictions on the Plaintiffs’ and Putative Class Members’ access to information, views, and content otherwise available to the general public. 154.Defendants’ censoring of the Plaintiff and Putative Class Members violates the First Amendment because it imposes a prior restraint on free speech and has a chilling effect on social media Users and non-Users alike. 155.Defendants’ blocking of the Individual and Class Plaintiffs from their Facebook accounts violates the First Amendment because it imposes a viewpoint and content-based restriction on the Plaintiff and Putative Class Members’ ability to petition the government for redress of grievances. 156.Defendants’ censorship of the Plaintiff and Putative Class Members from their Facebook accounts violates the First Amendment because it imposes a viewpoint and content-based restriction on their ability to speak and the public’s right to hear and respond. 157.Defendants’ blocking the Plaintiff and Putative Class Members from their Facebook accounts violates their First Amendment rights to free speech. 158.Defendants’ censoring of Plaintiff by banning Plaintiff from his Facebook account while exercising his free speech as President of the United States was an egregious violation of the First Amendment.>> (al § 159 ss sul ruolo di Zuckerberg personalmente).

Ne segue che il safe harbour ex § 230 CDA è incostituzionale:

<<167.Congress cannot lawfully induce, encourage or promote private persons to accomplish what it is constitutionally forbidden to accomplish.” Norwood v. Harrison, 413 US 455, 465 (1973). 168.Section 230(c)(2) is therefore unconstitutional on its face, and Section 230(c)(1) is likewise unconstitutional insofar as it has interpreted to immunize social media companies for action they take to censor constitutionally protected speech. 169.Section 230(c)(2) on its face, as well as Section 230(c)(1) when interpreted as described above, are also subject to heightened First Amendment scrutiny as content- and viewpoint-based regulations authorizing and encouraging large social media companies to censor constitutionally protected speech on the basis of its supposedly objectionable content and viewpoint. See Denver Area Educational Telecommunications Consortium, Inc. v. FCC, 518 U.S. 727 (1996).170.Such heightened scrutiny cannot be satisfied here because Section 230 is not narrowly tailored, but rather a blank check issued to private companies holding unprecedented power over the content of public discourse to censor constitutionally protected speech with impunity, resulting in a grave threat to the freedom of expression and to democracy itself; because the word “objectionable” in Section 230 is so ill-defined, vague and capacious that it results in systematic viewpoint-based censorship of political speech, rather than merely the protection of children from obscene or sexually explicit speech as was its original intent; because Section 230 purports to immunize social media companies for censoring speech on the basis of viewpoint, not merely content; because Section 230 has turned a handful of private behemoth companies into “ministries of truth” and into the arbiters of what information and viewpoints can and cannot be uttered or heard by hundreds of millions of Americans; and because the legitimate interests behind Section 230 could have been served through far less speech-restrictive measures. 171.Accordingly, Plaintiff, on behalf of himself and the Class, seeks a declaration that Section 230(c)(1) and (c)(2) are unconstitutional insofar as they purport to immunize from liability social media companies and other Internet platforms for actions they take to censor constitutionally protected speech>>.

Come annunciato, ha fatto partire anche analoghe azioni verso Twitter e verso Google/Youtube e rispettivi amministratori delegati (rispettivi link  offerti da www.theverge.com) .

Safe harbour per Youtube circa la diffusione di immagini di persona fisica

La corte di Dallas 17.05.21, KANDANCE A. WELLS c. Youtube, civil action No. 3:20-CV-2849-S-BH, decide una domanda giudiziale risarcitoria (per dollari 504.000,00) basata sulla illecita diffusione (da parte di terzi utenti) della propria immagine, finalizzata alla minacaccia personale.

Diverse erano le leggi invocate come violate.

Immancabilmente Y. eccepisce il safe harbour ex § 230 CDA , unico aspetti qui esaminato.

La corte accoglie l’eccezione e giustamente.

Esamina i consueti tre requisiti e come al solito il più interssante è il terzo (che la domanda tratti il convenuto come publisher o speaker): <<Plaintiff is suing Defendant for “violations to [her] personal safety as a generalconsumer” under the CPSA, the FTCA, and the “statutes preventing unfair competition, deceptiveacts under tort law, and/or the deregulation of trade/trade practices” based on the allegedlyderogatory image of her that is posted on Defendant’s website. (See doc. 3 at 1.) All her claimsagainst Defendant treat it as the publisher of that image. See, e.g., Hinton, 72 F. Supp. 3d at 690(quoting MySpace, 528 F.3d at 418) (“[T]he Court finds that all of the Plaintiff’s claims againsteBay arise or ‘stem[ ] from the [ ] publication of information [on www.ebay.com] created by thirdparties….’”); Klayman, 753 F.3d at 1359 (“[I]ndeed, the very essence of publishing is making thedecision whether to print or retract a given piece of content—the very actions for which Klaymanseeks to hold Facebook liable.”). Accordingly, the third and final element is satisfied>>.

(notizia e link alla sentenza dal blog di Eric Goldman)

Banca dati informativa ed esenzione ex § 230 CDA

Una banca dati, che ospita informazioni di vario tipo sulle persone , disponibili a pagamento per i terzi, può fruire del § 230 CDA per il caso di informazioni inaccurate (violazioni penali insussistenti /errate) e in violazione del Fair Credit Reporting Act (FCRA)?

Si tratta del sito publicdata.com.

Il problema si pone perchè raccoglie ed eroga  informazioni fornitele da enti terzi: o  meglio le commercia, dato che le acquista e poi rivende (soprattutto a datori di lavoro), magari strutturate in report di comoda lettura, p. 2.

La risposta è positiva, secondo la district court dell’eastern district della Virginia , 19.05.2021, caso n. 3:20-cv-294-HEH, Henderson c. The Source of Publica DAta. : un simile commerciante di informazioni può ripararsi dietro lo scudo del safe harbour.  Anche se c’è un suo ruolo nel selezionare ed organizzare le informazioni messe on line.

Si v. il § III.B.(ove si legge che si tratta di caso nuovo nella giurisprudenza USA, p. 7).

In dettaglio, il § 230 CDA si applica a questo tipo di violazioni (pp. 8-10).

E ricorrono i requisiti posti dalla disposizione predetta:

  1. si tratta di internet service provider, p. 11/12
  2. non è content provider, perchè le info provengono da terzi, p. 13. La mera selezione non rileva, dato che il filtraggio rientra nelle attività dell’access provider (§ 230.f.4.A)
  3. la pretesa azionata tratta il convenuto come creatore di contenuti (cioè ne fa valere la responsabilità editoriale, p. 13-14)

Il punto delicato  è il secondo , relativo al ruolo svolto nella organizzazione dei materiali. Ma effettivametne la disposizione citata delinea un concetto molto ampio di <access provider>.

(Purtroppo la sentenza  reperita  è un pdf solamente grafico)

Ancora sul (pericoloso) “speed filter” di Snap e il safe harbour ex § 230 CDA

Altra lite sulle conseguenze mortali dell’uso del software <speed filter> di Snap Inc., che permette di eseguire e condividere filmati dal veicolo con riproduzione della velocità oraria raggiunta.

I genitori di ragazzi morti in incidente automobilistico, causato anche dall’incoraggiamento di Snap a correre forte, citano Snap INc. (poi: S.) per progettazione difettosa del prodotto (responsabilità da prodotto difettoso)

Decide la corte di appello californiana del 9° cicuito, 4 maggio 2021, Lemon ed altri c. Snap Inc. No. 20-55295,  D.C. No. 2:19-cv-04504-MWF-KS.

In primo grado era stata accolta l’eccezione di safe harbour ex § 230 CDA; in  appello viene respinta, per cui viene riformata la decisione di primo grado.

In breve, per la Corte la domanda dei genitori dei ragazzi era basata su design negligente del prodotto e dunque nulla aveva a che fare con il ruolo di publisher/speaker chiesto dal § 230 CDA.

Va anche tenuto conto che <<many of Snapchat’s users suspect, if not actually “believe,” that Snapchat will reward them for “recording a 100-MPH or faster [s]nap” using the Speed Filter. According to plaintiffs, “[t]his is a game for Snap and many of its users” with the goal being to reach 100 MPH, take a photo or video with the Speed Filter, “and then share the 100-MPH-Snap on Snapchat.”>>, p. 7.

Dunque <<Snapchat allegedly knew or should have known, before May 28, 2017, that its users believed that such a reward system existed and that the Speed Filter was therefore incentivizing young drivers to drive at dangerous speeds. Indeed, the Parents allege that there had been: a series of news articles about this phenomenon; an online petition that “called on Snapchat to address its role in encouraging dangerous speeding”; at least three accidents linked to Snapchat users’ pursuit of high-speed snaps; and at least one other lawsuit against Snap based on these practices. While Snapchat warned its users against using the Speed Filter while driving, these warnings allegedly proved ineffective. And, despite all this, “Snap did not remove or restrict access to Snapchat while traveling at dangerous speeds or otherwise properly address the danger it created.”>>, ivi.

<<Here, the Parents seek to hold Snap liable for its allegedly “unreasonable and negligent” design decisions regarding Snapchat. They allege that Snap created: (1) Snapchat; (2) Snapchat’s Speed Filter; and (3) an incentive system within Snapchat that encouraged its users to pursue certain unknown achievements and rewards. The Speed Filter and the incentive system then supposedly worked in tandem to entice young Snapchat users to drive at speeds exceeding 100 MPH.
The Parents thus allege a cause of action for negligent design—a common products liability tort>>, p. 11.

Non si tratta quindi di causa petendi basata sull’attività di publisher/speaker: <<The duty underlying such a claim differs markedly from the duties of publishers as defined in the CDA. Manufacturers have a specific duty to refrain from designing a product that poses an unreasonable risk of injury or harm to consumers. See Dan B. Dobbs et al., Dobbs’ Law of Torts § 478 (2d ed., June 2020 Update). Meanwhile, entities acting solely as publishers—i.e., those that “review[] material submitted for publication, perhaps edit[] it for style or technical fluency, and then decide[] whether to publish it,” Barnes, 570 F.3d at 1102—generally have no similar duty. See Dobbs’ Law of Torts § 478.
It is thus apparent that the Parents’ amended complaint does not seek to hold Snap liable for its conduct as a publisher or speaker. Their negligent design lawsuit treats Snap as a products manufacturer, accusing it of negligently designing a product (Snapchat) with a defect (the interplay between Snapchat’s reward system and the Speed Filter). Thus, the duty that Snap allegedly violated “springs from” its distinct capacity as a product designer. Barnes, 570 F.3d at 1107. This is further evidenced by the fact that Snap could have satisfied its “alleged obligation”—to take reasonable measures to design a product more useful than it was foreseeably dangerous—without altering the content that Snapchat’s users generate. Internet Brands, 824 F.3d at 851. Snap’s alleged duty in this case thus “has nothing to do with” its editing, monitoring, or removing of the content that its users generate through Snapchat. Id. at 852>>, 12-13.

Tuttavia un hosting di materiali di terzi c’era: quello dei video (snaps) dei tre sfortunati ragazzi (i quali sono terzi rispetto a S.).

Ma ciò non toglie che la causa petendi era di prodotto difettoso: <<Notably, the Parents do not fault Snap in the least for publishing Landen’s snap. Indeed, their amended complaint fully disclaims such a reading of their claim: “The danger is not the Snap [message using the Speed Filter] itself. Obviously, no one is harmed by the post. Rather, the danger is the speeding.” AC ¶ 14. While we need not accept conclusory allegations contained in a complaint, we must nonetheless read the complaint in the light most favorable to the Parents. See Dyroff, 934 F.3d at 1096. And this statement reinforces our own reading of the Parents’ negligent design claim as standing independently of the content that Snapchat’s users create with the Speed Filter.
To sum up, even if Snap is acting as a publisher in releasing Snapchat and its various features to the public, the Parents’ claim still rests on nothing more than Snap’s “own acts.” Roommates, 521 F.3d 1165. The Parents’ claim thus is not predicated on “information provided by another information content provider.” Barnes, 570 F.3d at 1101>>, p. 15.

La decisione pare corretta.

Notizia e link alla sentenza dal blog di Eric Goldman (critico invece sulla sentenza)

Safe harbour ex 230 CDA e piattaforma di intermediazione di servizi “car rental”

L’aeroporto Logan di Boston, Massachusetts , USA, (poi : A.) non ammette servizi di car rental , se non concordati.

La piattaforma Turo (T.) offre un sercvizio di incontro domanda/offerta di car rental: <<Turo describes itself as “an online platform that operates a peer-to-peer marketplace connecting [hosts] with [guests] seeking cars on a short-term basis.” Turo has no office, rental counter, or other physical presence at Logan Airport. A guest seeking to rent a motor vehicle from a host would search Turo’s website or available listings, select and book a particular vehicle, and then coordinate the pick-up location and time with the host. Turo does not require its hosts to deliver vehicles to their guests, nor does Turo determine the parties’ particular rendezvous location>>,  p. 4.

A. sanziona T. per aver violato il divieto di prestare servizi di noleggio auto se non su accordo (tentato da A. , ma rifiutato da T.).

Allora lo cita in giudizio per l’inibitoria del servizio e risarcimentoi danni. Ovviamente T. eccepisce il safe harbour ex 230 CDA.

La Suprema Corte del Massachusetts con decisione 21.04.2021, MASSACHUSETTS PORT AUTHORITY vs. TURO INC. & others,  conferma che non gli spetta. Essenzialmente perchè non è mero hosting di dati di terzi, ma “facilitatore”: <<The judge determined, and we agree, that Turo’s immunity claims fail as to the second prong because Massport’s claims against Turo regard the portion of the content on Turo’s website advertising Logan Airport as a desirable pick-up or drop-off location, which was created by Turo itself.>>, p. 11

Le informaizoni fornite da  T., <<encouraging the use of Logan Airport as a desirable pick-up or drop-off location for its users is exactly the content Massport asserts is the basis for the claim of aiding and abetting. Cf. Federal Trade Comm’n v. Accusearch, Inc., 570 F.3d 1187, 1199 (10th Cir. 2009) (information service provider liable for “development of offensive content only if it in some way specifically encourages development of what is offensive about the content”). Because this specific content was created by Turo, it cannot be construed reasonably as “information provided by another,” Backpage.com, 817 F.3d at 19, and Turo is not protected by § 230’s shield of immunity on the basis of this prong.      As to the third prong, the judge ruled that immunity under § 230 is not available to Turo because, rather than seeking to hold Turo liable as the publisher or speaker for its users’ content, Massport’s claims sought to hold Turo liable for its own role in facilitating the online car rental transactions that resulted in its customers’ continuing trespass. The record supports the judge’s conclusion.>>, p. 12.

La Corte cita poi un precedente del 2019 di corte distrettuale del suo stato , coinvolgente Airbnb

Nel caso de quo, dice la SC, <<as in the Airbnb case, the record reflects that Turo serves a dual role as both the publisher of its users’ third-party listings and the facilitator of the rental transactions themselves, and in particular the rental transactions that occur on Massport’s Logan Airport property. Rather than focusing on what Turo allows its hosts to publish in their listings, Massport’s claims pointedly focus on Turo’s role as the facilitator of the ensuing rental transactions at Logan Airport, which is far more than just offering a website to serve as a go-between among those seeking to rent their vehicles and those seeking rental vehicles>> p. 14.

La fattispecie concreta si avvicina a quella europea «The Pirate Bay» decisa da Corte giustizia  14.06.2017, C‑610/15 (pur se a proposito della comunicazione al pubblico in  diritto di autore).

(notizia e link alla sentenza dal blog di Eric Goldman)

Ancora su safe harbour ex § 230 CDA e Twitter

Una modella (M.) si accorge di alcune sua foto intime pubblicate su Twitter (T.) da un soggetto editoriale (E.) di quel settore.

Chiede pertanto a T. la rimozione delle foto, dei tweet e la sospensione dell’account.

T. l’accontenta solo sul primo punto.

Allora M. agisce verso T. e E. , azionando:  <<(1) copyright infringement; (2) a violation of FOSTA-SESTA, 18 U.S.C. 1598 (named for the Allow States and Victims to Fight Online Sex Trafficking Act and Stop Online Sex Trafficking Act bills); (3) a violation of the right of publicity under Cal. Civ. Code § 3344; (4) false advertising under the Lanham Act; (5) false light invasion of privacy; (6) defamation, a violation under Cal. Civ. Code § 44, et seq.; (7) fraud in violation of California’s Unfair Competition Law, Cal. Bus. & Prof. Code § 1 17200 et seq.; (8) negligent and intentional infliction of emotional distress; and (9) unjust enrichment>>

Decide  US D.C. Central District della California 19.02.2021 , caso CV 20-10434-GW-JEMx,  Morton c. Twitter+1.

Manco a dirlo T eccepisce l’esimente ex § 230 CDA per tutti i claims tranne quello di copyright.

E’  sempre problematico il requisito del se l’attore tratti o meno il convenuto come publisher o speaker: conta la sostanza, non il nome adoperato dall’attore. Cioè la domanda va qualfiicata dal giudice, p. 5.

M. cerca di dire che E. non è terzo ma affiliato a T. . La corte rigetta, anche se di fatto senza motivazione, pp.-5-6. Anche perchè sarebbe stato più appropriato ragionarci sul requisito del se sia materiale di soggetto “terzo”, non sul se sia trattato come publisher.

IL punto più interessante è la copertura col § 230 della domanda contrattuale, 7 ss.

M. sostiene di no: ma invano perchè la corte rigetta per safe harbour e per due ragioni, p. 7/8:

Primo perchè M. non ha indicato una clausola contrattuale  che obbligasse T. a sospendere gli account offensivi: la clausola c’è, ma è merely aspirational, non binding.

Secondo , perchè la richiesta di sospendere l’account implica decisione editoriale, per cui opera l’esimente: <<“But removing content is something publishers do, and to impose liability on the basis of such conduct necessarily involves treating the liable party as a publisher of the content it failed to remove.” Barnes, 570 F.3d at 1103 (holding that Section 230 barred a negligent-undertaking claim because “the duty that Barnes claims Yahoo violated derives from Yahoo’s conduct as a publisher – the steps it allegedly took, but later supposedly abandoned, to de-publish the offensive profiles”)>>, p .8.

E’ il punto teoricamente più  interessante: la condotta censurata costituisce al tempo stesso sia  (in-)adempimento contrattuale che decisione editoriale. Le due qualificazione si sovrappongono.

Invece la lesione dell’affidamento  (promissory estoppel) non è preclusa dall’esimente, per cui solo qui M. ottiene ragione: <<This is because liability for promissory estoppel is not necessarily for behavior that is identical to publishing or speaking (e.g., publishing defamatory material in the form of SpyIRL’s tweets or failing to remove those tweets and suspend the account). “[P]romising . . . is not synonymous with the performance of the action promised. . . . one can, and often does, promise to do something without actually doing it at the same time.” Barnes, 570 F.3d at 1107. On this theory, “contract liability would come not from [Twitter]’s publishing conduct, but from [Twitter]’s manifest intention to be legally obligated to do something, which happens to be removal of material from publication.” Id. That manifested intention “generates a legal duty distinct from the conduct at hand, be it the conduct of a publisher, of a doctor, or of an overzealous uncle.” Id>>

(sentenze e link dal blog di Eric Goldman)

safe harbour ex § 230 CDA per responsabilità contrattuale: si conferma la non applicabilità

La Northern District Court di S. Josè Californa, 31.03.3021, Case No.20cv04687VKD, Daniels c. Alphabet e altri, conferma la vasta applicazione del § 230 CDA, che però non arriva a coprire la violazione contrattuale.

Infatti di tutte le doamnde avanzate, solo quest’ultima evita il rigetto per safe harbour: p. 20 righe 26.28 sul§ 230.c.1.

All’attore non va bene invece la domanda sul § 230.c.2.A, essendo rigettata la tesi della macnanza di buona fede.

La lamentela consisteva, al solito, nella rimozione di video dell’attore da Youtube.

Inoltre non gli va bene nemmeno la domanda di tutela del diritto di parola ex 42 US code § 1983, dato che questo riguarda solo state law e non federal law, p. 8-9.

Non gli va meglio la domanda ex Primo Emedamento: Google e Youtube infatti sono enti privati, cui non è applicabile la dottrina della state action. 

L’attore aveva in strano e originale modo tentato di argomentare il contrario, valorizzando discorsi pubblici di politici statunitensi (tra cui Nancy Pelosi) , per  cui le piattagorme meritano regolazione per il loro ruolo esteso nella società statunitense. Ciò però varrà de lege ferenda , non de lege lata.

Piana applicazione del safe harbour per copyright (§ 512 DMCA)

Una piana applicazione dell’esimente da responsabilità, costituita dal § 512 DMCA , è condotta dalla Northern District Court della California con sentenza 31 marzo 2021, case No.19cv04334JSC,  Kinsley c. Udemy.

Udemy (U.) vende servizi di piattaforma/hosting “educational”.

Kinsley (computer programing educator; poi: K.) aveva trovato sulla stessa  due suoi video contenti lezioni di programmazione informatica. Aveva dunque notificato la violazione a U. e questa aveva prontamente rimosso e bannato il docente, autore dell’illecito uploading.

Nonostanta la pronta e corretta reazione di U., K. aveva  ugualmente agito in giudizio per violazione di copyright (ma non solo).

Caratteristici qui sono l’actual knowledge (§512 suv C.1.A)  e ii) il giudizio sul <<right and ability to control such activity>>, circa il requisito del aver tratto beneficio finanziario (§ 512 sub c.1.B)

Sul primo punto, la conoscenza non c’era nè c’erano le c.d. red flags: <<Regarding a service provider’s “red flag” knowledge, § 512(c)(1)(A)(ii) “turns on whether the provider was subjectively aware of facts that would have made the specific infringement objectively obvious to a reasonable person.” Columbia Pictures Indus., Inc. v. Fung, 710 F.3d 1020, 1043 (9th Cir. 2013) (internal quotation marks and citation omitted); see also Ventura Content, 885 F.3d at 610 (“And for red flag knowledge, infringement must be apparent, not merely suspicious.”).Nothing in the record supports a findingthat Udemy was aware of facts that would have made the infringements at issue “objectively obvious to a reasonable person.” Fung, 710 F.3d at 1043>>, p. 6.

Sul secondo punto, U. non aveva la capacità di controllare i materiali , avendo oltre 50.000 corsi on line, p. 8.

E ciò pure se esisteva il programma di scan/detection <Link Busters> , visto che non funzionava sulla piattaforma di U. , ivi (punto non chiaro, dato che K. afferma che U. lo utilizzava, ma il giudice dice che “[did] not run against Udemy’s platform.”).

Quindi a carico di U. nè condanna risarcitoria nè inibitoria, p. 9-10.

(sentenza e link alla stessa dal blog di Eric Goldman)

Buona notizia per Zoom: l’aver permesso lo “zoombombing” è (per lo più) coperto da safe harbour ex § 230 CDA

Alcune persone citano Zoom Incorported per aver permesso l’ingresso di terzi estranei in conferenze Zoom. In sostanza per non aver protetto adeguatamente a livello informatico l’accesso e aver quindi permesso a detti terzi l’ingresso in conferenza con diffusione di materiali illeciti (c.d. <<zoombombing>>, di cui si era parlato pure da noi la scorsa estate). Sono poi avanzate altre domande relative a violazione di privacy, qui non pertinenti.

La lite è decisa da US D.C. NORTHERN DISTRICT OF CALIFORNIA-SAN JOSE DIVISION, 11 marzo 2021, Case No. 20-CV-02155-LHK.

I fatti sono sub I.A.

Naturalmente Zoom (Z.) eccepisce il safe harbour ex § 230 CDA.

Dei tre requisiti ivi richiesti (-che si tratti v internet provider, -che la domanda tratti il provider coma publisher o speakler, – che sia informazione proveniente da terzi) sono discusse le prime due, mentre non c’è contestazione sul fatto che ricorra la terza.

Per la corte , Z. è internet provider e dunque ricorre il primo requisito, p. 9 e 10-11,. § A.1.

Circa il secondo, invece, solo alcune domande trattano Z. come publisher/speaker, non tutte. ivi.

La corte al proposito ricorda la ratio del § 230, p. 12-14.

Ricorda che per superare il filtro del § 230 l’attore deve provare: 1) che si tratti di materiali dannosi ma però content-neutral e 2) di non trattare il provider come publisher/speaker, p. 15 ss

Circa 1) fa degli esempi di materiali content neutral, basati su casi anteriori (tentativi di blocco di provvedimenti amministrativi), p. 15-17

Circa 2) , v.si p.  17/8.

Fatte queste precisazioni generali, le applica al caso de quo , arrivando alla conclusione per cui molte delle domande vs. Z., basate sul zoombombing, sono coperte da safe harbour: <<Plaintiffs exposed to this user-generated content suffered emotional distress as a result. Id. ¶ 221. Yet, appalling as this content is, Zoom’s failure “to edit or block user-generated content” is “the very activity Congress sought to immunize.” Roommates.Com, 521 F.3d at 1172 n.32. The bulk of Plaintiffs’ Zoombombing claims lie against the “Zoombombers” who shared heinous content, not Zoom itself. Zoom merely “provid[ed] neutral tools for navigating” its service. Id. at 1174 n.37; see, e.g., FAC ¶ 177 (criticizing Zoom’s “default features”).>>p.19

Nega invece il safe harbour per le domande basate su inadempimento contrattuale.

Preciasamente così riassume la propria posizione: <<In sum, the Court rules as follows on § 230(c)(1) immunity. The Court denies Zoom’s motion to dismiss Plaintiffs’ contract claims. These claims do not derive from Zoom’s status or conduct as a “publisher” or “speaker.” The Court also denies Zoom’s motion to dismiss Plaintiffs’ claims to the extent they are content-neutral. Plaintiffs’ second amended complaint should more clearly articulate those claims. 

The Court grants Zoom’s motion to dismiss Plaintiffs’ claims to the extent they (1) challenge the harmfulness of “content provided by another”; and (2) “derive[] from the defendant’s status or conduct as a ‘publisher or speaker’” of that content. Barnes, 570 F.3d at 1102. However, the Court allows Plaintiffs leave to amend because amendment would not unduly prejudice the opposing party, cause undue delay, or be futile, and Plaintiffs have not acted in bad faith. See Leadsinger, 512 F.3d at 532.>>, ivi.

(notizia e link alla sentenza tratti dal blog di Eric Goldman)