Azione di danno per sospensione di account Twitter è impedita dal’esimente § 230 CDA?

Dice di si la corte del distretto nord della california, 7 novembre 2022, Case 3:22-cv-05415-TSH, Yuksel c. Twitter.

I danni lamentati dalla sospensione:

1. Sold me to a dictator who filed lawsuit against 36,066
dissidents, including me, in 2019 alone.
2. Suspended my account. Did not provide me with a specific
reason nor gave me chance to defend myself against the
unknown charge.
3. Destroyed all the intellectual content I had created in 7 years.
4. Cut my connections from more than 142,000 followers and
prominent contacts I had built and fostered in 7 years.
5. Harmed my public image and reputation since many of my
followers and readers thought I had blocked them
intentionally

Qui l’esenzione ex § 230 CDa si applica pianamente e la corte non manca di fare così.

Inoltre si premura di precisare che, anche non concordando con ciò , le domande (breach of conctract e altro) sarebbero rigettata nel merito lo stesso

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

SAfe harbour ex § 230 CDa per danni da database informativo su privati messo in vendita?

Dice di no l’appello del 4 circuito n. 21-1678, TYRONE HENDERSON, SR e altri c. THE SOURCE FOR PUBLIC DATA, L.P. (dal distretto est della Virginia)

Attività dei convenuti:

<< Public Data’s business is providing third parties with information about individuals.
Plaintiffs allege that it involves four steps.
First, Public Data acquires public records, such as criminal and civil records, voting
records, driving information, and professional licensing. These records come from various
local, state, and federal authorities (and other businesses that have already collected those
records).
Second, Public Data “parses” the collected information and puts it into a proprietary
format. This can include taking steps to “reformat and alter” the raw documents, putting
them “into a layout or presentation [Public Data] believe[s] is more user-friendly.” J.A.
16. For criminal records, Public Data “distill[s]” the data subject’s criminal history into
“glib statements,” “strip[s] out or suppress[es] all identifying information relating to the
charges,” and then “replace[s] this information with [its] own internally created summaries
of the charges, bereft of any detail.” J.A. 30.
Third, Public Data creates a database of all this information which it then
“publishes” on the website PublicData.com. Public Data does not look for or fix
inaccuracies in the database, and the website disclaims any responsibility for inaccurate
information. Public Data also does not respond to requests to correct or remove inaccurate
information from the database.
Fourth, Public Data sells access to the database, “disbursing [the] information . . .
for the purpose of furnishing consumer reports to third parties.” J.A. 19. All things told,
Plaintiffs allege that Public Data sells 50 million consumer searches and reports per year.
Public Data knows that traffic includes some buyers using its data and reports to check
creditworthiness and some performing background checks for employment pURPOSE
>>

La domanda di danno è basata su violazioni di alcune disposizioni del Fair Credit Reporting Act (“FCRA”), anche  ma non    solo di tipo data protection.

L’invocazione del safe harbout è rigettata su due dei tre requisiti di legge.

RAvvisata la qualità di  internet provider, è però negato sia (per alcuni claims)  che venisse trattaato come publisher o speaker sia (per altri claims) che le infomazioni fossero di terzi.

Analisi dettagliata ma forse nell’esito poco condivisibile.

Le informazioni erano pur sempre tutte di terzi, solo che il convenuto le formattava in modalità più fruibili ai propri scopi (magari con qualche omissione …)-

Soprattutto, dir che non erano trattati come puiblisher/speaker è dubbio.

 

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Tik tok responsabile per video che spingono a prove estreme? Sul safe harbour ex § 230 CDA

La corte dell’eastern district della Pennsylvania, Civ. No. 22-1849, del 25.10.2022, Anderson c. TikTOk, decide una dolorosa lite.

la domanda era svolta contro TT dalla madre di ragazza rimasta uccisa (a 10 anni!) nel cimentarsi con una delle pericolosissime prove di  “coraggio” che tristemente circolano sui social tra gli adolescenti. Nel caso era il “Blackout Challenge” (sopportazione di strangolamento crescente).

TT eccepisce il safe harbour ex 230 CDA.

La madre si sforza di provar il fatto proprio della piattaforma e nnn meramente dellutente uploader : <<Anderson bases her allegations entirely on Defendants’ presentation of “dangerous and deadly videos” created by third parties and uploaded by TikTok users. She thus alleges that TikTok and its algorithm “recommend inappropriate, dangerous, and deadly videos to users”; are designed “to addict users and manipulate them into participating in dangerous and deadly challenges”; are “not equipped, programmed with, or developed with the necessary safeguards required to prevent circulation of dangerous and deadly videos”; and “[f]ail[] to warn users of the risks associated with dangerous and deadly videos and challenges.” (Compl. ¶¶ 107, 127 (emphasis added).) Anderson thus premises her claims on the “defective” manner in which Defendants published a third party’s dangerous content.>>

Ma la corte immancabilmente rigetta, ritenendo operante la libertà editoriale.  Sono esmanati i precedenti tra cui quello dello Speed filter sull’applicazione Snapchat

La cosa è però sorprendente, alla luce della ratio di quest’ltima (garantire la libertà di pensiero ).

Intanto la piattaforma ha pesantemente diffuso il video, dice la madre. Però qui potrebbe replicarsi che ciò corrisponde all’ analogico decidere se la notizia vada in prima o quinta pagina.

POi il contributo al libero pensiero, nello spingere i ragazzi verso prove ad elevatissima rischiosità per la salute o la vita,   è scarso se non inesistente: parrebbe invece  istigazione colposa (colpa cosciente se non solo eventuale) alle autolesioni o al suicidio .

Un’intepretazione costituzionalmente corretta dovrebbe dunue indurre a decisione opposta,

E’ da vedere se tale interpretazione possa essere data  anche in base alla lettera della Costituzione usa o se ne serva una evolutiva. Nel secondo caso, con una Corte Suprema come quella attuale -radicalmente originalista per 6 a 3-  e col vincolo del precedente, sarebbe quasi impossobile.

Discriminazione e safe harbour ex § 230 Cda in Facebook

LA Eastern district of Pennsylvania 30.09.2022  Case 2:21-cv-05325-JHS D , Amro Ealansari c. Meta, rigtta la domanda volta a censurare presunta discriminazione da parte di Facebook verso materiali islamici ivi caricati.

E’ rigettata sia nel merito , non avendo provato discrimnazione nè che F. sia public accomodation (secondo il Civil Rights Act),  sia in via pregiudiziale per l’esimente ex § 230 CDA.

Nulla di particolarmente interessante e innovativo

(notizia e  link alla sentenza dal blog del prof Eric Goldman)

La frode informatica tramite app scaricata da Apple Store non preclude ad Apple di fruire del safe harbour ex 230 CDA

Il Trib. del North Dist. dell aCalifornia, 2 settembre 2022, HADONA DIEP, et al., Plaintiffs, v. APPLE, INC., Defendant. , Case No. 21-cv-10063-PJH , decide su una domanda contro Apple per aver favorito/omesso controlli su una app (Toast Plus) del suo store , che le aveva frodato diversa criptocurrency

L’immancabile eccezione di porto sicuro ex § 230 CDA viene accolta.

Ed invero difficile sarebbe stato  un esito diverso, trttandosi di caso da manuale.

Naturalmenten gli attori tentano di dire i) che avevano azionato anche domande  eccedenti il suo ruolo di publisher e ii) che Apple è content provider (<<The act for which plaintiffs seek to hold Apple liable is “allowing the Toast Plus application to be distributed on the App Store,” not the development of the app>>) : ma questo palesement non eccede il ruolo di mero hosting.

Conclusion: Plaintiffs’ allegations all seek to impose liability based on Apple’s role in vetting the app and making it available to consumers through the App Store. Apple qualifies as an interactive computer service provider within the meaning of the first prong of the Barnes test. Plaintiffs seek to hold Apple liable for its role in reviewing and making the Toast Plus app available, activity that satisfies the second prong of the Barnes test as publishing activity. And plaintiffs’ allegations do not establish that Apple created the Toast Plus app; rather, it was created by another information content provider and thus meets the third prong of the Barnes test. For each of these reasons, as well as the inapplicability of an exemption, Apple is immune under § 230 for claims based on the conduct of the Toast Plus developers.

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Approfondimenti sul safe harbour ex § 230 CDA (casinò virtuali , responsabilità editoriale e compartecipazione all’illecito)

Il distretto nord della California, S. Josè division,  2 settembre 2022, Case No. 5:21-md-02985-EJD , Case No. 5:21-md-03001-EJD e Case No. 5:21-cv-02777-EJD, decide una lite promossa per putative class action verso le major tecnologiche Apple, Google e Facebook per violazione di diverse norme di consumer protection.

In particolare le accusa -in concorso con i gestori di cyber casinò- di aver fatto perdere soldi agli utenti promuovendo attivamente applicazioni di giochi a denaro (casino), meglio detti <social casinos applications>

Le major ovviamente eccepiscono il safe harbour in oggetto.

La corte entra nel dettaglio sia del business dei casinò virtuali sia della storia del § 230 CDA.

Quello che qui però interessa è la qualificazione della domanda proposta.

Infatti solo se l’attore tratta le convenute come speaker/publisher, queste fruire del safe harbour. E delle tre possibili teorie di responsabilità propettate dall’attore, una (la seconda) viene ritenuta di responsabilità per fatto proprio anzichè editoriale: per questa dunque il safe harbour non opera.

In particolare: << Unlike Plaintiffs’ first theory of liability, which attempts to hold the Platforms liable in
their “editorial” function, Plaintiffs’ second theory of liability seeks to hold the Platforms liable
for their own conduct. Importantly, the conduct identified by Plaintiffs in their complaints is
alleged to be unlawful. As alleged, players must buy virtual chips from the Platforms app stores
and may only use these chips in the casino apps. It is this sale of virtual chips that is alleged to be
illegal. Plaintiffs neither take issue with the Platforms’ universal 30% cut, nor the Platforms’
virtual currency sale. Plaintiffs only assert that the Platforms role as a “bookie” is illegal.
Plaintiffs therefore do not attempt to treat the Platforms as “the publisher or speaker” of thirdparty content, but rather seek to hold the Platforms responsible for their own illegal conduct—the
sale of gambling chips.
Compare Taylor v. Apple, Inc., No. 46 Civ. Case 3:20-cv-03906-RS (N.D.
Cal. Mar. 19, 2021) (“Plaintiffs’ theory is that Apple is distributing games that are effectively slot
machines—illegal under the California Penal Code. . . . Plaintiffs are seeking to hold Apple liable
for selling allegedly illegal gaming devices, not for publishing or speaking information.”),
with
Coffee v. Google, LLC
, 2022 WL 94986, at *6 (N.D. Cal. Jan. 10, 2022) (“In the present case,
Google’s conduct in processing sales of virtual currency is not alleged to be illegal. To the
contrary, the [Complaint] states that ‘[v]irtual currency is a type of
unregulated digital currency
that is only available in electronic form.’ If indeed the sale of Loot Boxes is illegal, the facts
alleged in the FAC indicate that such illegality
is committed by the developer who sells the Loot
Box for virtual currency, not by Google
.” (second alteration in original) (emphasis added)) ….

The Court holds that Plaintiffs’ first and third theories of liability must be dismissed under
section 230. However, Plaintiffs’ second theory of liability is not barred by section 230. The
Court thus GRANTS in part and DENIES in part Defendants’ respective motions to dismiss. 
>>

E’ una questione assai interssante di teoria civilistica quella di capire quando ricorra responsabilità vicaria o per concorso paritario nel fatto altrui o responsabilità solo editoriale.    Interessante anche perchè è alla base della discplin armonizzata UE della  responsabilità del provider.

(notizia e link alla sentenza da blog del prof Eric Goldman)

La piattaforma social perde il safe harbour ex § 230 CDA per negligent design (prodotto difettoso) se permette l’uso anonimo

Il distretto dell’Oregon , Portland division, con sentenza 13 luglio 2022, Case 3:21-cv-01674-MO , A.M. v. Omegle.com llc+1, pone un interessante insegnamento.

La piattaforma social perde il safe harbour se il danno ad un utente è causato non solo dal fatto di altro utente , ma anche dal fatto proprio omissivo (anzi, forse è commissivo),  consistente nel design difettoso della propria architettura informatica . Difetto consistente ad es. nel permettere l’anonimato e il non dichiarere/accertare l’età (nel caso, aveva abbinato casualmente maggiorennne e minorenne, risultata poi adescata dal primo).

Astutamente (o acutamente) per bypassare la barriera del § 230 CDA l’avvocato dell’attore aveva azionato la responsabilità del produttore (social) per prodotto difettoso (negligent design della piattaforma).

Quindi non può dirsi sia stato azionata responsabilità per fatto solo del terzo utente.

<< Here, Plaintiff’s complaint adequately pleads a product liability lawsuit as to claims one
through four.
2 Omegle could have satisfied its alleged obligation to Plaintiff by designing its
product differently—for example, by designing a product so that it did not match minors and
adults. Plaintiff is not claiming that Omegle needed to review, edit, or withdraw any third-party
content to meet this obligation. As I will discuss in more detail below, the content sent between
Plaintiff and Fordyce does not negate this finding or require that I find Omegle act as a publisher.
The Ninth Circuit held in
Lemmon that a defendant “allow[ing] its users to transmit usergenerated content to one another does not detract from the fact that [a plaintiff] seek[s] to hold
[the defendant] liable for its role in violating its distinct duty to design a reasonably safe
product.” 995 F.3d at 1092. “The duty to design a reasonably safe product is fully independent of
[a defendant’s] role in monitoring or publishing third party content.”
Id. In Lemmon it was
immaterial that one of the decedents had sent a SnapChat with the speed filter on it. Instead,
what mattered is that the claim treated defendant as a product manufacturer by accusing it of
negligently designing a product (SnapChat) with a defect (the interplay between the speed filter
and the reward system).
In this case, it similarly does not matter that there were ultimately chats, videos, or
pictures sent from A.M. to Fordyce. As I stated at oral argument, it is clear that content was
created; however, claims one through four do not implicate the publication of content. Tr. [ECF
32] at 10:6–11:8. What matters for purposes of those claims is that the warnings or design of the
product at issue led to the interaction between an eleven-year-old girl and a sexual predator in his
late thirties
>>

Il software di Salesforce , per ottimizzare la gestione di una piattaforma di marketplace, è coperto dal safeharbour ex § 230 CDA

In Backpage.com (piattaforma di compravendite rivale di craiglist) comparivano anche molti annunci a sfondo sessuale.

A seguito di uno di questi, una minorennme (tredicennne all’epoca!) cadeva vittoma di predatori.

Agiva quindi assieme alla madre in giudizio contro Salesforce (poi: S.) per aver collaborato e tratto utile economico dagli incarichi ricevuti da Backpage, relativi alla collaborazione nella gestione online dei contatti con i suoi utenti.

Il distretto nord dell’Illinois, eastern div., Case: 1:20-cv-02335 , G.G. (minor) v. Saleforce.com inc., 16 maggio 2022, accoglie l'(immancabile) eccezione di S. della fruibilità del predetto safeharbour.

Il punto è trattato con buona analisi sub I Section 230, pp. 6-24.

La corte riconocse che S. sia in interactive computer service, , sub A, p. 8 ss: difficilmente contestabile.

Riconosce anche che S. sia chiamato in giudizio come publisher, sub B, p. 13 ss: asserzione, invece, meno scontata.

Chi collabora al fatto dannoso altrui (sia questi un publisher -come probabilmente Backpage- oppure no) è difficile possa essere ritenuto publisher: a meno di dire che lo è in quanto la sua condotta va qualificata col medesimo titolo giuridico gravante sul soggetto con cui collabora (si v. da noi l’annosa questione del titolo di responsabilità per concorrenza sleale ex art. 2598 cc in capo al terzo privo della qualità di imprenditore concorrente).

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Attualmente il sito web di Backpage.com è sotto sequestro della forza pubblica statunitense. Compare questo:

Ancora sull’applicabilità del safe harbour ex § 230 CDA alla rimozione/sospensione di contenuti dell’attore

In un  caso di lite promossa da dissidente dal governo arabo a causa della mancata protezione del proprio account da hacker governativi arabi e successiva sua sospensione, interviene il distretto nord della california 20.05.2022m, case 3:21-cv-08017-EMC, Al-Hamed c.- Twitter e altri. 

Le domanda proposte erano molte: qui ricordo solo la difesa di Tw. basata sull’esimente in oggetto.

La corte concede a Twitter il safe harbour ex § 230.c.1,  ricorrendone i tre requisiti:

– che si tratti di internet service provider,

– che si qualifichi il convenuto come publisher/speaker,

– che riguardi contemnuti non di Tw. ma di terzi .

E’ quest’ultimo il punto meno chiaro (di solito la rimozione/sospensione riguarda materiale offensivo contro l’attore e caricato da terzi)  : ma la corte chiarisce che la sospensione di contenuti del ricorrente è per definizione sospensione di conteuti non di Tw e quindi di terzi (rispetto al solo  Tw. , allora, non certo rispetto all’attore).

Ricorda però che sono state emesse opinioni diverse: <<Some courts in other districts have declined to extend Section 230(c)(1) to cases in which the user brought claims based on their own content, not a third party’s, on the ground that it would render the good faith requirement of Section 230(c)(2) superfluous. See, e.g., e-ventures Worldwide, LLC v. Google, Inc., No. 2:14-cv-646-FtM-PAM-CM, 2017 WL 2210029, at *3 (M.D. Fl. Feb. 8, 2017). However, although a Florida court found the lack of this distinction to be problematic, it also noted that other courts, including those in this district, “have found that CDA immunity attaches when the content involved was created by the plaintiff.” Id. (citing Sikhs for Just., Inc. v. Facebook, Inc., 697 F. App’x 526 (9th Cir. 2017) (affirming dismissal of the plaintiff’s claims based on Facebook blocking its page without an explanation under Section  230(c)(1)) >> (e altri casi indicati).

Si tratta del passaggio più interessante sul tema.

(notizia e link alla sentenza dal blog del prof. Eric Goldman).