Il safe harbor ex § 230 CDA per Youtube in caso di accessi abusivi frodatori ad account altrui

Interessante lite sull’applicabilità del § 230 CDA statunitense a Youtube per allegate violazioni informatiche a fini di frode in account altrui (tra cui quello di Steve Wozniak) .

E’ ora giunta la decisione del 6° appellate district 15 marzo 2024,  H050042
(Santa Clara County Super. Ct. No. 20CV370338), Wozniak e altri c. Youtube), che sostanzialmente conferma il rigetto del primo grado (lasciando aperta agli attori solo  una piccola finestra).

La fattispecie è interessante per l’operatore.  Gli attori avevano diligentemente cercato di aggirare il safe harbour, argomentando in vario modo che gli addebiti a Y. erano di fatti propri (cioè di Y.), anzichè di mera condotta editoriale di informazioni altrui (per cui opera il safe harbor). Ragioni che la corte (anzi gli attori) avevano raggruppato in sei categorie:

a. Negligent security claim

b. Negligent design claim

c. Negligent failure to warn claim

d. Claims based on knowingly selling and delivering scam ads and
scam video recommendations to vulnerable users

e. Claims based on wrongful disclosure and misuse of plaintiffs’
personal information

f. Claims based on defendants’ creation or development of
information materially contributing to scam ads and videos

Ma per la corte non si può arrivare a qualificarle come condotte proprie di Y.  ai sensi del § 230 CDA , ma solo dei terzi frodatori (sub ii Material contributions, 34 ss).

Concede però parziale Leave to amend, p. 36.

I profili allegati dagli attorei sono utili pure da noi, perchè il problema è sostanzialmente simile: quello del capire se le notizie lesive pubblicate possono dirsi solo del terzo oppure anche della piattaforma (art. 6 reg. UE DSA  2022/2065)

(notizia della e link alla sentenza dal blog di Eric Goldman)

Tik tok responsabile per video che spingono a prove estreme? Sul safe harbour ex § 230 CDA

La corte dell’eastern district della Pennsylvania, Civ. No. 22-1849, del 25.10.2022, Anderson c. TikTOk, decide una dolorosa lite.

la domanda era svolta contro TT dalla madre di ragazza rimasta uccisa (a 10 anni!) nel cimentarsi con una delle pericolosissime prove di  “coraggio” che tristemente circolano sui social tra gli adolescenti. Nel caso era il “Blackout Challenge” (sopportazione di strangolamento crescente).

TT eccepisce il safe harbour ex 230 CDA.

La madre si sforza di provar il fatto proprio della piattaforma e nnn meramente dellutente uploader : <<Anderson bases her allegations entirely on Defendants’ presentation of “dangerous and deadly videos” created by third parties and uploaded by TikTok users. She thus alleges that TikTok and its algorithm “recommend inappropriate, dangerous, and deadly videos to users”; are designed “to addict users and manipulate them into participating in dangerous and deadly challenges”; are “not equipped, programmed with, or developed with the necessary safeguards required to prevent circulation of dangerous and deadly videos”; and “[f]ail[] to warn users of the risks associated with dangerous and deadly videos and challenges.” (Compl. ¶¶ 107, 127 (emphasis added).) Anderson thus premises her claims on the “defective” manner in which Defendants published a third party’s dangerous content.>>

Ma la corte immancabilmente rigetta, ritenendo operante la libertà editoriale.  Sono esmanati i precedenti tra cui quello dello Speed filter sull’applicazione Snapchat

La cosa è però sorprendente, alla luce della ratio di quest’ltima (garantire la libertà di pensiero ).

Intanto la piattaforma ha pesantemente diffuso il video, dice la madre. Però qui potrebbe replicarsi che ciò corrisponde all’ analogico decidere se la notizia vada in prima o quinta pagina.

POi il contributo al libero pensiero, nello spingere i ragazzi verso prove ad elevatissima rischiosità per la salute o la vita,   è scarso se non inesistente: parrebbe invece  istigazione colposa (colpa cosciente se non solo eventuale) alle autolesioni o al suicidio .

Un’intepretazione costituzionalmente corretta dovrebbe dunue indurre a decisione opposta,

E’ da vedere se tale interpretazione possa essere data  anche in base alla lettera della Costituzione usa o se ne serva una evolutiva. Nel secondo caso, con una Corte Suprema come quella attuale -radicalmente originalista per 6 a 3-  e col vincolo del precedente, sarebbe quasi impossobile.

L’editorial judgment delle piattafrome social , in quanto esercizio del diritto di parola, è coperto dal Primo Emendamento

E’ stata data la notizia circa la sentenza di appello 23 maggio 2022 dell’11 circuito, USCA11 Case: 21-12355 , Netchoice LLc e altri c. ATTORNEY GENERAL, STATE OF FLORIDA (link fornito da varie fonti), circa la legittimità di una legge della Florida regolante e vincolante in vario modo le piattaforme social.

Soprattuto tre son i vincoli contestati:

i) restrizioni sulla content-moderation, ( p. 10);

ii) obblighi di disclosure (p. 12);

iii) obbligo di  fornire i dati all’utente in caso di deplatforming  (p. 13; disposzione invero molti interessante e probabilmente da accogliere, visti i recenti casi italiani di distruzioni immotivate del materiale postato negli anni dall’utente medesimo)

La corte di appello dell’11° circuito, adita dalle piattaforme la ritiene sostanzialmente incostituzionale, in quanto troppo inibente la freedom of speech tutelata dal Primo Emendamento.

Il presupposto , importante, è che le piattafforme sono soggetti privati titolari appunto dei diritti da First Amendement: <<The question at the core of this appeal is whether the Facebooks and Twitters of the world—indisputably “private actors” with First Amendment rights—are engaged in constitutionally protected expressive activity when they moderate and curate the content that they disseminate on their platforms. The State of Florida insists that they aren’t, and it has enacted a first-of-its-kind law to combat what some of its proponents perceive to be a concerted effort by “the ‘big tech’ oligarchs in Silicon Valley” to “silenc[e]” “conservative” speech in favor of a “radical leftist” agenda. To that end, the new law would, among other things, prohibit certain social-media companies from “deplatforming” political candidates under any circumstances, prioritizing or deprioritizing any post or message “by or about” a candidate, and, more broadly, removing anything posted by a “journalistic enterprise” based on its content. USCA11 Case: 21-12355 Date Filed: 05/23/2022 Page: 3 of 674 Opinion of the Court 21-12355

We hold that it is substantially likely that social-media companies—even the biggest ones—are “private actors” whose rights the First Amendment protects, Manhattan Cmty., 139 S. Ct. at 1926, that their so-called “content-moderation” decisions constitute protected exercises of editorial judgment, and that the provisions of the new Florida law that restrict large platforms’ ability to engage in content moderation unconstitutionally burden that prerogative. We further conclude that it is substantially likely that one of the law’s particularly onerous disclosure provisions—which would require covered platforms to provide a “thorough rationale” for each and every content-moderation decision they make—violates the First Amendment.

Accordingly, we hold that the companies are entitled to a preliminary injunction prohibiting enforcement of those provisions. Because we think it unlikely that the law’s remaining (and far less burdensome) disclosure provisions violate the First Amendment, we hold that the companies are not entitled to preliminary injunctive relief with respect to them>>

Sul conflitto tra editorial judgment/diritto di free speech in capo alle piattaforme social, da una parte, e diritto dello stato di chiedere conto dei criteri seguiti nella content moderation, dall’altro,  v. l’interessante saggio “Rereading Herbert v. Lando” di E. Douek-G. Lakier, 26 maggio 2022 , richiamante la cit. decisione della Suprema Corte del 1979.

Sulla legge della Florida v. Calvert, First Amendment Battles over Anti-Deplatforming Statutes: Examining Miami Herald Publishing Co. v. Tornillo’s Relevance for Today’s Online Social Media Platform Cases, NY Univ. law review-online, aprile 2022.