Content moderation, hate speech e risoluzione del contratto di social network per inadempimento dell’utente

Trib. Roma.,  sez. dir. della persona e immig. civile, n° 17909/2022 del 5 dicembre 2022, RG 10810/2020, giud. monocr. Albano Silvia, decide nel merito la nota lite tra Casapoound e Facebook (ora Meta Platforms ireland ltd.: poi “FB), già oggetto di decisione cautelare alla fine del 2019.

Non ci sono ragionamenti particolarmente interessanti in diritto, ma un fattualmente importante accertamento di <organizzazione di odio> a carico di Casapound, secondo gli Standard di condotta di FB.

Purtroppo la lunga e fitta sentenza non è divisa in brevi paragrafi, per cui le lettura è poco agevole.

Il § 2 dà conto del quadro normativo e di applicazioni giurisprudenziali, anche estere.

Riporto il § 2.5 Conclusioni :

<<Dal complesso quadro di fonti normative sopra delineato, alcune delle quali aventi valore di fonti sovraordinate (come le norme costituzionali, o quelle sovranazionali in base all’art 117 della Costituzione), emerge con chiarezza che tra i limiti alla libertà di manifestazione del pensiero, nel bilanciamento con altri diritti fondamentali della persona, assume un particolare rilievo il rispetto della dignità umana ed il divieto di ogni discriminazione, a garanzia dei diritti inviolabili spettanti ad ogni persona.
La libertà di manifestazione del pensiero non include, pertanto, discorsi ostili e discriminatori (vietati a vari livelli dall’ordinamento interno e sovranazionale).
Gli obblighi imposti dal diritto sovranazionale impongono di esercitare un controllo; obbligo imposto agli stati ed anche, entro certi limiti (come si è visto), ai social network come Facebook, che ha sottoscritto l’apposito Codice di condotta.
Nel caso di specie, peraltro, non si tratta di una generalizzata compressione per via giudiziaria della libertà di espressione di singoli individui o gruppi, ma della possibilità di accedere ad uno specifico social network (che è anche un social media, strumento attraverso il quale i produttori di contenuti sono in grado di raggiungere il grande pubblico), gestito da privati, al fine di consentire la diffusione di informazioni concernenti l’attività di una determinata formazione politica.>>

Segue poi l’applicazione al caso de quo (cioè alle clausole contrattuali tra klutente e FB: sono riportate le clausole pertinenti).

Di interesse è che nessuna clausola prevede un obbligo di preavviso per disattivazione pagine o profilo, p. 25. In ogni caso nessun danno è stato provato dalla perdita per tale ragine dei documenti già ivi caricati (p. 40).

Pertanto, alla luce della normativa e della giurisprudenza nazionale e sovranazionale opra illustrata, <<può ritenersi che un’organizzazione che si richiama al fascismo, ne usa i simboli e gli slogan, può essere designata organizzazione d’odio in base alle regole contrattuali di Facebook sopra illustrate, in quanto oggettivamente favorisce la diffusione di idee fondate sulla superiorità o sull’odio razziale o etnico>>, § 4.

E poi: <<Nel caso di specie, al contrario, non si tratta di accertare la rilevanza penale della condotta, ma la legittimità della sua diffusione attraverso il social network, in quanto la pubblicazione di simbologia fascista è vietata dalle condizioni contrattuali di Facebook e autorizza, pertanto, la rimozione di post la riproducono.
Si è visto più sopra che le regole più stringenti in ordine alle legittimità dei contenuti divulgabili in rete sono determinati anche dall’effetto moltiplicatore di internet, idoneo ad attribuire un’attitudine lesiva a condotte che altrimenti potrebbero non averne, da qui le iniziative volte a responsabilizzare i gestori dei social network onde vietare la diffusione di simboli o discorsi d’odio in rete anche attraverso le condizioni contrattuali che ogni utente deve sottoscrivere al momento dell’iscrizione.

Facebook non solo poteva risolvere il contratto grazie alle clausole contrattuali accettate al momento della sua conclusione, ma aveva il dovere legale di rimuovere i contenuti, una volta venutone a conoscenza, rischiando altrimenti di incorrere in responsabilità (si veda la sentenza della CGUE sopra citata e la direttiva CE in materia), dovere imposto anche dal codice di condotta sottoscritto con la Commissione Europea>>, p. 31.

Viene esteso il giudizio alla pagina personale dell’ammninistratore di Casapound Italia.

Elenco di fatti, supportanti il giudizio di esattezza della qualificazione come  <organizzazione di odio> decisa da FB,  sta a a pp. 36/7.

Quindi FB legittimamente ha risolto il contratto.

Sono poi riprodotti i principali documenti provanti tale conclusione (con riproduzione grafica e a colori; i link invece non sono più attivi)

Conclusione finale al § 5 , p. 39: a<<l’art. 3.2 delle condizioni contrattuali prevede espressamente che nel caso in cui “l’utente abbia violato chiaramente, seriamente o reiteratamente le proprie condizioni o normative, fra cui in particolare gli Standard della community, Facebook potrebbe sospendere o disabilitare in modo permanente l’accesso dell’utente al suo account.”
E’ stato provato che le parti attrici hanno pubblicato contenuti in violazione delle clausole contrattuali che vietano il supporto ad organizzazioni d’odio (Davide Di Stefano attraverso il proprio profilo anche quale amministratore della pagina di CasaPound Italia), la pubblicazione di hate speech basati sulla razza o etnia (art 13 Standard della Comunità) e simboli che rappresentano/elogiano un’organizzazione che incita all’odio (come tutta la simbologia fascista o l’elogio ai combattenti della X Mas o della Repubblica di Salò- art 2 degli Standard) o che incitano alla violenza (art 1 degli Standard).
I contenuti, che inizialmente erano stati rimossi e poi a fronte della reiterata violazione hanno comportato la disattivazione degli account delle parti attrici sono illeciti da numerosi punti di vista.
Non solo violano le condizioni contrattuali, ma sono illeciti in base a tutto il complesso sistema normativo di cui si è detto all’inizio, con la vasta giurisprudenza nazionale e sovranazionale citata.>>

La libertà di parola sui social media (FB) da parte di soggetti critici verso le vaccinazioni (ancora sulla content moderation)

interessante caso sul diritto di parola e la content moderation di Facebook (Fb) in relazione ad un ente che sostiene la pericolosità di varie pratiche sociali, tra cui vaccini e la tecnocologia 5G per telefoni.

Si trata Tribunale del Nord California 29.06.2021, Case 3:20-cv-05787-SI, CHILDREN’S HEALTH DEFENSE (CHD) c. Facebook, Zuckerberg e altri.

Fb aveva etichettato i post del CHD come di dbbia attendibilità e simili (v. esempi grafici di ciò i nsentenza a p. 8/9).

Tra le causae petendi la prima era basata sul Primo (e 5°)  Emendametno in relazione al caso Bivens v. Six Unknown Named Agents of Fed. Bureau of Narcotics  del 1971 (il che dà l’idea del ruolo svolto dal precedente nella common law, degli USA almeno).

Gli attori diccono <<that “Facebook and the other defendants violated Plaintiff’s First Amendment rights by labeling CHD’s content ‘False Information,’ and taking other steps effectively to censor or block content from users. . . . Facebook took these actions againstPlaintiff in an effort to silence and deter its free speech solely on account of their viewpoint.” Id. ¶ 318. CHD also assertsa First Amendment retaliation claim, allegingthat after it filed this lawsuit, Facebook notified CHD that it “would modify the parties’ contractual term of service § 3.2, effective October 1, 2020, to read: ‘We also can remove or restrict access to your content, services, or information if we determine that doing so is reasonably necessary to avoid or mitigate adverse legal or regulatory impacts to Facebook.’”Id. ¶ 324>>, p. 12.

E poi: <<CHD alleges that defendants violated the Fifth Amendment by permanently disabling the “donate” button on CHD’s Facebook page and by refusing “to carry CHD’s advertising of its fundraising campaigns.” Id.¶ 319.6CHD alleges that “Defendants’ actions amount to an unlawful deprivation or ‘taking’ of Plaintiff’s property interests in its own fundraising functions. . . . without just compensation or due process.” Id. ¶¶ 320, 322.>>, ivi.

Il tribunale, però, conferma che le entità private non sono sottoposte al Primo emenda,mento ma solo Federal Actors, p. 12-13.

E’ curioso che gli attori avessero citato personalmente Mark Zuckerberg , dicendo che aveva realizzato <federal actin>per i due motivi indicati a pp. 14-15 (tra cui la combinazione con l’azione provaccini e contro la disinformazione, portata avanti dal  Congressman Adam Schiff ,consistente in una lettera aperta a MZ).

Che l’intevento diretto di MZ fosse probabile, non basta: dovevano dare la prova che egli actually partecipated, p. 16.

Da ultimo , non realizza Federal Action il fatto che Fb fruisca del safe harbour ex § 230 CDA. Gli attori infatti avevano così detto: <<CHD also allegesthat “government immunity [under Section 230of the CDA] plus pressure (Rep. Schiff). . should turn Facebook and Zuckerberg’s privateparty conduct into state action.” SAC ¶ 300.CHD asserts that Section 230, “by immunizing private parties against liability if they engage in conduct the government seeks to promote, constitutes sufficient encouragement to turn private action into state action.” CHD’s Opp’n to Facebook’s Mtn. at 6. With regard to coercion, CHD allegesthat Congressman Schiff pressured Facebook and Zuckerberg to remove “vaccine misinformation” through his February 2019 letter and his subsequentpublic statement that “if the social media companies can’t exercise a proper standard of care when it comes to a whole variety of fraudulent or illicit content, then we have to think about whether [Section 230] immunity still makes sense.” SAC ¶ 64. CHDrelies onSkinner v. RailwayLabsExecutives’ Association, 489 U.S. 602 (1989),as support for its contention that the immunity provided by Section 230 is sufficient encouragement to convert private action into state action>>, p. 24.

Ma la corte rigetta, p. 25: <<Skinner does not aid CHD.“Unlike the regulations in Skinner, Section 230 does not require private entities to do anything, nor does it give the government a right to supervise or obtain information about private activity.” >>

Altra causa petendi è la violazione del Lanham Act (concorrenza sleale a vario titolo e qui tramite informazioni denigratorie o decettive).

Per gli attori , 1) i convenuti erano concorrenti (è il tema più interessante sotto il profilo teorico) e 2) tramite la etichettatura di FB volutamente errata, avevano diffuso notizie dannose a carico degli attori, p. 28-29.

La Corte rigetta anche qui: <<However, the warning label and factchecks are not disparaging CHD’s “goods or services,” nor are they promoting the “goods or services” of Facebook, the CDC,or the factchecking organizations such as Poynter. In addition, the warning label and factchecks do not encourage Facebook users to donate to the CDC, the factchecking organizations, or any other organization. Instead, the warning label informs visitors to CHD’s Facebook page that they can visit the CDC website to obtain “reliable uptodate information” about vaccines, and the factchecks identify that a post has been factchecked, with a link to an explanation of why the post/article has been identified as false or misleading.>>, p. 30.

(notizia e link alla sentenza dal blog di Eric Goldman)