Ancora su safe harbour ex § 230 CDA e Twitter

Una modella (M.) si accorge di alcune sua foto intime pubblicate su Twitter (T.) da un soggetto editoriale (E.) di quel settore.

Chiede pertanto a T. la rimozione delle foto, dei tweet e la sospensione dell’account.

T. l’accontenta solo sul primo punto.

Allora M. agisce verso T. e E. , azionando:  <<(1) copyright infringement; (2) a violation of FOSTA-SESTA, 18 U.S.C. 1598 (named for the Allow States and Victims to Fight Online Sex Trafficking Act and Stop Online Sex Trafficking Act bills); (3) a violation of the right of publicity under Cal. Civ. Code § 3344; (4) false advertising under the Lanham Act; (5) false light invasion of privacy; (6) defamation, a violation under Cal. Civ. Code § 44, et seq.; (7) fraud in violation of California’s Unfair Competition Law, Cal. Bus. & Prof. Code § 1 17200 et seq.; (8) negligent and intentional infliction of emotional distress; and (9) unjust enrichment>>

Decide  US D.C. Central District della California 19.02.2021 , caso CV 20-10434-GW-JEMx,  Morton c. Twitter+1.

Manco a dirlo T eccepisce l’esimente ex § 230 CDA per tutti i claims tranne quello di copyright.

E’  sempre problematico il requisito del se l’attore tratti o meno il convenuto come publisher o speaker: conta la sostanza, non il nome adoperato dall’attore. Cioè la domanda va qualfiicata dal giudice, p. 5.

M. cerca di dire che E. non è terzo ma affiliato a T. . La corte rigetta, anche se di fatto senza motivazione, pp.-5-6. Anche perchè sarebbe stato più appropriato ragionarci sul requisito del se sia materiale di soggetto “terzo”, non sul se sia trattato come publisher.

IL punto più interessante è la copertura col § 230 della domanda contrattuale, 7 ss.

M. sostiene di no: ma invano perchè la corte rigetta per safe harbour e per due ragioni, p. 7/8:

Primo perchè M. non ha indicato una clausola contrattuale  che obbligasse T. a sospendere gli account offensivi: la clausola c’è, ma è merely aspirational, non binding.

Secondo , perchè la richiesta di sospendere l’account implica decisione editoriale, per cui opera l’esimente: <<“But removing content is something publishers do, and to impose liability on the basis of such conduct necessarily involves treating the liable party as a publisher of the content it failed to remove.” Barnes, 570 F.3d at 1103 (holding that Section 230 barred a negligent-undertaking claim because “the duty that Barnes claims Yahoo violated derives from Yahoo’s conduct as a publisher – the steps it allegedly took, but later supposedly abandoned, to de-publish the offensive profiles”)>>, p .8.

E’ il punto teoricamente più  interessante: la condotta censurata costituisce al tempo stesso sia  (in-)adempimento contrattuale che decisione editoriale. Le due qualificazione si sovrappongono.

Invece la lesione dell’affidamento  (promissory estoppel) non è preclusa dall’esimente, per cui solo qui M. ottiene ragione: <<This is because liability for promissory estoppel is not necessarily for behavior that is identical to publishing or speaking (e.g., publishing defamatory material in the form of SpyIRL’s tweets or failing to remove those tweets and suspend the account). “[P]romising . . . is not synonymous with the performance of the action promised. . . . one can, and often does, promise to do something without actually doing it at the same time.” Barnes, 570 F.3d at 1107. On this theory, “contract liability would come not from [Twitter]’s publishing conduct, but from [Twitter]’s manifest intention to be legally obligated to do something, which happens to be removal of material from publication.” Id. That manifested intention “generates a legal duty distinct from the conduct at hand, be it the conduct of a publisher, of a doctor, or of an overzealous uncle.” Id>>

(sentenze e link dal blog di Eric Goldman)

Buona notizia per Zoom: l’aver permesso lo “zoombombing” è (per lo più) coperto da safe harbour ex § 230 CDA

Alcune persone citano Zoom Incorported per aver permesso l’ingresso di terzi estranei in conferenze Zoom. In sostanza per non aver protetto adeguatamente a livello informatico l’accesso e aver quindi permesso a detti terzi l’ingresso in conferenza con diffusione di materiali illeciti (c.d. <<zoombombing>>, di cui si era parlato pure da noi la scorsa estate). Sono poi avanzate altre domande relative a violazione di privacy, qui non pertinenti.

La lite è decisa da US D.C. NORTHERN DISTRICT OF CALIFORNIA-SAN JOSE DIVISION, 11 marzo 2021, Case No. 20-CV-02155-LHK.

I fatti sono sub I.A.

Naturalmente Zoom (Z.) eccepisce il safe harbour ex § 230 CDA.

Dei tre requisiti ivi richiesti (-che si tratti v internet provider, -che la domanda tratti il provider coma publisher o speakler, – che sia informazione proveniente da terzi) sono discusse le prime due, mentre non c’è contestazione sul fatto che ricorra la terza.

Per la corte , Z. è internet provider e dunque ricorre il primo requisito, p. 9 e 10-11,. § A.1.

Circa il secondo, invece, solo alcune domande trattano Z. come publisher/speaker, non tutte. ivi.

La corte al proposito ricorda la ratio del § 230, p. 12-14.

Ricorda che per superare il filtro del § 230 l’attore deve provare: 1) che si tratti di materiali dannosi ma però content-neutral e 2) di non trattare il provider come publisher/speaker, p. 15 ss

Circa 1) fa degli esempi di materiali content neutral, basati su casi anteriori (tentativi di blocco di provvedimenti amministrativi), p. 15-17

Circa 2) , v.si p.  17/8.

Fatte queste precisazioni generali, le applica al caso de quo , arrivando alla conclusione per cui molte delle domande vs. Z., basate sul zoombombing, sono coperte da safe harbour: <<Plaintiffs exposed to this user-generated content suffered emotional distress as a result. Id. ¶ 221. Yet, appalling as this content is, Zoom’s failure “to edit or block user-generated content” is “the very activity Congress sought to immunize.” Roommates.Com, 521 F.3d at 1172 n.32. The bulk of Plaintiffs’ Zoombombing claims lie against the “Zoombombers” who shared heinous content, not Zoom itself. Zoom merely “provid[ed] neutral tools for navigating” its service. Id. at 1174 n.37; see, e.g., FAC ¶ 177 (criticizing Zoom’s “default features”).>>p.19

Nega invece il safe harbour per le domande basate su inadempimento contrattuale.

Preciasamente così riassume la propria posizione: <<In sum, the Court rules as follows on § 230(c)(1) immunity. The Court denies Zoom’s motion to dismiss Plaintiffs’ contract claims. These claims do not derive from Zoom’s status or conduct as a “publisher” or “speaker.” The Court also denies Zoom’s motion to dismiss Plaintiffs’ claims to the extent they are content-neutral. Plaintiffs’ second amended complaint should more clearly articulate those claims. 

The Court grants Zoom’s motion to dismiss Plaintiffs’ claims to the extent they (1) challenge the harmfulness of “content provided by another”; and (2) “derive[] from the defendant’s status or conduct as a ‘publisher or speaker’” of that content. Barnes, 570 F.3d at 1102. However, the Court allows Plaintiffs leave to amend because amendment would not unduly prejudice the opposing party, cause undue delay, or be futile, and Plaintiffs have not acted in bad faith. See Leadsinger, 512 F.3d at 532.>>, ivi.

(notizia e link alla sentenza tratti dal blog di Eric Goldman)

Appello sul safe harbour § 230 CDA in caso di chiusura di account Vimeo

L’appello conferma decisione della corte newyorkese di prima istanza in una lite su chiusura di account Vimeo (piattforma per video, sia gratuita che premium) per violazione di regola contrattuale, lite decisa in base all’immancabile  safe harbour ex § 230 CDA.

Così il  secondo circuito di appello 11.03.2021 , Docket No. 20-616, Domen c. Vimeo.

Domen e l’ente da lui creato, dunque,  citano Vimeo (V. ) per avergli chiuso l’account per violazione delle sue regole che vietano <<the promotion of sexual orientation change efforts (“SOCE”) on its platform>>, p.3.

Gli attori citano V. perchè ha <<discriminated against them on the basis of their religion and sexual 3 orientation by deleting Church United’s account from Vimeo’s online video 4 hosting platform>> p. 3.

La corte conferma la decisione di primo grado , rigettando in limine per l’esimente del § 230. CDA.

Ricorda poi che l’attore era stato in un primo tempo avvisato di togliere i video contestati, altrimenti avrebbe subito la chiusura dell’account. Non avendovi provveduto, ha giustamente subito la chiusura, p. 14.

Non è però chiara la rilevanza del previo warning da parte della piattaforma: la legge non lo chiede, a differenza dal § 512 DMCA in tema di copyright. Tuttavia la corte vi insiste, per cui a fini pratici la piattaforma farà bene a dare un preavviso conrguo.

Le accuse di discriminazione sono reciproche: cioè stanno alla base sia della domanda giudiziale (p.8) che della decisione di V.

La corte di prima istanza rigetta per i commi sia 1 che 2 del § 230(c), p.8.

La corte di appello precisa che, sebbene fosse possibile una misura minore (rimozione solo dei video de quibus invece che di tutto l’account), a ciò non era tenuta V., p. 14 . Cioè la proporzionalità della reazione non è obbligata (secondo la disposizine di legge, che in effetti non la menziona, come invece da noi la dir. UE c.d enforcement 48/2004 art. 3/2).

Inoltre, prosegue la corte, circa il § 230.c.2, V. non può dirsi in malafede (la norma chiede la good faith) per il solo fatto di aver “lasciato su” altri video, che dal titolo paiono trattare la stessa materia. Infatti dal mero titolo non è chiaro che si tratti (la cit. SOCE), p. 16. Dunque avviso importante per i prossimi litigators: documentare bene i  materiali altrui  non rimossi perchè si potrebbe  ottenere ragione.

Ancora, nemeno può ravvisarsi malafede per intento anticompetetitivo o conflitto di interessi, p. 15). Infatti nel caso <<it was a straightforward consequence of Vimeo’s content policies, which Vimeo communicated to Church United prior to deleting its account>>, p. 15.

Altro avviso ai difensori prossimi circa l’interpretazione del concetto di good faith, che faranno bene a tener presenti questi concetti. Infatti , esaminado meglio la struttura del business della piattaforma convenuta, portrebbero far emergere un rapporto concorrenziale col loro cliente e dunque pure la malafede della prima.

Non è stata dedotta nè esaminata la questione dell’applicabilità a V. (e in generale agli internet provider) del primo emendamento della costituzione USA sul diritto di parola.

(notizia e link alla sentenza tratti dal blog di Eric Goldman)

Immunità per pubblicazione di dati personali tratti da annuari scolastici donati da terzi?

Un’interessante questione (anche se in fattispecie molto particolare) si è posta presso una corte californiana.

Ancestry.com (A.) pubblica annuari (scolastici) con foto, nomi e indirizzi, donatile da soggetti da lei sollecitati. Una volta ricevutili, li carica sul proprio data base e inoltre li invia in promozione commerciale a possibili interessati , inducendoli ad acquistare una sorta di pacchetto “premium” per l’accesso a maggiori dati. Questi <<donors>> degli annuari firmano una liberatoria ad A. che non ci sono diritti di terzi sugli annuari stessi.

Alcuni cittadini californiani notano i propri dati su tale data base e  si citano A. per queste quattro cauase petendi : <<(1) a violation of their right of publicity under Cal. Civ. Code § 3344, (2) unlawful and unfair business practices, in violation of California’s Unfair Competition Law  UCL), Cal. Bus. & Prof. Code § 17200, (3) intrusion upon seclusion, in violation of California common law, and (4) unjust enrichment resulting from Ancestry’s selling their personal information>>

Inevitgabilmente A. solleva l’immunnità ex §  230 CDA.

Il punto è se A, certamente provider e trattato come editore (primi due requisiti), metta on line  informazioni di terzi oppure proprie (terzo requisito).

Secondo la U. S. DISTRICT COURT NORTHERN DISTRICT OF CALIFORNIA, San Francisco Division, 1 marzo 2021,m Case No. 20-cv-08437-LB, Callahan c. Ancestry.com inc. e altri, si tratta di informazione di terzi ,. per cui  va concessa l’immunità.

Dice: <<First, Ancestry obtained the yearbook content from someone else, presumably other yearbook users.13 The plaintiffs assert that this is not enough because Ancestry did not obtain the content from the author of the content. To support this assertion, they cite two cases, “KNB Enterprises and Perfect 10[, where] the defendants copied photographs from rival websites [and] then sold access to the photos for a subscription fee.” Those defendants, the plaintiffs say, “could not have claimed the protection of § 230” “[b]ecause they did not obtain the photographs from the people who created them. . . .” They conclude that similarly, Ancestry cannot claim § 230(c)(1) immunity.14 But KNBEnterprises and Perfect 10 do not address § 230. Perfect 10, Inc. v. Talisman Commc’ns Inc., No. CV 99-10450 RAP MCX, 2000 WL 364813 (C.D. Cal. Mar. 27, 2000); KNB Enters. v.  atthews, 78 Cal. App. 4th 362 (2000). Moreover, no case supports the conclusion that § 230(a)(1) immunity applies only if the website operator obtained the third-party content from the original author. To the contrary, the Act “immunizes an interactive computer service provider that ‘passively displays content that is created entirely by third parties.’” Sikhs for Justice “SFJ”, Inc. v. Facebook, Inc., 144 F. Supp. 3d 1088, 1094 (N.D. Cal. 2015) (quoting Fair Hous. Council v. Roommates.com, LLC, 521 F.3d 1157, 1162) ), aff’d, 697 F. App’x 526, 526–27 (9th Cir. 2017). 

Second, Ancestry extracts yearbook data (names, photographs, and yearbook date), puts the content on its webpages and in its email solicitations, adds information (such as an estimated birth year and age), and adds interactive buttons (such as a button prompting a user to upgrade to a more expensive subscription). The plaintiffs say that by these actions, Ancestry creates content. To support that contention, they cite Fraley.15 But Fraley involved the transformation of the Facebook user’s content (liking a product) into an advertisement that — without the user’s consent — suggested the user’s endorsement of the product (and resulted in a profit to Facebook by selling the ads). 830 F. Supp. 2d at 791–92, 797. In contrast to the Fraley transformation of personal likes into endorsements, Ancestry did not transform data and instead offered data in a form — a platform with different functionalities — that did not alter the content. Adding an interactive button and providing access on a different platform do not create content. They just add functionality. Kimzey v. Yelp! Inc., 836 F.3d 1263, 1270 (9th Cir. 2016) (Yelp! had § 230 immunity despite adding a star rating to reviews from other websites); Coffee v. Google, LLC, No. 5:20-cv-08437, ECF No. 56 at 13 (Google had § 230 immunity despite adding industry standards and requiring app developers to disclose the odds of winning). Instead of creating content, Ancestry — by taking information and photos from the donated yearbooks and republishing them on its website in an altered format — engaged in “a publisher’s traditional editorial functions [that] [] do not transform an individual into a content provider within the meaning of § 230.” Fraley, 830 F. Supp. 2d at 802 (cleaned up); cf. Roomates.com, 521 F.3d at 1173–74 (website is immune under §230 where it “publishes [] comments as written” that “come[] entirely from subscribers and [are] passively displayed” by the website operator). Ancestry did not contribute “materially” to the content. Roomates.com, 521 F.3d at 1167–68. In sum, Ancestry has immunity under § 230(c)(1).>>.

L’esattezza della tesi, però, non è certa.

DA un lato, è una scelta di A. quella di mettere on line: i donors non esprimono probabilmente alcuna volontà, ma solo autorizzazione, in tale senso. Quindi non c’è passive (ma semmai active) display da parte di A.

Dall’altro, è da vedere se l’aggregazione di dati trasformi o no i dati forniti  (informazione iniziale) in una nuova informazione (dal punto di vista della lesività della privacy altrui), tale da escludere il legame con i donors e da ravvisarlo solo verso A.

(notizia tratta dal blog di Eric Goldman)

Vedo ora che decide in senso opposto District Court of Nevada in Sessa v. Ancestry.com , Sep 16, 2021, caso 2:20-cv-02292-GMN-BNW: <Based on the facts alleged in the Complaint, Ancestry is not immune under Section 230 because it was responsible for posting the information in its database. The Complaint alleges that Ancestry has gathered millions of persons’ personal information through individual records, including many donated yearbooks, which Ancestry has used to build its database. (Compl. ¶¶ 46-50). Accordingly, while the yearbook publishers originated the content that Ancestry used to create its database, and the yearbooks were provided by third parties, Ancestry alone is responsible for posting the material on its website after it receives the records from others. Section 230 immunity therefore does not attach.> (p. 11).

Ruolo di Google nella vendita di app per videogiochi che violano la disciplina sulle scommesse: può invocare il safe harbour ex § 230 CDA?

In una class action si ritiene che un’applicazione per video giocbhi (Loot Boxes) costituisca vioalazione della disciplina consumeristica sulle scommesse (modalità di gamble).

L’app è venduta sul Google play store.

Gli attori dunque citano Google per violazione della disciplina consumeristica e perchè ne approfitta, percependo la sua quota sul prezzo di vendita (pari al 30%)

Il problema qui accennato è se Google (G.)  possa fruire del safe harbour (s.h.) ex § 230 CDA.

Secondo la U.S. D.C. Northern district court of Califonia San josè Division , Coffee e altri c. Google LLC, Case No. 20-cv-03901-BLF, 10.02.2021, la risposta è positiva:  G. ha diritto al s.h.

V.si sub III.B.2 Discussion, p. 9 ss.

Ne ricorrono infatti i tre requisiti, enucleati dalla sentenza Barnes v. Yahoo!, Inc., 570 F.3d 1096, 1099 (9th Cir. 2009):
1° che si tratti di internet service provider, sub a) p. 9;

2° che la domanda attorea qualifichi la condotta di G. come quella propria di publisher o speaker;

3° che si tratti di informazione ospitata ma prodotta in toto da terzo (cioè che non si tratti di content provider).

Per la corte ricorrono tutte e tre, sicchè il s.h. va concesso a G..

Non c’è contestazione sul primo.

Sul secondo requisitio , gli attori tentano di dire che il s.h. riguarda solo lo speech, non la vendita di app: ma la Corte dice che si tratta di affermazione non provata e che c’è un precedente in senso opposto, p. 10.

Nemmeno  serve dire che l’addebito consisterebbe nel ruolo facilitante di G. delle scommesse illegali: non è stato sufficientemente chiarito quale sia stata l’illiceità nella condotta di Goolgle, p. 11-12.

Sul terzo requisito, gli attori dicono che G. è coproduttore dell’informazione (l’app.), e duqnue content provider,  per tre motivi, che la Corte però partitamente respinge così:

<< First, Plaintiffs allege that Google requires app developers “to disclose the ‘odds of winning’ particular items in the Loot Boxes for the games it distributes.” Compl. ¶ 12. Plaintiffs do not explain how disclosure of odds contributes to the alleged illegality of Loot Boxes, and the Court is at a loss to understand how Google’s conduct in requiring such disclosure contributes to the alleged illegality. Plaintiffs also allege that Google provides “ESRB-based age-ratings for games in its Google Play store.” Compl. ¶ 94. Plaintiffs explain that “[i]n the United States, the videogame industry ‘self-regulates’ through the Entertainment Software Ratings Board (‘ESRB’).” Compl. ¶ 93. “According to the ESRB’s website, ESRB ratings provide information about what’s in a game or app so parents and consumers can make informed choices about which games are right for their family.” Id. “Ratings have 3 parts: Rating Categories, Content Descriptors, and Interactive Elements.” Id. Plaintiffs do not explain how providing industry-standard app ratings contributes materially to the illegality of Loot Boxes. Finally, Plaintiffs allege that while Google discloses that games allow inapp purchases, “there is no notice – and no requirement of any notice by Google – to the parent or the child that a game contains Loot Boxes or other gambling mechanisms.” Compl. ¶ 95. Plaintiffs cite no authority for the proposition that omission of information can constitute “development” of content.>>, p. 13.

Pertanto l’imminutà va concessa.

Anche se le Loot Boxes fossero illegali, e se G. -si badi!- lo sapesse, l’immunità si applicherebbe lo stesso perchè  il ruolo di G. rimarrebbe passivo, come nel noto precedente Fernando Valley v. Roommates.Com, 521 F.3d 1157 (9th Cir. 2008):

<< because Plaintiffs have alleged no more than Google’s “passive acquiescence in the misconduct of its users.” Roommates, 521 F.3d at 1169 n.24. Google cannot be held liable for merely allowing video game developers to provide apps to users through the Google Play store, as “providing third parties with neutral tools to create web content is considered to be squarely within the protections of § 230.” Goddard, 2008 WL 5245490, at *3.   “Moreover, even if a service provider knows that third parties are using such tools to create illegal content, the service’s provider’s failure to intervene is immunized.” Id. The Ninth Circuit emphasized the importance of these safeguards for websites in Roommates, stating that “close cases, we believe, must be resolved in favor of immunity, lest we cut the heart out of section 230 by forcing websites to face death by ten thousand duck-bites, fighting off claims that they promoted or encouraged – or at least tacitly assented to – the illegality of third parties.” Roommates, 521 F.3d at 1174 >>, p. 14

(notizia della sentenza dal blog di Eric Goldman)

Tripadvisor è responsabile dei danni patiti durante la vacanza venduta suo tramite? Può fruire del safe harbour ex § 230 CDA?

La corte della Pennsylvania, in via provvisoria, non esclude che Tripadvisor possa essere ritenuto content provider e dunque non fruire del § 230 CDA: Corte distr. Pennsylvania East. dist. 25.01.2021, CIVIL ACTION n° 20-3836, Putt e altri c. Tripadvisor e altri.

L’attrice riferisce di aver subito danni durante un viaggio in autobus in Nuova Zelanda, in occasione di vacanza acquistata tramite Tripadvisor (poi: T.), anzi di una sua partecipata (Viator inc.)). La gita in bus era stata organizzata da Canterbury Leisure Tours (presumibilmente compagnia di trasporti neozelandese).

Cita T. <<for negligence, misrepresentation and negligent infliction of emotional distress>>: dice che i convenuti sono <<responsible for their injuries because Defendants failed to use reasonable care in  their duties to investigate, examine, select, monitor and supervise their tour operators to ensure they operated safely and were qualified aswell as to disclose any information relating to whether they vetted Plaintiffs’ tour operator or the risks associated with Plaintiffs’ tour, thereby “misrepresent[ing] and/or conceal[ing] material facts and perpetuat[ing] the illusion that the bus tour would be operated by qualified, vetted[] and safe operators.”>>, p. 3-4.

T. naturalmente eccepisce anche il safe harbour del § 230 CDA.

L’attrice però dice che T. non è hosting, ma content provider.

La Corte allo stato non rigetta (dismissal) la domanda , perchè non esclude che effettivamente T. possa essere content provider : infatti circa uno stesso item of information, possono esserci più content prpovider, non necessariamente uno solo, p. 8.

Inoltre si esamina se sia valida l’accettazione della clausola di responsabilità apparentemente acettata dall’attrice. Ma la Corte, allo stato, non prende posizione (p. 13; qui anche la distinzione tra clickwrap agreements e browsewrap agreements, p. 12).

Si possono azionare diritto di parola e diritti fondamentali verso Google e Twitter? Non è pregiudizialmente escluso

L’annosa questione, del se il diritto di parola negli USA sia azionabile anche contro le grandi piattaforme (Big Tech), trova una possibile risposta positiva in US D.C. corte distrettuale del New Hampshire 28.01.2021, Civil No. 1:19-cv-978-JL, N. DeLima c. Google-Twitter.

Erano stato azionati (“pro se” : senza difesa tecnica) la violazione sia dei dirtti fondamentali ex 42 US Code § 1983 , sia  del Primo Emendamento: disposizioni, però, che sono riferite a condotte statali o pubbliche (state action), non a condotte di enti privati quali sono le Big Tech.

La corte ha rigettato ma non perchè sia pregiudizialmente escluso, bensì perchè l’attrice non ha sufficientemente argomentato in modo da poter ravvisare state acrtion anche nella condotta delle Big Tech.

Osserva infatti: <<Defendants are private companies and not state actors, and thus cannot be held liable under 42 U.S.C. § 1983, absent factual allegations that could lead to a finding of state action. DeLima’s complaint is devoid of any allegation that could transform either defendant into a state actor for purposes of a § 1983 claim>>, p. 12.

E poco sotto, circa il Primo Emendamento: <<DeLima repeatedly alleges in her complaint that Defendants’ have violated the First Amendment and discriminated against her based on her protected speech and viewpoint. Yet she acknowledges that Defendants are private companies and not government entities, which is fatal to her claim. “[T]he constitutional guarantee of free speech is a guarantee only against abridgment by government, federal or state.” Hudgens v. NLRB, 424 U.S. 507, 513 (1976). “[E]very First Amendment claim thus requires state action in some sense,” and DeLima has failed to allege any state action on the part of Defendants that could give rise to an alleged violation of her free speech rights. … She accordingly has failed to state a claim for violation of the First Amendment and Defendants’ motion to dismiss this claim is granted>>, p. 13.

Non c’è quindi chiusura pregiudiziale. Bisogna però argomentare, nel senso che la condotta delle Big Tech, in relazione alla esigenze soddisfatte dalle disposizioni de quibus, è parificabile alla condotta statale.

Da noi è pacifico che l’art. 2 Cost. riguiardi il rapporto verso qualunque ente, pubblico o privato che sia.

La corte poi rigetta pure per il safe harbour posto dal noto § 230 CDA communication decency act

(notizia della sentenza  e link presi dal blog di Eric Goldman)

Approfondita sentenza d’appello sulla esenzione da responsabilità per gli internet provider (Twitter) ex § 230 CDA

La corte di appello della California approfondisce la interpretazione del § 230 Communication Decency Act, che offre il noto safe harbour agli inernet service providers.

Si tratta della 1st Appellate District-division one, 22.01.2021 n. A158214, Murphy c. Megan.

La sentenza è alquanto analitica e interessante, anche perchè affronta e supera due insidiose prospettazioni attoree, contrarie alla concedibilità del safe harbour a Twitter (poi: T.).

I fatti.   Meghan Murphy (M.), giornalista freelance con 25.000 follower,  aveva postato su T. messaggi intolleranti verso donne transgender. T. prima l’avvisa di rimuoverli e poi la sospende in via definitiva

M.  cita T. e fa valere violazione di contratto, promissory estoppel e violazione della legge sulla concorrenza sleale (unfair and fraudulent business practices).

E’ il § A della Discussion  ad esaminare il § 230(c)(1) CDA, unica questione qui ricordata.

Per la corte sono soddisfatti i tre requisiti previsti e dunque il safe harbour va concesso a T., p .13/4.

Si noti che non si tratta di mancata rimozione di contenuti di terzi asseritamente illeciti , bensì dell’opposto caso di illecita rimozione di contenuti dell’attore in causa.

M. cerca di evitare il § 230 CDA,  dicendo che no ns itratta di contenuti di terzi ma di promesse contrattuale dello stesso T.

La Corte rigetta questo argomento, dicendo che può applicarsi anche alle vioalazioni contrattuali e agli proissory estoppel, trattandosi sempre di materiale altrui (cioè non T..) . Riconosce però che altri giudici si son pronunciati in senso opposto, p. 15-23

Questo è il primo dei due punti particolarmente interessanti.

L’altro (il più importante)  riguarda il rapporto tra il n° 1 e il n° 2 del § 230(c) CDA.

Per M. , la piattaforma potrà tutt’al più invocare il n° 2 (irresponsabilità per rimozione), non il n° 1, p. 23 ss..

Per la corte invece opera il n° 1 , che copre tutte le decisioni interenti la pubblicazione, sia nel senso di di pubblicare che in quello di rimuovere, purchè si tratti di materiali di terzi.

Il n° 2 cit. dà protezione addizionale a condotte che già non siano coperte dal n° 1: ad es. [o soprattutto]  non coperte perchè non si tratta in tutto o in parte di materiali altrui ma invece totalmente/parzialmente riconducibili al service provider. Dice così : <<as the Ninth Circuit explained in Barnes, section 230(c)(1) “shields from liability all publication decisions, whether to edit, to remove, or to post, with respect to content generated entirely by third parties.” (Barnes, supra, 570F.3d at p.1105, italics added.) Section 230(c)(2), on the other hand, applies “not merely to those whom subsection (c)(1) already protects, but any provider of an interactive computer service”regardless of whether the content at issue was created or developed by third parties.(Barnes, at p.1105.) Thus, section 230(c)(2)“provides an additional shieldfrom liability,” encompassing, for example, those interactive computer service providers “who cannot take advantage of subsection (c)(1) ….because they developed, even in part, the content at issue.” (Barnes, at p.1105, italics added.)>>, p. 24.

(notizia e link alla sentenza presi dal law blog di Eric Goldman)

Copiare post di una community da un social ad un altro , per evitare di sottostare a condizioni d’uso non gradite: è lecito sotto il profilo copyright?

Un gestore/moderatore di una pagina , relativa ad una comunità locale, su un social (LiveJournal) non accetta che il social cambi le condizioni d’uso per adeguarle al diritto russo . Per questo si sposta su altro social (Dreamwith).

Un follower, però, gli fa causa, dicendo che tale riproduzione viola il copyright sui suoi post.

La corte distrettuale del Massachusetts nega che vi sia violazione, affermando il ricorrere del fair use (17 US COde § 107): si tratta di US D.C. of Mass., 21.01.2021, Monsarrat c. Newman, civ. act. n. 20-10810-RGS (sub Discussion.a, p. 3 ss). Sopratutto perchè è rispettato il criterio più imporante dei quatro (l’ultimo, quello relativo all’effetto economico-concorrenziale, pp. 7/8.

Sul fair use v. lo studio “quantitativo” della giurisprudenza 1978-2019 in <<An Empirical Study of U.S. Copyright Fair Use Opinions Updated, 1978-2019>>, di Barton Beebe, NEW YORK UNIVERSITY JOURNAL OF INTELLECTUAL PROPERTY & ENTERTAINMENT LAW, vol.10/1, 2020 .

Viene anche proposta una domanda ex diffamazione , a causa della ripubblicazione di vecchi messaggi diffamatori (parrebbe, non è chiarissimo; sub Discussion.b, p. 8 ss.; il republishing è citato a p. 10). Pertanto il moderatore con ciò sarebbe divenuto <publisher>, non più mero <host> di informazioni altrui : in breve, l’informazione sarebbe propria (anche) del moderatore, invece che (solo) di chi a suo tempo la caricò.

Il moderatore covneuto invoca tuttavia il § 230 CDA.

La Corte accoglie l’eccezione, non avcendo l’attore provato un coinvolgimento del moderatore nella produzione della notizia diffamatoria, p. 10-11.

La decisione è interessante: amplia assai il concetto di <internet service provider> , che in tali termini potrà probabilmente essere usato anche nel diritto nazionale ed euroipeo.

(notizia e link alla sentenza dal blog di Eric Goldman)

Discriminazione su YouTube e Primo Emendamento

La Corte Distrettuale californiana-divisione San Jose, 06.01.2021, nel caso n. 19-cv-04749-VKD, Divino Group e altri contro Google, esamina il caso del se un’asserita discriminazione tramite la piattaforma YouTube possa essere tutelata con ricorso al Primo Emendamento

Gli attori, esponenti della comunità LGBTQ+, si ritenevano discriminati dalla piattaforma di condivisione YouTube in due modalità: i) non gli era permessa la monetizzazione  dei video caricati, che invece è normalmente ammessa da YouTube per i video di maggior successo come introito dalla relativa pubblicità; ii) erano immotivatamente stati qualificati video in <Restricted Mode> (vedi sub pagina 4/5 e pagina 2/3 sulle modalità di funzionamento di queste caratteristiche YouTube)

Gli attori dunque lamentavano la violazione del diritto di parola secondo il Primo Emendamento in relazione al § 1983 del Chapter 42 Us Code, che così recita <<every person who, under color of any statute, ordinance, regulation, custom, or usage, of any State or Territory or the District of Columbia, subjects, or causes to be subjected, any citizen of the United States or other person within the jurisdiction thereof to the deprivation of any rights, privileges, or immunities secured by the Constitution and laws, shall be liable to the party injured in an action at law, suit in equity, or other proper proceeding for redress, except that in any action brought against a judicial officer for an act or omission taken in such officer’s judicial capacity, injunctive relief shall not be granted unless a declaratory decree was violated or declaratory relief was unavailable. For the purposes of this section, any Act of Congress applicable exclusively to the District of Columbia shall be considered to be a statute of the District of Columbia>>

Le ragioni dell’invocazione del Primo Emendamento erano due.

Per la prima, YouTube costituisce uno state actor , quindi sottoposto ai vincoli del primo emendamento . Cio anche perché è la stessa Google/YouTube a dichiararsi Public forum for free Expression (p. 7).

Per la seconda ragione, Google , per il fatto di invocare <<the protections of a federal statute—Section 230 of the CDA—to unlawfully discriminate against plaintiffs and/ortheir content, defendants’ private conduct, becomes state action “endorsed” by the federal government>>, p. 8

Circa il primo punto,  qui il più interessante, la Corte risponde che la domanda è espressamente  ostacolata dal campo di applicazione del Primo Emendamento, così come delineato dalla nota sentenza Praeger University versus Google del 2020: le piattaforme non svolgono le tradizionali funzioni governative, pagina 8/9.

La seconda ragione non è molto chiara.   Sembra di capire che, per il solo fatto che la legge (§ 230 CDA) permetta la censura e quindi la selezione dei post, l’avvalersi di tale norma costituisce esercizio di pubblici poteri, sicchè tornerebbe l’applicabilità del primo emendamento.

La Corte però rigetta anche questa ragione (agina 9/11): <<plaintiffs nevertheless argue that government action exists whereCongress permits selective censorship of particular speech by a private entity>>, p. 11.  Il caso Denver Area del 1996, invocato dagli attori, è molto lontano dalla fattispecie sub iudice, ove manca  un incarico di svolgere pubbliche funzioni (pagina 11).

A parte altre causae petendi (ad es. false association e false advertising ex Lanham Act, sub 2, p. 12), gli attori avevano anche chiesto la dichiarazione di incostituzionalità del §   230 CDA. Anche qui, però,  la corte rigetta, seppur  per ragioni processuali , p .17-18

(sentenza e link tratti dal blog di Eric Goldman, che ora aggiorna su nuova decisione con post 14 luglio 2023).