Ancora sul (pericoloso) “speed filter” di Snap e il safe harbour ex § 230 CDA

Altra lite sulle conseguenze mortali dell’uso del software <speed filter> di Snap Inc., che permette di eseguire e condividere filmati dal veicolo con riproduzione della velocità oraria raggiunta.

I genitori di ragazzi morti in incidente automobilistico, causato anche dall’incoraggiamento di Snap a correre forte, citano Snap INc. (poi: S.) per progettazione difettosa del prodotto (responsabilità da prodotto difettoso)

Decide la corte di appello californiana del 9° cicuito, 4 maggio 2021, Lemon ed altri c. Snap Inc. No. 20-55295,  D.C. No. 2:19-cv-04504-MWF-KS.

In primo grado era stata accolta l’eccezione di safe harbour ex § 230 CDA; in  appello viene respinta, per cui viene riformata la decisione di primo grado.

In breve, per la Corte la domanda dei genitori dei ragazzi era basata su design negligente del prodotto e dunque nulla aveva a che fare con il ruolo di publisher/speaker chiesto dal § 230 CDA.

Va anche tenuto conto che <<many of Snapchat’s users suspect, if not actually “believe,” that Snapchat will reward them for “recording a 100-MPH or faster [s]nap” using the Speed Filter. According to plaintiffs, “[t]his is a game for Snap and many of its users” with the goal being to reach 100 MPH, take a photo or video with the Speed Filter, “and then share the 100-MPH-Snap on Snapchat.”>>, p. 7.

Dunque <<Snapchat allegedly knew or should have known, before May 28, 2017, that its users believed that such a reward system existed and that the Speed Filter was therefore incentivizing young drivers to drive at dangerous speeds. Indeed, the Parents allege that there had been: a series of news articles about this phenomenon; an online petition that “called on Snapchat to address its role in encouraging dangerous speeding”; at least three accidents linked to Snapchat users’ pursuit of high-speed snaps; and at least one other lawsuit against Snap based on these practices. While Snapchat warned its users against using the Speed Filter while driving, these warnings allegedly proved ineffective. And, despite all this, “Snap did not remove or restrict access to Snapchat while traveling at dangerous speeds or otherwise properly address the danger it created.”>>, ivi.

<<Here, the Parents seek to hold Snap liable for its allegedly “unreasonable and negligent” design decisions regarding Snapchat. They allege that Snap created: (1) Snapchat; (2) Snapchat’s Speed Filter; and (3) an incentive system within Snapchat that encouraged its users to pursue certain unknown achievements and rewards. The Speed Filter and the incentive system then supposedly worked in tandem to entice young Snapchat users to drive at speeds exceeding 100 MPH.
The Parents thus allege a cause of action for negligent design—a common products liability tort>>, p. 11.

Non si tratta quindi di causa petendi basata sull’attività di publisher/speaker: <<The duty underlying such a claim differs markedly from the duties of publishers as defined in the CDA. Manufacturers have a specific duty to refrain from designing a product that poses an unreasonable risk of injury or harm to consumers. See Dan B. Dobbs et al., Dobbs’ Law of Torts § 478 (2d ed., June 2020 Update). Meanwhile, entities acting solely as publishers—i.e., those that “review[] material submitted for publication, perhaps edit[] it for style or technical fluency, and then decide[] whether to publish it,” Barnes, 570 F.3d at 1102—generally have no similar duty. See Dobbs’ Law of Torts § 478.
It is thus apparent that the Parents’ amended complaint does not seek to hold Snap liable for its conduct as a publisher or speaker. Their negligent design lawsuit treats Snap as a products manufacturer, accusing it of negligently designing a product (Snapchat) with a defect (the interplay between Snapchat’s reward system and the Speed Filter). Thus, the duty that Snap allegedly violated “springs from” its distinct capacity as a product designer. Barnes, 570 F.3d at 1107. This is further evidenced by the fact that Snap could have satisfied its “alleged obligation”—to take reasonable measures to design a product more useful than it was foreseeably dangerous—without altering the content that Snapchat’s users generate. Internet Brands, 824 F.3d at 851. Snap’s alleged duty in this case thus “has nothing to do with” its editing, monitoring, or removing of the content that its users generate through Snapchat. Id. at 852>>, 12-13.

Tuttavia un hosting di materiali di terzi c’era: quello dei video (snaps) dei tre sfortunati ragazzi (i quali sono terzi rispetto a S.).

Ma ciò non toglie che la causa petendi era di prodotto difettoso: <<Notably, the Parents do not fault Snap in the least for publishing Landen’s snap. Indeed, their amended complaint fully disclaims such a reading of their claim: “The danger is not the Snap [message using the Speed Filter] itself. Obviously, no one is harmed by the post. Rather, the danger is the speeding.” AC ¶ 14. While we need not accept conclusory allegations contained in a complaint, we must nonetheless read the complaint in the light most favorable to the Parents. See Dyroff, 934 F.3d at 1096. And this statement reinforces our own reading of the Parents’ negligent design claim as standing independently of the content that Snapchat’s users create with the Speed Filter.
To sum up, even if Snap is acting as a publisher in releasing Snapchat and its various features to the public, the Parents’ claim still rests on nothing more than Snap’s “own acts.” Roommates, 521 F.3d 1165. The Parents’ claim thus is not predicated on “information provided by another information content provider.” Barnes, 570 F.3d at 1101>>, p. 15.

La decisione pare corretta.

Notizia e link alla sentenza dal blog di Eric Goldman (critico invece sulla sentenza)

Safe harbour ex 230 CDA e piattaforma di intermediazione di servizi “car rental”

L’aeroporto Logan di Boston, Massachusetts , USA, (poi : A.) non ammette servizi di car rental , se non concordati.

La piattaforma Turo (T.) offre un sercvizio di incontro domanda/offerta di car rental: <<Turo describes itself as “an online platform that operates a peer-to-peer marketplace connecting [hosts] with [guests] seeking cars on a short-term basis.” Turo has no office, rental counter, or other physical presence at Logan Airport. A guest seeking to rent a motor vehicle from a host would search Turo’s website or available listings, select and book a particular vehicle, and then coordinate the pick-up location and time with the host. Turo does not require its hosts to deliver vehicles to their guests, nor does Turo determine the parties’ particular rendezvous location>>,  p. 4.

A. sanziona T. per aver violato il divieto di prestare servizi di noleggio auto se non su accordo (tentato da A. , ma rifiutato da T.).

Allora lo cita in giudizio per l’inibitoria del servizio e risarcimentoi danni. Ovviamente T. eccepisce il safe harbour ex 230 CDA.

La Suprema Corte del Massachusetts con decisione 21.04.2021, MASSACHUSETTS PORT AUTHORITY vs. TURO INC. & others,  conferma che non gli spetta. Essenzialmente perchè non è mero hosting di dati di terzi, ma “facilitatore”: <<The judge determined, and we agree, that Turo’s immunity claims fail as to the second prong because Massport’s claims against Turo regard the portion of the content on Turo’s website advertising Logan Airport as a desirable pick-up or drop-off location, which was created by Turo itself.>>, p. 11

Le informaizoni fornite da  T., <<encouraging the use of Logan Airport as a desirable pick-up or drop-off location for its users is exactly the content Massport asserts is the basis for the claim of aiding and abetting. Cf. Federal Trade Comm’n v. Accusearch, Inc., 570 F.3d 1187, 1199 (10th Cir. 2009) (information service provider liable for “development of offensive content only if it in some way specifically encourages development of what is offensive about the content”). Because this specific content was created by Turo, it cannot be construed reasonably as “information provided by another,” Backpage.com, 817 F.3d at 19, and Turo is not protected by § 230’s shield of immunity on the basis of this prong.      As to the third prong, the judge ruled that immunity under § 230 is not available to Turo because, rather than seeking to hold Turo liable as the publisher or speaker for its users’ content, Massport’s claims sought to hold Turo liable for its own role in facilitating the online car rental transactions that resulted in its customers’ continuing trespass. The record supports the judge’s conclusion.>>, p. 12.

La Corte cita poi un precedente del 2019 di corte distrettuale del suo stato , coinvolgente Airbnb

Nel caso de quo, dice la SC, <<as in the Airbnb case, the record reflects that Turo serves a dual role as both the publisher of its users’ third-party listings and the facilitator of the rental transactions themselves, and in particular the rental transactions that occur on Massport’s Logan Airport property. Rather than focusing on what Turo allows its hosts to publish in their listings, Massport’s claims pointedly focus on Turo’s role as the facilitator of the ensuing rental transactions at Logan Airport, which is far more than just offering a website to serve as a go-between among those seeking to rent their vehicles and those seeking rental vehicles>> p. 14.

La fattispecie concreta si avvicina a quella europea «The Pirate Bay» decisa da Corte giustizia  14.06.2017, C‑610/15 (pur se a proposito della comunicazione al pubblico in  diritto di autore).

(notizia e link alla sentenza dal blog di Eric Goldman)

Ancora su safe harbour ex § 230 CDA e Twitter

Una modella (M.) si accorge di alcune sua foto intime pubblicate su Twitter (T.) da un soggetto editoriale (E.) di quel settore.

Chiede pertanto a T. la rimozione delle foto, dei tweet e la sospensione dell’account.

T. l’accontenta solo sul primo punto.

Allora M. agisce verso T. e E. , azionando:  <<(1) copyright infringement; (2) a violation of FOSTA-SESTA, 18 U.S.C. 1598 (named for the Allow States and Victims to Fight Online Sex Trafficking Act and Stop Online Sex Trafficking Act bills); (3) a violation of the right of publicity under Cal. Civ. Code § 3344; (4) false advertising under the Lanham Act; (5) false light invasion of privacy; (6) defamation, a violation under Cal. Civ. Code § 44, et seq.; (7) fraud in violation of California’s Unfair Competition Law, Cal. Bus. & Prof. Code § 1 17200 et seq.; (8) negligent and intentional infliction of emotional distress; and (9) unjust enrichment>>

Decide  US D.C. Central District della California 19.02.2021 , caso CV 20-10434-GW-JEMx,  Morton c. Twitter+1.

Manco a dirlo T eccepisce l’esimente ex § 230 CDA per tutti i claims tranne quello di copyright.

E’  sempre problematico il requisito del se l’attore tratti o meno il convenuto come publisher o speaker: conta la sostanza, non il nome adoperato dall’attore. Cioè la domanda va qualfiicata dal giudice, p. 5.

M. cerca di dire che E. non è terzo ma affiliato a T. . La corte rigetta, anche se di fatto senza motivazione, pp.-5-6. Anche perchè sarebbe stato più appropriato ragionarci sul requisito del se sia materiale di soggetto “terzo”, non sul se sia trattato come publisher.

IL punto più interessante è la copertura col § 230 della domanda contrattuale, 7 ss.

M. sostiene di no: ma invano perchè la corte rigetta per safe harbour e per due ragioni, p. 7/8:

Primo perchè M. non ha indicato una clausola contrattuale  che obbligasse T. a sospendere gli account offensivi: la clausola c’è, ma è merely aspirational, non binding.

Secondo , perchè la richiesta di sospendere l’account implica decisione editoriale, per cui opera l’esimente: <<“But removing content is something publishers do, and to impose liability on the basis of such conduct necessarily involves treating the liable party as a publisher of the content it failed to remove.” Barnes, 570 F.3d at 1103 (holding that Section 230 barred a negligent-undertaking claim because “the duty that Barnes claims Yahoo violated derives from Yahoo’s conduct as a publisher – the steps it allegedly took, but later supposedly abandoned, to de-publish the offensive profiles”)>>, p .8.

E’ il punto teoricamente più  interessante: la condotta censurata costituisce al tempo stesso sia  (in-)adempimento contrattuale che decisione editoriale. Le due qualificazione si sovrappongono.

Invece la lesione dell’affidamento  (promissory estoppel) non è preclusa dall’esimente, per cui solo qui M. ottiene ragione: <<This is because liability for promissory estoppel is not necessarily for behavior that is identical to publishing or speaking (e.g., publishing defamatory material in the form of SpyIRL’s tweets or failing to remove those tweets and suspend the account). “[P]romising . . . is not synonymous with the performance of the action promised. . . . one can, and often does, promise to do something without actually doing it at the same time.” Barnes, 570 F.3d at 1107. On this theory, “contract liability would come not from [Twitter]’s publishing conduct, but from [Twitter]’s manifest intention to be legally obligated to do something, which happens to be removal of material from publication.” Id. That manifested intention “generates a legal duty distinct from the conduct at hand, be it the conduct of a publisher, of a doctor, or of an overzealous uncle.” Id>>

(sentenze e link dal blog di Eric Goldman)

safe harbour ex § 230 CDA per responsabilità contrattuale: si conferma la non applicabilità

La Northern District Court di S. Josè Californa, 31.03.3021, Case No.20cv04687VKD, Daniels c. Alphabet e altri, conferma la vasta applicazione del § 230 CDA, che però non arriva a coprire la violazione contrattuale.

Infatti di tutte le doamnde avanzate, solo quest’ultima evita il rigetto per safe harbour: p. 20 righe 26.28 sul§ 230.c.1.

All’attore non va bene invece la domanda sul § 230.c.2.A, essendo rigettata la tesi della macnanza di buona fede.

La lamentela consisteva, al solito, nella rimozione di video dell’attore da Youtube.

Inoltre non gli va bene nemmeno la domanda di tutela del diritto di parola ex 42 US code § 1983, dato che questo riguarda solo state law e non federal law, p. 8-9.

Non gli va meglio la domanda ex Primo Emedamento: Google e Youtube infatti sono enti privati, cui non è applicabile la dottrina della state action. 

L’attore aveva in strano e originale modo tentato di argomentare il contrario, valorizzando discorsi pubblici di politici statunitensi (tra cui Nancy Pelosi) , per  cui le piattagorme meritano regolazione per il loro ruolo esteso nella società statunitense. Ciò però varrà de lege ferenda , non de lege lata.

Buona notizia per Zoom: l’aver permesso lo “zoombombing” è (per lo più) coperto da safe harbour ex § 230 CDA

Alcune persone citano Zoom Incorported per aver permesso l’ingresso di terzi estranei in conferenze Zoom. In sostanza per non aver protetto adeguatamente a livello informatico l’accesso e aver quindi permesso a detti terzi l’ingresso in conferenza con diffusione di materiali illeciti (c.d. <<zoombombing>>, di cui si era parlato pure da noi la scorsa estate). Sono poi avanzate altre domande relative a violazione di privacy, qui non pertinenti.

La lite è decisa da US D.C. NORTHERN DISTRICT OF CALIFORNIA-SAN JOSE DIVISION, 11 marzo 2021, Case No. 20-CV-02155-LHK.

I fatti sono sub I.A.

Naturalmente Zoom (Z.) eccepisce il safe harbour ex § 230 CDA.

Dei tre requisiti ivi richiesti (-che si tratti v internet provider, -che la domanda tratti il provider coma publisher o speakler, – che sia informazione proveniente da terzi) sono discusse le prime due, mentre non c’è contestazione sul fatto che ricorra la terza.

Per la corte , Z. è internet provider e dunque ricorre il primo requisito, p. 9 e 10-11,. § A.1.

Circa il secondo, invece, solo alcune domande trattano Z. come publisher/speaker, non tutte. ivi.

La corte al proposito ricorda la ratio del § 230, p. 12-14.

Ricorda che per superare il filtro del § 230 l’attore deve provare: 1) che si tratti di materiali dannosi ma però content-neutral e 2) di non trattare il provider come publisher/speaker, p. 15 ss

Circa 1) fa degli esempi di materiali content neutral, basati su casi anteriori (tentativi di blocco di provvedimenti amministrativi), p. 15-17

Circa 2) , v.si p.  17/8.

Fatte queste precisazioni generali, le applica al caso de quo , arrivando alla conclusione per cui molte delle domande vs. Z., basate sul zoombombing, sono coperte da safe harbour: <<Plaintiffs exposed to this user-generated content suffered emotional distress as a result. Id. ¶ 221. Yet, appalling as this content is, Zoom’s failure “to edit or block user-generated content” is “the very activity Congress sought to immunize.” Roommates.Com, 521 F.3d at 1172 n.32. The bulk of Plaintiffs’ Zoombombing claims lie against the “Zoombombers” who shared heinous content, not Zoom itself. Zoom merely “provid[ed] neutral tools for navigating” its service. Id. at 1174 n.37; see, e.g., FAC ¶ 177 (criticizing Zoom’s “default features”).>>p.19

Nega invece il safe harbour per le domande basate su inadempimento contrattuale.

Preciasamente così riassume la propria posizione: <<In sum, the Court rules as follows on § 230(c)(1) immunity. The Court denies Zoom’s motion to dismiss Plaintiffs’ contract claims. These claims do not derive from Zoom’s status or conduct as a “publisher” or “speaker.” The Court also denies Zoom’s motion to dismiss Plaintiffs’ claims to the extent they are content-neutral. Plaintiffs’ second amended complaint should more clearly articulate those claims. 

The Court grants Zoom’s motion to dismiss Plaintiffs’ claims to the extent they (1) challenge the harmfulness of “content provided by another”; and (2) “derive[] from the defendant’s status or conduct as a ‘publisher or speaker’” of that content. Barnes, 570 F.3d at 1102. However, the Court allows Plaintiffs leave to amend because amendment would not unduly prejudice the opposing party, cause undue delay, or be futile, and Plaintiffs have not acted in bad faith. See Leadsinger, 512 F.3d at 532.>>, ivi.

(notizia e link alla sentenza tratti dal blog di Eric Goldman)

Appello sul safe harbour § 230 CDA in caso di chiusura di account Vimeo

L’appello conferma decisione della corte newyorkese di prima istanza in una lite su chiusura di account Vimeo (piattforma per video, sia gratuita che premium) per violazione di regola contrattuale, lite decisa in base all’immancabile  safe harbour ex § 230 CDA.

Così il  secondo circuito di appello 11.03.2021 , Docket No. 20-616, Domen c. Vimeo.

Domen e l’ente da lui creato, dunque,  citano Vimeo (V. ) per avergli chiuso l’account per violazione delle sue regole che vietano <<the promotion of sexual orientation change efforts (“SOCE”) on its platform>>, p.3.

Gli attori citano V. perchè ha <<discriminated against them on the basis of their religion and sexual 3 orientation by deleting Church United’s account from Vimeo’s online video 4 hosting platform>> p. 3.

La corte conferma la decisione di primo grado , rigettando in limine per l’esimente del § 230. CDA.

Ricorda poi che l’attore era stato in un primo tempo avvisato di togliere i video contestati, altrimenti avrebbe subito la chiusura dell’account. Non avendovi provveduto, ha giustamente subito la chiusura, p. 14.

Non è però chiara la rilevanza del previo warning da parte della piattaforma: la legge non lo chiede, a differenza dal § 512 DMCA in tema di copyright. Tuttavia la corte vi insiste, per cui a fini pratici la piattaforma farà bene a dare un preavviso conrguo.

Le accuse di discriminazione sono reciproche: cioè stanno alla base sia della domanda giudiziale (p.8) che della decisione di V.

La corte di prima istanza rigetta per i commi sia 1 che 2 del § 230(c), p.8.

La corte di appello precisa che, sebbene fosse possibile una misura minore (rimozione solo dei video de quibus invece che di tutto l’account), a ciò non era tenuta V., p. 14 . Cioè la proporzionalità della reazione non è obbligata (secondo la disposizine di legge, che in effetti non la menziona, come invece da noi la dir. UE c.d enforcement 48/2004 art. 3/2).

Inoltre, prosegue la corte, circa il § 230.c.2, V. non può dirsi in malafede (la norma chiede la good faith) per il solo fatto di aver “lasciato su” altri video, che dal titolo paiono trattare la stessa materia. Infatti dal mero titolo non è chiaro che si tratti (la cit. SOCE), p. 16. Dunque avviso importante per i prossimi litigators: documentare bene i  materiali altrui  non rimossi perchè si potrebbe  ottenere ragione.

Ancora, nemeno può ravvisarsi malafede per intento anticompetetitivo o conflitto di interessi, p. 15). Infatti nel caso <<it was a straightforward consequence of Vimeo’s content policies, which Vimeo communicated to Church United prior to deleting its account>>, p. 15.

Altro avviso ai difensori prossimi circa l’interpretazione del concetto di good faith, che faranno bene a tener presenti questi concetti. Infatti , esaminado meglio la struttura del business della piattaforma convenuta, portrebbero far emergere un rapporto concorrenziale col loro cliente e dunque pure la malafede della prima.

Non è stata dedotta nè esaminata la questione dell’applicabilità a V. (e in generale agli internet provider) del primo emendamento della costituzione USA sul diritto di parola.

(notizia e link alla sentenza tratti dal blog di Eric Goldman)

Immunità per pubblicazione di dati personali tratti da annuari scolastici donati da terzi?

Un’interessante questione (anche se in fattispecie molto particolare) si è posta presso una corte californiana.

Ancestry.com (A.) pubblica annuari (scolastici) con foto, nomi e indirizzi, donatile da soggetti da lei sollecitati. Una volta ricevutili, li carica sul proprio data base e inoltre li invia in promozione commerciale a possibili interessati , inducendoli ad acquistare una sorta di pacchetto “premium” per l’accesso a maggiori dati. Questi <<donors>> degli annuari firmano una liberatoria ad A. che non ci sono diritti di terzi sugli annuari stessi.

Alcuni cittadini californiani notano i propri dati su tale data base e  si citano A. per queste quattro cauase petendi : <<(1) a violation of their right of publicity under Cal. Civ. Code § 3344, (2) unlawful and unfair business practices, in violation of California’s Unfair Competition Law  UCL), Cal. Bus. & Prof. Code § 17200, (3) intrusion upon seclusion, in violation of California common law, and (4) unjust enrichment resulting from Ancestry’s selling their personal information>>

Inevitgabilmente A. solleva l’immunnità ex §  230 CDA.

Il punto è se A, certamente provider e trattato come editore (primi due requisiti), metta on line  informazioni di terzi oppure proprie (terzo requisito).

Secondo la U. S. DISTRICT COURT NORTHERN DISTRICT OF CALIFORNIA, San Francisco Division, 1 marzo 2021,m Case No. 20-cv-08437-LB, Callahan c. Ancestry.com inc. e altri, si tratta di informazione di terzi ,. per cui  va concessa l’immunità.

Dice: <<First, Ancestry obtained the yearbook content from someone else, presumably other yearbook users.13 The plaintiffs assert that this is not enough because Ancestry did not obtain the content from the author of the content. To support this assertion, they cite two cases, “KNB Enterprises and Perfect 10[, where] the defendants copied photographs from rival websites [and] then sold access to the photos for a subscription fee.” Those defendants, the plaintiffs say, “could not have claimed the protection of § 230” “[b]ecause they did not obtain the photographs from the people who created them. . . .” They conclude that similarly, Ancestry cannot claim § 230(c)(1) immunity.14 But KNBEnterprises and Perfect 10 do not address § 230. Perfect 10, Inc. v. Talisman Commc’ns Inc., No. CV 99-10450 RAP MCX, 2000 WL 364813 (C.D. Cal. Mar. 27, 2000); KNB Enters. v.  atthews, 78 Cal. App. 4th 362 (2000). Moreover, no case supports the conclusion that § 230(a)(1) immunity applies only if the website operator obtained the third-party content from the original author. To the contrary, the Act “immunizes an interactive computer service provider that ‘passively displays content that is created entirely by third parties.’” Sikhs for Justice “SFJ”, Inc. v. Facebook, Inc., 144 F. Supp. 3d 1088, 1094 (N.D. Cal. 2015) (quoting Fair Hous. Council v. Roommates.com, LLC, 521 F.3d 1157, 1162) ), aff’d, 697 F. App’x 526, 526–27 (9th Cir. 2017). 

Second, Ancestry extracts yearbook data (names, photographs, and yearbook date), puts the content on its webpages and in its email solicitations, adds information (such as an estimated birth year and age), and adds interactive buttons (such as a button prompting a user to upgrade to a more expensive subscription). The plaintiffs say that by these actions, Ancestry creates content. To support that contention, they cite Fraley.15 But Fraley involved the transformation of the Facebook user’s content (liking a product) into an advertisement that — without the user’s consent — suggested the user’s endorsement of the product (and resulted in a profit to Facebook by selling the ads). 830 F. Supp. 2d at 791–92, 797. In contrast to the Fraley transformation of personal likes into endorsements, Ancestry did not transform data and instead offered data in a form — a platform with different functionalities — that did not alter the content. Adding an interactive button and providing access on a different platform do not create content. They just add functionality. Kimzey v. Yelp! Inc., 836 F.3d 1263, 1270 (9th Cir. 2016) (Yelp! had § 230 immunity despite adding a star rating to reviews from other websites); Coffee v. Google, LLC, No. 5:20-cv-08437, ECF No. 56 at 13 (Google had § 230 immunity despite adding industry standards and requiring app developers to disclose the odds of winning). Instead of creating content, Ancestry — by taking information and photos from the donated yearbooks and republishing them on its website in an altered format — engaged in “a publisher’s traditional editorial functions [that] [] do not transform an individual into a content provider within the meaning of § 230.” Fraley, 830 F. Supp. 2d at 802 (cleaned up); cf. Roomates.com, 521 F.3d at 1173–74 (website is immune under §230 where it “publishes [] comments as written” that “come[] entirely from subscribers and [are] passively displayed” by the website operator). Ancestry did not contribute “materially” to the content. Roomates.com, 521 F.3d at 1167–68. In sum, Ancestry has immunity under § 230(c)(1).>>.

L’esattezza della tesi, però, non è certa.

DA un lato, è una scelta di A. quella di mettere on line: i donors non esprimono probabilmente alcuna volontà, ma solo autorizzazione, in tale senso. Quindi non c’è passive (ma semmai active) display da parte di A.

Dall’altro, è da vedere se l’aggregazione di dati trasformi o no i dati forniti  (informazione iniziale) in una nuova informazione (dal punto di vista della lesività della privacy altrui), tale da escludere il legame con i donors e da ravvisarlo solo verso A.

(notizia tratta dal blog di Eric Goldman)

Vedo ora che decide in senso opposto District Court of Nevada in Sessa v. Ancestry.com , Sep 16, 2021, caso 2:20-cv-02292-GMN-BNW: <Based on the facts alleged in the Complaint, Ancestry is not immune under Section 230 because it was responsible for posting the information in its database. The Complaint alleges that Ancestry has gathered millions of persons’ personal information through individual records, including many donated yearbooks, which Ancestry has used to build its database. (Compl. ¶¶ 46-50). Accordingly, while the yearbook publishers originated the content that Ancestry used to create its database, and the yearbooks were provided by third parties, Ancestry alone is responsible for posting the material on its website after it receives the records from others. Section 230 immunity therefore does not attach.> (p. 11).

Ruolo di Google nella vendita di app per videogiochi che violano la disciplina sulle scommesse: può invocare il safe harbour ex § 230 CDA?

In una class action si ritiene che un’applicazione per video giocbhi (Loot Boxes) costituisca vioalazione della disciplina consumeristica sulle scommesse (modalità di gamble).

L’app è venduta sul Google play store.

Gli attori dunque citano Google per violazione della disciplina consumeristica e perchè ne approfitta, percependo la sua quota sul prezzo di vendita (pari al 30%)

Il problema qui accennato è se Google (G.)  possa fruire del safe harbour (s.h.) ex § 230 CDA.

Secondo la U.S. D.C. Northern district court of Califonia San josè Division , Coffee e altri c. Google LLC, Case No. 20-cv-03901-BLF, 10.02.2021, la risposta è positiva:  G. ha diritto al s.h.

V.si sub III.B.2 Discussion, p. 9 ss.

Ne ricorrono infatti i tre requisiti, enucleati dalla sentenza Barnes v. Yahoo!, Inc., 570 F.3d 1096, 1099 (9th Cir. 2009):
1° che si tratti di internet service provider, sub a) p. 9;

2° che la domanda attorea qualifichi la condotta di G. come quella propria di publisher o speaker;

3° che si tratti di informazione ospitata ma prodotta in toto da terzo (cioè che non si tratti di content provider).

Per la corte ricorrono tutte e tre, sicchè il s.h. va concesso a G..

Non c’è contestazione sul primo.

Sul secondo requisitio , gli attori tentano di dire che il s.h. riguarda solo lo speech, non la vendita di app: ma la Corte dice che si tratta di affermazione non provata e che c’è un precedente in senso opposto, p. 10.

Nemmeno  serve dire che l’addebito consisterebbe nel ruolo facilitante di G. delle scommesse illegali: non è stato sufficientemente chiarito quale sia stata l’illiceità nella condotta di Goolgle, p. 11-12.

Sul terzo requisito, gli attori dicono che G. è coproduttore dell’informazione (l’app.), e duqnue content provider,  per tre motivi, che la Corte però partitamente respinge così:

<< First, Plaintiffs allege that Google requires app developers “to disclose the ‘odds of winning’ particular items in the Loot Boxes for the games it distributes.” Compl. ¶ 12. Plaintiffs do not explain how disclosure of odds contributes to the alleged illegality of Loot Boxes, and the Court is at a loss to understand how Google’s conduct in requiring such disclosure contributes to the alleged illegality. Plaintiffs also allege that Google provides “ESRB-based age-ratings for games in its Google Play store.” Compl. ¶ 94. Plaintiffs explain that “[i]n the United States, the videogame industry ‘self-regulates’ through the Entertainment Software Ratings Board (‘ESRB’).” Compl. ¶ 93. “According to the ESRB’s website, ESRB ratings provide information about what’s in a game or app so parents and consumers can make informed choices about which games are right for their family.” Id. “Ratings have 3 parts: Rating Categories, Content Descriptors, and Interactive Elements.” Id. Plaintiffs do not explain how providing industry-standard app ratings contributes materially to the illegality of Loot Boxes. Finally, Plaintiffs allege that while Google discloses that games allow inapp purchases, “there is no notice – and no requirement of any notice by Google – to the parent or the child that a game contains Loot Boxes or other gambling mechanisms.” Compl. ¶ 95. Plaintiffs cite no authority for the proposition that omission of information can constitute “development” of content.>>, p. 13.

Pertanto l’imminutà va concessa.

Anche se le Loot Boxes fossero illegali, e se G. -si badi!- lo sapesse, l’immunità si applicherebbe lo stesso perchè  il ruolo di G. rimarrebbe passivo, come nel noto precedente Fernando Valley v. Roommates.Com, 521 F.3d 1157 (9th Cir. 2008):

<< because Plaintiffs have alleged no more than Google’s “passive acquiescence in the misconduct of its users.” Roommates, 521 F.3d at 1169 n.24. Google cannot be held liable for merely allowing video game developers to provide apps to users through the Google Play store, as “providing third parties with neutral tools to create web content is considered to be squarely within the protections of § 230.” Goddard, 2008 WL 5245490, at *3.   “Moreover, even if a service provider knows that third parties are using such tools to create illegal content, the service’s provider’s failure to intervene is immunized.” Id. The Ninth Circuit emphasized the importance of these safeguards for websites in Roommates, stating that “close cases, we believe, must be resolved in favor of immunity, lest we cut the heart out of section 230 by forcing websites to face death by ten thousand duck-bites, fighting off claims that they promoted or encouraged – or at least tacitly assented to – the illegality of third parties.” Roommates, 521 F.3d at 1174 >>, p. 14

(notizia della sentenza dal blog di Eric Goldman)