La Corte suprema statunitense ha emanato una decisione in tema di responsabilità delle piattaforme online per i contenuti terroristici pubblicati su queste ultime.
Stati Uniti: La decisione del caso Twitter, Inc. v. Taamneh
A seguito dell’attacco terroristico da parte di un membro dell’ISIS in Turchia, la famiglia di una delle vittime ha citato in giudizio Twitter, Google e Facebook nella causa Twitter, Inc. v. Taamneh, sostenendo che questi social network hanno svolto un ruolo essenziale nella nascita dell’ISIS, consentendo la diffusione della propaganda. In tal senso, la famiglia della vittima ha invocato la legge antiterrorismo degli Stati Uniti, ossia il Justice Against Sponsors of Terrorism Act (JASTA), che consente ai cittadini statunitensi, feriti in un attacco terroristico internazionale di intentare una causa di responsabilità civile. Difatti, secondo il codice statunitense è responsabile “chiunque aiuti e favorisca, fornendo consapevolmente un’assistenza sostanziale, o che cospiri con la persona che commette l’atto di terrorismo internazionale” (18 U.S.C. 2333(d)(2)).
A fronte di ciò, la Corte suprema ha elaborato un test su tre livelli per stabilire se un soggetto possa aver favorito o meno un attacco terroristico, ai sensi del sopracitato articolo.
Il test analizza se (i) è stato commesso un attacco terroristico; (ii) se i convenuti sapevano di avere un qualche ruolo nell’impresa di quel terrorista; e se (iii) i convenuti hanno fornito un’assistenza “consapevole e sostanziale” al terrorista così da “partecipare colpevolmente” all’attacco terroristico.
Applicando tale test, la Corte ha concluso che le piattaforme online non sono responsabili nel caso in cui i loro utenti pubblichino e diffondano contenuti terroristici.
Secondo la Corte Suprema, ciò che può essere rimproverato alle piattaforme è una forma di passività. Tuttavia, in base alla legge statunitense vigente, non esiste alcun obbligo che imponga alle piattaforme di interrompere l’iscrizione dell’ISIS o dei suoi sostenitori dopo aver scoperto che gli stessi utilizzano i loro servizi per scopi illegali. Inoltre, anche se tale obbligo esistesse, in questo caso, la sua violazione non sarebbe comunque equiparata a un’assistenza consapevole e sostanziale all’attacco terroristico ai sensi delle disposizioni del JASTA.
In sintesi, se da un lato si può riconoscere che le piattaforme non hanno preso provvedimenti sufficienti contro i contenuti dell’ISIS, dall’altro, secondo la Corte Suprema non si può concludere, che abbiano intenzionalmente fornito assistenza sostanziale all’organizzazione terroristica.
Italia: L’attuazione del Regolamento europeo per i contenuti terroristici online
Di recente, anche il Governo italiano è stato chiamato ad esprimersi in merito alla responsabilità dei prestatori di servizi di hosting, includendo così anche le piattaforme online per i contenuti terroristici pubblicati sulle stesse. Infatti, le commissioni di giustizia del Senato e della Camera saranno presto chiamate ad esprimere un parere, affinché il Governo possa esercitare la delega entro il 31 agosto 2023.
A seguito della procedura di infrazione aperta dalla Commissione europea nei confronti dell’Italia per non aver provveduto, entro la data dell’entrata in vigore del regolamento, il Governo italiano ha recentemente approvato uno schema di decreto legislativo sull’ “Adeguamento della normativa nazionale alle disposizioni del Regolamento europeo 2021/784 relativo al contrasto della diffusione di contenuti terroristici online”.
A differenza di quanto previsto negli Stati Uniti, il decreto prevede che la passività delle piattaforme debba essere sanzionata. Difatti, è previsto che al momento della ricezione della notizia relativa alla presenza dei contenuti terroristici online, e della relativa intenzione di emettere un ordine di rimozione, il Pubblico ministero competente deve informare immediatamente il Procuratore nazionale antimafia e antiterrorismo e acquisire ogni necessario elemento informativo e valutativo. Successivamente, l’ordine di rimozione è adottato con decreto motivato e portato a conoscenza dei destinatari per il tramite del personale di polizia giudiziaria. In particolare, in caso di contenuti generati dagli utenti e ospitati su piattaforme riconducibili a soggetti terzi, il Pm potrà disporre la rimozione dei soli specifici contenuti illeciti.
Per l’ipotesi in cui la piattaforma non ottemperi all’ordine di rimozione, oltre all’applicazione di sanzioni amministrative e penali, potrà essere disposta l’interdizione dell’accesso al dominio internet nelle forme e con le modalità di cui all’articolo 321 del codice di procedura penale, garantendo comunque, ove tecnicamente possibile, la fruizione dei contenuti estranei alle condotte illecite.
Ad ogni modo, nei dieci giorni successivi alla conoscenza dell’ordine di rimozione, è prevista la possibilità per le piattaforme di presentare opposizione nei confronti di tale provvedimento, innanzi al giudice per le indagini preliminari, che provvede con ordinanza in camera di consiglio, ricorribile per cassazione.
In conclusione, emergono due approcci differenti circa l’inquadramento della responsabilità delle piattaforme online per i contenuti illeciti pubblicati dai loro utenti. Se il regolamento europeo e conseguentemente il decreto italiano prevedono rigide sanzioni nel caso di omessa rimozione dei contenuti da parte delle piattaforme, lo stesso non accade negli Stati Uniti. Difatti, proprio nel caso Twitter Inc. v. Taamneh, è stato chiarito dalla Corte che una diversa decisione sarebbe da considerarsi troppo severa, poiché renderebbe qualsiasi fornitore di servizi di comunicazione responsabile per il semplice fatto di essere a conoscenza di criminali che utilizzano i loro servizi.
Su un simile argomento può essere interessante l’articolo “La Cassazione sulla responsabilità hosting provider e danno in re ipsa”.