Le maggiori piattaforme digitali, controllando la trasmissione di una quantità sempre più significativa di comunicazioni, sono diventate attori cruciali del mondo dell’informazione. Tale ruolo di gateway è collegato a un potere sulla formazione dell’opinione pubblica, che si esercita principalmente mediante due tipi di intervento sui contenuti, ossia la moderazione e il ranking. L’analisi si concentrerà in particolare sulle attività di moderazione, esaminandone la regolamentazione alla luce di alcune recenti normative dell’Unione europea, quali il Digital Services Act (DSA) e Media Freedom Act (EMFA). A partire da una panoramica delle attività di moderazione effettuate dalle piattaforme, si esplorerà il legame tra la moderazione dei contenuti e responsabilità delle piattaforme per i contenuti pubblicati dagli utenti. Si illustrerà, quindi, come un rafforzamento della responsabilità delle piattaforme possa comportare un aumento della moderazione dei contenuti, con potenziali effetti negativi sulla libertà di espressione e di informazione. Contestualmente, tale dinamica contribuisce ad un consolidamento del ruolo di filtro esercitato dalle piattaforme stesse. Dato questo quadro, si approfondirà lo sviluppo storico dei regimi di esenzione di responsabilità (safe harbor) negli USA e nell’UE e le principali posizioni dottrinali e giurisprudenziali a riguardo, in particolare rispetto al concetto di intermediazione passiva, che ne costituisce la ratio. In linea con tale fondamento concettuale, il safe harbor è stato recentemente messo in discussione dalla crescente proattività delle piattaforme digitali nell’organizzazione e moderazione dei contenuti, nonché dall’emergere di preoccupanti fenomeni online, quali la diffusione di discorsi d’odio e disinformazione, in parte addebitati alle modalità di funzionamento delle piattaforme stesse. Ciononostante, l’Unione europea, mediante l’adozione del DSA, ha scelto infine di mantenere i principi dell’esenzione di responsabilità, ritenuta ancora la migliore soluzione per salvaguardare la libertà di espressione online. Ne è stato però limitato l’ambito di operatività (cfr . art. 9 e 18 DSA) e, alle “piattaforme online di dimensioni molto grandi”, è richiesta l’adozione di misure per prevenire la diffusione di contenuti illegali e “dannosi” (art. 35). Infine, nessuna restrizione è stata prevista quanto alla moderazione “spontanea”, ossia basata sui termini e le condizioni di servizio della piattaforma. Vi sono tuttavia delle disposizioni del DSA che contribuiscono a limitare l’arbitrio delle piattaforme nella moderazione dei contenuti, prevedendo una serie di garanzie procedurali e di trasparenza. Queste garanzie sono potenziate dall’EMFA (art. 18) qualora la piattaforma intenda moderare contenuti provenienti da soggetti qualificati come “media”. Si procederà ad una breve illustrazione del contenuto e dei limiti di queste nuove garanzie procedurali, prima di passare alle considerazioni conclusive.

Vicinanza, A. (2025). Potere di opinione delle piattaforme digitali: come il Digital Services Act e il Media Freedom Act regolano la moderazione dei contenuti online. Napoli : Editoriale Scientifica.

Potere di opinione delle piattaforme digitali: come il Digital Services Act e il Media Freedom Act regolano la moderazione dei contenuti online

Anna Vicinanza
2025

Abstract

Le maggiori piattaforme digitali, controllando la trasmissione di una quantità sempre più significativa di comunicazioni, sono diventate attori cruciali del mondo dell’informazione. Tale ruolo di gateway è collegato a un potere sulla formazione dell’opinione pubblica, che si esercita principalmente mediante due tipi di intervento sui contenuti, ossia la moderazione e il ranking. L’analisi si concentrerà in particolare sulle attività di moderazione, esaminandone la regolamentazione alla luce di alcune recenti normative dell’Unione europea, quali il Digital Services Act (DSA) e Media Freedom Act (EMFA). A partire da una panoramica delle attività di moderazione effettuate dalle piattaforme, si esplorerà il legame tra la moderazione dei contenuti e responsabilità delle piattaforme per i contenuti pubblicati dagli utenti. Si illustrerà, quindi, come un rafforzamento della responsabilità delle piattaforme possa comportare un aumento della moderazione dei contenuti, con potenziali effetti negativi sulla libertà di espressione e di informazione. Contestualmente, tale dinamica contribuisce ad un consolidamento del ruolo di filtro esercitato dalle piattaforme stesse. Dato questo quadro, si approfondirà lo sviluppo storico dei regimi di esenzione di responsabilità (safe harbor) negli USA e nell’UE e le principali posizioni dottrinali e giurisprudenziali a riguardo, in particolare rispetto al concetto di intermediazione passiva, che ne costituisce la ratio. In linea con tale fondamento concettuale, il safe harbor è stato recentemente messo in discussione dalla crescente proattività delle piattaforme digitali nell’organizzazione e moderazione dei contenuti, nonché dall’emergere di preoccupanti fenomeni online, quali la diffusione di discorsi d’odio e disinformazione, in parte addebitati alle modalità di funzionamento delle piattaforme stesse. Ciononostante, l’Unione europea, mediante l’adozione del DSA, ha scelto infine di mantenere i principi dell’esenzione di responsabilità, ritenuta ancora la migliore soluzione per salvaguardare la libertà di espressione online. Ne è stato però limitato l’ambito di operatività (cfr . art. 9 e 18 DSA) e, alle “piattaforme online di dimensioni molto grandi”, è richiesta l’adozione di misure per prevenire la diffusione di contenuti illegali e “dannosi” (art. 35). Infine, nessuna restrizione è stata prevista quanto alla moderazione “spontanea”, ossia basata sui termini e le condizioni di servizio della piattaforma. Vi sono tuttavia delle disposizioni del DSA che contribuiscono a limitare l’arbitrio delle piattaforme nella moderazione dei contenuti, prevedendo una serie di garanzie procedurali e di trasparenza. Queste garanzie sono potenziate dall’EMFA (art. 18) qualora la piattaforma intenda moderare contenuti provenienti da soggetti qualificati come “media”. Si procederà ad una breve illustrazione del contenuto e dei limiti di queste nuove garanzie procedurali, prima di passare alle considerazioni conclusive.
2025
Unione Europea: pluralismo e libertà dei media nell'era digitale
247
274
Vicinanza, A. (2025). Potere di opinione delle piattaforme digitali: come il Digital Services Act e il Media Freedom Act regolano la moderazione dei contenuti online. Napoli : Editoriale Scientifica.
Vicinanza, Anna
File in questo prodotto:
File Dimensione Formato  
POTERE DI OPINIONE DELLE PIATTAFORME DIGITALI.pdf

accesso aperto

Descrizione: Capitolo
Tipo: Versione (PDF) editoriale / Version Of Record
Licenza: Licenza per Accesso Aperto. Creative Commons Attribuzione (CCBY)
Dimensione 539.32 kB
Formato Adobe PDF
539.32 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11585/1024273
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact