The need for Internet intermediaries to moderate user-generated content has become more and more pressing. Besides, vis-à-vis the extraordinary increase in the quantity of daily online in-formation, the resort to algorithmic tools for moderation is today essential. This is also true for the detection of hate speech acts, which is currently largely based on the use of AI and ma-chine-learning techniques: however, scholarly literature has highlighted how such systems can often be vitiated by discriminatory biases which produce a high risk of false positives affecting minorities. The present contribution argues that, within the European constitutional framework, the fight against hateful contents finds its rationale in the goal of ensuring that all social groups can truly enjoy a substantive equality, and that, as a consequence, a discriminatory enforce-ment of hate speech bans is inconsistent with the value system of the EU. Therefore, although AI represents a fundamental and necessary tool to guarantee a safer and more tolerant digital ecosystem, a high rate of false positives is not fully acceptable when it comes to hate speech moderation. It is thus necessary to rethink the relevant political and legislative strategies, with a view to ensure that marginalised groups can enjoy appropriate substantive and procedural guarantees protecting their freedom of expression and their right to non-discrimination.

La necessità per gli intermediari digitali di moderare i contenuti pubblicati e diffusi in rete dagli utenti si è fatta negli anni sempre più pressante. A fronte della crescita vertiginosa del flusso informazionale digitale, peraltro, si è reso oggigiorno essenziale il ricorso a strumenti di moderazione algoritmica per la rilevazione dei contenuti da rimuovere. Anche la rilevazione dei discorsi d’odio (hate speech) si fonda attualmente su un utilizzo massiccio di sistemi di intelligenza artificiale e machine-learning: la letteratura, tuttavia, ha rilevato come tali sistemi siano sovente viziati da bias discriminatori che rendono particolarmente elevato il rischio di falsi positivi ai danni delle minoranze. Il presente contributo pone in luce come nel sistema costituzionale europeo il contrasto ai contenuti d’odio sia giustificato dall’esigenza di perseguire un’uguaglianza sostanziale di tutte le componenti sociali e come, pertanto, un’applicazione discriminatoria del divieto di hate speech sia in sé incoerente con il sistema di valori dell’Unione europea. Se, dunque, l’intelligenza artificiale rappresenta uno strumento essenziale e ineludibile per garantire un più sicuro e tollerante ecosistema digitale, un elevato margine di errore, in termini di falsi positivi, non risulta essere pienamente accettabile. Occorre, pertanto, un ripensamento delle strategie legislative nell’ottica di offrire più adeguate garanzie, sostanziali e procedurali, a tutela della libertà di espressione e del diritto di non discriminazione dei gruppi marginalizzati.

Pietro Dunn (2022). Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech. RIVISTA ITALIANA DI INFORMATICA E DIRITTO, 1, 133-144 [10.32091/RIID0064].

Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech

Pietro Dunn
Primo
2022

Abstract

The need for Internet intermediaries to moderate user-generated content has become more and more pressing. Besides, vis-à-vis the extraordinary increase in the quantity of daily online in-formation, the resort to algorithmic tools for moderation is today essential. This is also true for the detection of hate speech acts, which is currently largely based on the use of AI and ma-chine-learning techniques: however, scholarly literature has highlighted how such systems can often be vitiated by discriminatory biases which produce a high risk of false positives affecting minorities. The present contribution argues that, within the European constitutional framework, the fight against hateful contents finds its rationale in the goal of ensuring that all social groups can truly enjoy a substantive equality, and that, as a consequence, a discriminatory enforce-ment of hate speech bans is inconsistent with the value system of the EU. Therefore, although AI represents a fundamental and necessary tool to guarantee a safer and more tolerant digital ecosystem, a high rate of false positives is not fully acceptable when it comes to hate speech moderation. It is thus necessary to rethink the relevant political and legislative strategies, with a view to ensure that marginalised groups can enjoy appropriate substantive and procedural guarantees protecting their freedom of expression and their right to non-discrimination.
2022
Pietro Dunn (2022). Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech. RIVISTA ITALIANA DI INFORMATICA E DIRITTO, 1, 133-144 [10.32091/RIID0064].
Pietro Dunn
File in questo prodotto:
File Dimensione Formato  
102-Articolo-162-3-10-20220704.pdf

accesso aperto

Tipo: Versione (PDF) editoriale
Licenza: Licenza per Accesso Aperto. Creative Commons Attribuzione - Non commerciale - Condividi allo stesso modo (CCBYNCSA)
Dimensione 1.3 MB
Formato Adobe PDF
1.3 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11585/880438
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact