L’IA prend rapidement une place centrale dans notre vie quotidienne. Si elle fait du monde un endroit plus intelligent et plus rapide, elle s’accompagne également de nouvelles menaces contre les normes en matière de droits de l’homme et d’autres effets perturbateurs. La désinformation par l’IA, la propagation des discours haineux et de la propagande qui en résulte, ainsi que les problèmes de normes clés et les solutions politiques manquantes, sont quelques-uns des défis associés aux technologies émergentes.
En tant que modératrice, Silvia Fernández de Gurmendi, présidente de GAAMAC, a présenté les experts de la communauté GAAMAC, qui ont chacun souligné un aspect spécifique du sujet :
- Rastislav Šutek, directeur exécutif de la Plateforme pour la paix et l’humanité
- Raashi Saxena, coordinateur de projet mondial au Projet Sentinel
- Lord Clement-Jones, membre du Parlement britannique et expert externe collaborant avec les Parlementaires pour l’action mondiale.
Le premier intervenant, Rastislav Šutek, a expliqué le rôle que joue l’IA dans la diffusion et le ciblage de la propagande en ligne. Il a rappelé aux participants que l’IA était déjà utilisée pour modérer le contenu des plateformes de médias sociaux. Il a ajouté que, bien que la répression des autorités russes sur l’espace numérique depuis février 2022 soit particulièrement visible, il est en effet courant que les États demandent aux entreprises technologiques de supprimer des contenus et des informations – souvent pour des raisons de sécurité nationale.
Réglementation, sur-réglementation, sous-réglementation ?
Historiquement, la réglementation légale contre les discours de haine et la propagande a été relativement rare, notamment parce qu’il faut toujours trouver un équilibre avec la liberté d’expression. Cependant, on constate un récent regain d’intérêt des États pour la réglementation des contenus en ligne, tant au sein d’organisations régionales comme l’UE qu’au niveau national. Le Conseil de l’Europe travaille également actuellement à l’élaboration d’un instrument réglementant l’utilisation de l’IA.
Rastislav Šutek a terminé en soulignant certains inconvénients de la modération par l’IA : certains contenus bloqués peuvent être utiles à des fins de preuve dans des procès pénaux ; l’absence d’atténuation culturelle peut entraîner un marquage excessif des termes/contenus ; et inversement, le jargon militaire ou le langage codé peuvent échapper à la surveillance automatisée.
L’IA est un outil de contrôle nécessaire mais imparfait
Ensuite, Raashi Saxena a pris la parole pour présenter l’initiative Hatebase. Il s’agit du plus grand répertoire structuré de discours haineux multilingues et fondés sur l’usage. Il vise à mieux comprendre comment le comportement en ligne peut influencer la violence hors ligne et peut être utilisé pour détecter les premiers stades d’un génocide.
Compte tenu du volume et de la vitesse de diffusion des contenus en ligne, l’IA est un outil nécessaire pour une surveillance efficace. La surveillance humaine est facilement dépassée non seulement par le volume, mais aussi par la nature du contenu, ce qui entraîne des problèmes de santé mentale. Les heures d’exposition à des contenus haineux soulèvent également la question de la rémunération et des conditions de travail adéquates.
Ce que l’IA ne fait pas, en revanche, c’est saisir les nuances et les associations culturelles, ce qui signifie que les mêmes termes peuvent être considérés comme haineux dans une région du monde et pas dans une autre. La frontière avec la liberté d’expression est floue et, comme tout contenu impopulaire ne constitue pas un discours de haine, un arbitrage humain au cas par cas est nécessaire.
Pour refléter le plus fidèlement possible les spécificités socioculturelles, The Sentinel Project a créé le Hatebase Citizen’s Linguist Lab. Cet outil collaboratif et open-source peut être enrichi par n’importe qui dans le monde entier, en ajoutant ou en notant des termes. Mesurer la fréquence de leur utilisation permet également au projet Sentinel de comprendre le climat social de certaines zones.
Le rôle des législateurs dans la lutte contre les discours de haine en ligne
Enfin, Lord Clement-Jones a parlé de son expérience à la Chambre des Lords britannique dans l’adoption d’une réglementation des médias sociaux pour prévenir et traiter les discours de haine. Son premier avertissement est que les législateurs ne font que “rattraper” le sujet, en raison de l’évolution très rapide de la technologie et de l’IA en particulier.
Lord Clement-Jones a fait valoir que les discours de haine en ligne et hors ligne ne pouvaient pas être traités séparément, comme l’illustre le fait que les travaux de la Commission juridique britannique sur les crimes de haine et le projet de loi du gouvernement sur la sécurité en ligne seront débattus ensemble cette année. La responsabilité et l’évaluation des risques doivent être garanties quel que soit le lieu de diffusion du discours de haine.
Un domaine particulièrement complexe est celui de la désinformation ou de la mésinformation ayant un impact sociétal, c’est-à-dire lorsque le risque ne concerne pas les individus mais la démocratie ou la sécurité. Le projet de loi sur la sécurité en ligne prévoit une évaluation obligatoire des risques et souligne que la conception même des plateformes sociales ne doit pas amplifier ces contenus.
Les pistes à suivre
Silvia Fernández de Gurmendi a conclu le panel en résumant les principales conclusions : la nécessité de définir plus clairement ce qui constitue un contenu préjudiciable ; l’importance de maintenir la liberté d’expression, y compris à un niveau très localisé et spécifique au contexte ; et la nécessité pour les législateurs de refléter les avancées technologiques dans la loi.
Le Forum AI et droits de l’homme est organisé chaque année par l’Institut montréalais d’études sur le génocide et les droits de l’homme (MIGS), également partenaire du GAAMAC. L’édition 2022 s’est déroulée en ligne les 27, 28 et 29 avril.