L’intelligence artificielle peut enfin aider à lutter contre les discours de haine
Points clés à retenir
- Un nouvel outil logiciel permet à l’intelligence artificielle de surveiller les commentaires sur Internet à la recherche de discours de haine.
- Étant donné que la grande quantité de matériel dépasse les capacités humaines, l’intelligence artificielle est nécessaire pour modérer le contenu Internet.
- Mais certains experts disent que la surveillance de la parole par AI soulève des problèmes de confidentialité.
Kristen Hume/Unsplash
Alors que le discours de haine se développe en ligne, une entreprise affirme qu’elle pourrait avoir une solution qui ne repose pas sur des modérateurs humains.
Une startup appelée Spectrum Labs fournit aux fournisseurs de plateformes une technologie d’intelligence artificielle pour détecter et arrêter les échanges toxiques en temps réel. Mais les experts disent que la surveillance de l’IA peut également soulever des problèmes de confidentialité.
« La surveillance de l’IA implique généralement d’examiner les modèles au fil du temps, ce qui nécessite la conservation des données », a déclaré David Moody, associé principal de la société d’évaluation de la conformité en matière de sécurité et de confidentialité Schellman, à ledigitalpost dans une interview par e-mail. Informations d’identification personnelle ou PII) pour les données privées. »
plus de discours de haine
Spectrum Labs promet une solution de haute technologie au problème séculaire du discours de haine.
« En moyenne, nous avons aidé les plateformes à réduire leurs efforts de modération de contenu de 50 % et à multiplier par 10 la détection des comportements toxiques », affirme la société sur son site Web.
Spectrum affirme avoir construit plus de 40 modèles de reconnaissance de comportement en collaboration avec des instituts de recherche spécialisés dans des comportements nuisibles spécifiques. La plate-forme de modération de contenu Guardian de la société a été créée par une équipe de scientifiques des données et de modérateurs pour « soutenir la protection des communautés contre l’empoisonnement ».
Dylan Fox, PDG d’AssemblyAI, une startup qui fournit la reconnaissance vocale et engage les clients dans la surveillance des discours de haine, a déclaré à ledigitalpost qu’il existe un besoin croissant de moyens de lutter contre les discours de haine car il est impossible pour les humains de surveiller chaque élément du trafic en ligne. Entretien par courriel.
« Il y a environ 500 millions de tweets par jour rien que sur Twitter », a-t-il ajouté. « Même si une personne pouvait vérifier un tweet toutes les 10 secondes, Twitter aurait besoin d’employer 60 000 personnes pour le faire. Au lieu de cela, nous utilisons des outils intelligents comme l’intelligence artificielle pour automatiser le processus. »
Contrairement aux humains, l’IA peut fonctionner 24 heures sur 24 et 7 jours sur 7 et peut être plus équitable, a déclaré Fox, car elle vise à appliquer ses règles de manière uniforme à tous les utilisateurs sans interférence d’aucune croyance personnelle. Ceux qui doivent surveiller et modérer le contenu doivent également payer un prix.
« Ils peuvent être exposés à la violence, à la haine et à un comportement sale, ce qui peut nuire à la santé mentale d’une personne », a-t-il déclaré.
Spectrum n’est pas la seule entreprise à chercher à détecter automatiquement les discours de haine en ligne. Par exemple, le Malaysia Center a récemment lancé un tracker en ligne visant à détecter les discours de haine parmi les internautes malaisiens. Le logiciel qu’ils ont développé, appelé Tracker Benci, utilise l’apprentissage automatique pour détecter les discours de haine en ligne, en particulier sur Twitter.
Le défi consiste à créer des espaces où les gens peuvent vraiment interagir de manière constructive les uns avec les autres.
Problèmes privés
Bien que des solutions technologiques comme Spectrum puissent lutter contre les discours de haine en ligne, elles soulèvent également des questions sur l’ampleur de la surveillance des ordinateurs.
Irina Raicu, directrice de l’éthique sur Internet au Markkula Center for Applied Ethics de l’Université de Santa Clara, a déclaré à ledigitalpost dans une interview par e-mail qu’il y avait des implications sur la liberté d’expression, mais pas seulement pour les orateurs qui ont été renvoyés pour discours de haine.
« Autoriser le harcèlement au nom de la » liberté d’expression « a incité la cible d’un tel discours, en particulier lorsqu’il s’adresse à un individu spécifique, à cesser de parler – à abandonner complètement les conversations et les plates-formes », a déclaré Raicu. « Le défi est de savoir comment créer des espaces où les gens peuvent vraiment interagir de manière constructive les uns avec les autres. »
La surveillance vocale de l’IA ne devrait pas soulever de problèmes de confidentialité si les entreprises utilisent des informations accessibles au public dans le processus de surveillance, a déclaré Fox. Mais cela pourrait soulever des problèmes de confidentialité si les entreprises achetaient des détails sur la façon dont les utilisateurs interagissent sur d’autres plates-formes pour pré-identifier les utilisateurs problématiques.
« Cela pourrait certainement être une zone grise, selon l’application », a-t-il ajouté.
Morgan Basham/Unsplash
Le PDG de Spectrum Labs, Justin Davis, a déclaré à ledigitalpost dans un e-mail que la technologie de l’entreprise peut examiner 2 à 5 000 lignes de données en une fraction de seconde. « Plus important encore, la technologie peut réduire la quantité de contenu toxique auquel les modérateurs humains sont exposés », a-t-il déclaré.
Nous sommes peut-être à l’aube d’une révolution dans laquelle l’intelligence artificielle surveille la parole et le texte humains en ligne. Moody’s a déclaré que les avancées futures incluent de meilleures capacités de surveillance indépendantes et autonomes pour identifier des formes de discours de haine jusqu’alors inconnues ou tout autre schéma censurable qui évoluera.
Il a ajouté que l’IA sera bientôt en mesure d’identifier des modèles dans des modèles de discours spécifiques et de corréler des sources et d’autres activités grâce à l’analyse des informations, des documents publics, de l’analyse des modèles de trafic, de la surveillance physique et de nombreuses autres options.
Mais certains experts disent que les humains auront toujours besoin d’utiliser des ordinateurs pour surveiller les discours de haine.
« L’IA seule ne fonctionnera pas », a déclaré Raicu. « Il doit être considéré comme un outil imparfait qui doit être utilisé en conjonction avec d’autres réactions. »
Correction du 25 janvier 2022 : Ajout d’une citation de Justin Davis au paragraphe 5 à la fin pour refléter les e-mails post-post.
Merci de nous en informer!
Dites-nous pourquoi !
D’autres détails ne sont pas assez difficiles à comprendre