Facebook annonce «Hateful Memes Challenge» pour arrêter les mèmes offensants et les discours de haine

Facebook a annoncé une nouvelle initiative pour empêcher les mèmes «haineux» d'apparaître sur le net. Ce nouvel algorithme surnommé «Hateful Memes Challenge» est accessible aux journalistes et aux chercheurs pour examen, ce qui, à son tour, peut faire des «mèmes dangereux» quelque chose de «positif» pour «garder les gens en sécurité» lorsqu'ils naviguent sur le Web.

Premièrement, si vous voulez un bref résumé du programme récemment annoncé de Facebook pour réduire les mèmes haineux, vous pouvez consulter Vidéo de Memology 101 ici:

Si vous n'avez pas regardé la vidéo, selon facebook.com, dit Douwe Kiela (chercheur scientifique), Hamed Firooz (chercheur scientifique appliqué) et Aravind Mohan (scientifique des données), que le contenu nuisible "affecte l'ensemble de l'industrie technologique et de la société dans son ensemble".

En plus de ce qui précède, voici l'un des nombreux arguments derrière le défi Hateful Memes et ce qu'il vise à accomplir:

«Nous avons créé et partageons maintenant un ensemble de données spécialement conçu pour aider les chercheurs en IA à développer de nouveaux systèmes pour identifier les discours de haine multimodaux. Ce contenu combine différentes modalités, telles que le texte et les images, ce qui rend la compréhension des machines difficile.

L'ensemble de données Hateful Memes contient plus de 10,000 nouveaux exemples multimodaux créés par Facebook AI. Nous avons concédé des images sous licence à Getty Images afin que les chercheurs puissent utiliser l'ensemble de données pour soutenir leur travail. Nous publions également le code des modèles de base.

Nous lançons également le Hateful Memes Challenge, un concours en ligne unique en son genre organisé par DrivenData avec un prize pool total de 100,000 2020 $. Le défi a été accepté dans le cadre de la piste de compétition NeurIPS XNUMX. »

Facebook AI, avec le Hateful Memes Challenge, est considéré par les trois scientifiques et l'équipe Facebook comme la meilleure solution en ce moment. Cependant, l'équipe cherche également des moyens de prévenir les abus potentiels, et c'est pourquoi l'accès sera limité.

Cela signifie que les participants (journalistes et chercheurs) devront accepter des conditions d'utilisation strictes sur la façon dont ils utiliseront, stockeront et traiteront ces données.

En outre, nous apprenons également que l'équipe tente d'aider l'algorithme d'IA à distinguer les exemples haineux des faux positifs potentiels. Afin de s'assurer que les décisions de classification sont exploitables, l'équipe a créé les exemples suivants spécifiquement pour définir le discours de haine:

«Une attaque directe ou indirecte contre des personnes en fonction de caractéristiques telles que l'ethnie, la race, la nationalité, le statut d'immigration, la religion, la caste, le sexe, l'identité de genre, l'orientation sexuelle et le handicap ou la maladie. Nous définissons l'attaque comme un discours violent ou déshumanisant (comparant des personnes à des choses non humaines, par exemple des animaux), des déclarations d'infériorité et des appels à l'exclusion ou à la ségrégation. Se moquer des crimes de haine est également considéré comme un discours de haine. »

Enfin, l'équipe ferait des progrès dans l'amélioration des systèmes d'IA pour détecter les «discours de haine» et autres «contenus nuisibles» sur Facebook. Cependant, l'équipe souhaite que le Hateful Memes Challenge se propage au-delà de Facebook et sur d'autres plateformes pour «assurer la sécurité des gens».