samedi 4 juin 2016

Facebook peut-il vraiment couper les propos racistes, antisémites, etc. ?


RÉSEAU SOCIAL – Facebook a dévoilé son arme ultime pour lutter contre les discours haineux qui sont postés sur sa plateforme : un logiciel d’intelligence artificielle baptisé « Deep text ». Cependant, ce dernier peut-il réellement y mettre fin ? Pour le savoir, metronews a interrogé Jérémie Mani, expert en modération sur Internet. Mais tout cela a un prix. Et D’après lui, Facebook est loin d’être prêt à plonger dans un tel gouffre financier. Décryptage.
Afin de lutter plus efficacement contre les discours de « haine », Facebook vient de dévoiler son arme ultime. Baptisé « Deep Text », ce programme informatique, doté d’une intelligence artificielle, sera en mesure de scanner 10.000 posts par seconde, contenant une vidéo, une photo ou du texte, dans pas moins de 20 langues.

Face aux nombreuses critiques sur leur manque de volonté, les géants du web se sont engagés auprès de la Commission européenne ce mardi afin de lutter de manière plus efficace contre les contenus haineux qui sont postés sur leurs plateformes au sein de l’Union européenne.

4,75 milliards de contenus postés chaque jour
Facebook, mais aussi Twitter, YouTube et Microsoft, ont signé en effet un code de bonne conduite, s’engageant à mettre en place « des procédures claires et efficaces » pour examiner les signalements de contenus illégaux et supprimer ces derniers dans un délai de 24 heures.

« En une minute, un nombre incalculable de vidéos, de photos et de textes est publié sur Facebook, dans plus d’une centaine de langues (4,75 milliards chaque jour, selon le Blog du Modérateur) explique à metronews Jérémie Mani, PDG de Netino, leader français de la modération sur Internet. Or il est impossible de mettre un humain derrière chaque utilisateur, Facebook a donc besoin de s’appuyer sur des robots. »

Mâcher le boulot des modérateurs humains
Les récentes attaques terroristes nous ont rappelé le besoin urgent de nous préoccuper des discours de haine illégaux sur Internet, rappelait en début de semaine la commissaire chargée de la Justice, Vera Jourova, citée dans un communiqué : « Les médias sociaux sont malheureusement l’un des outils que les groupes terroristes utilisent pour radicaliser des jeunes gens et que les racistes utilisent pour répandre la violence et la haine. »

C’est justement là que le logiciel d’intelligence artificielle « Deep text » entre en scène. Il sera chargé de mâcher le boulot des modérateurs humains, en détectant les contenus jugés contradictoires avec les règles d’utilisations de Facebook. « Grâce à l’intelligence artificielle, il sera en mesure de repérer dans une image, une vidéo ou du texte les contenus choquants qui s’y trouvent », poursuit notre expert.

La question du contexte pose problème
Aussi bien, donc, des propos racistes, que des seins nus ou des cadavres. Et c’est justement là que le bât blesse : « Cela pose forcément la question du contexte dans lequel s’inscrivent les contenus qui seront jugés illégaux par les robots de Facebook, en particulier s’il s’agit d’un texte. D’autant plus que les robots de Facebook maîtrisent davantage la langue anglaise que le français ou les autres langues, souligne Jérémie Mani.

Imaginons, par exemple, qu’un internaute dénonce un message raciste contenant le mot « bougnoule », sera-t-il modéré pour autant ? « Ils peuvent également se tromper, reprend Jérémie Mani. C’est d’ailleurs la raison pour laquelle un humain sera chargé de contrôler ce genre de choses, une fois que les robots auront fait leur propre tri. Le hic, c’est que les modérateurs humains sont, eux aussi, loin d’être infaillibles. »

6 heures pour retirer une vidéo de viol collectif…
On a pu le voir récemment au Brésil : la vidéo du viol collectif d’une adolescente a reçu pas mois de 500 likes, avant d’être retirée du réseau. « La question cruciale reste toujours la même : peut-on réellement comprendre les règles de Facebook ? » s’interroge Jérémie Mani.

Le réseau social avait refusé dans un premier temps de supprimer le contenu, avant de plier face à la pression des internautes : au bout de 36 heures… Une réaction « plutôt contradictoire avec ses engagements pour lutter contre les contenus choquants. 
Certes, il y a des différences de sensibilité quant à la définition de la liberté d’expression, que l’on soit aux Etats-Unis, en France, au Japon ou aux Émirats arabes unis. En outre, tout cela a un prix. Humain, d’abord, afin de recruter des modérateur. Mais aussi et surtout technologique : un tel algorithme nécessite de nombreux serveurs pour fonctionner. Pas sûr que Facebook soit prêt à assumer ce grouffre financier ». De quoi justifier son laxisme ?

happywheels

Aucun commentaire:

Enregistrer un commentaire