La société autorisait auparavant l’utilisation de termes incitant à la haine pour le ciblage publicitaire par mot-clé.
Cette semaine, Google a bloqué l’utilisation d’un grand nombre de mots-clés haineux pour le ciblage des annonces sur YouTube. Cette mesure fait suite à un rapport publié dans The Markup, qui a révélé que les annonceurs pouvaient rechercher des termes tels que « white power » pour trouver des vidéos et des chaînes à placer.
Après que The Markup ait contacté Google, l’entreprise s’est excusée et a bloqué la recherche de 44 termes nuisibles.
The Markup a suivi avec d’autres termes nuisibles qu’elle a trouvés, que Google a tranquillement bloqués sans autre réponse. Google a déclaré à The Verge que les annonces n’ont jamais été diffusées en ciblant les termes de recherche en question en raison d’autres couches de contrôles qui dictent le type de contenu autorisé dans les annonces. YouTube supprime régulièrement les vidéos contenant des discours haineux et interdit aux utilisateurs de monétiser leurs vidéos s’ils se heurtent régulièrement à ses règles en matière de discours haineux.
Si Google a autorisé la recherche de mots clés tels que « white lives matter », qui pourrait raisonnablement être interprété comme une réponse raciste aux récents mouvements de justice sociale, il a bloqué la recherche de mots clés « Black Lives Matter ». L’année dernière, YouTube a créé un fonds de 100 millions de dollars pour soutenir les créateurs de contenu noirs.
Google bloque la publicité pour toute une série de mots clés, en partie parce que les grandes marques ne veulent souvent pas être associées à quelque chose de controversé ou de nuisible, de peur de se mettre à dos leurs clients. Mais l’interdiction générale de « Black Lives Matter » à côté d’autres mots comme « white power » met en évidence le problème auquel les plateformes technologiques sont confrontées.
Google vante régulièrement ses progrès en matière de répression des discours haineux, mais les journalistes et le public trouvent facilement des contenus douteux qui soulèvent des questions. Les plates-formes Internet sont conçues par de petits groupes de personnes, mais elles sont destinées à être utilisées par des milliards de personnes. Il est donc impossible pour les humains d’examiner chaque contenu et de décider s’il est sûr. L’intelligence artificielle a été présentée comme la solution, mais elle est loin d’être parfaite car elle ne parvient pas à comprendre les complexités du langage humain. Il y aura probablement toujours du contenu préjudiciable qui passera inaperçu.
Dans son rapport, The Markup indique que la manière dont Google a bloqué les nouveaux termes rend difficile de tenir l’entreprise pour responsable, car elle n’a pas précisé si ces termes étaient effectivement bloqués ou non :
Cependant, la façon dont Google a bloqué ces mots et d’autres mots nouvellement bloqués rend maintenant les réponses dans le code indiscernables des réponses pour le charabia. Comme il est désormais impossible de savoir avec certitude quels termes sont bloqués, Google s’est protégé d’un examen futur de ses blocages de mots clés sur Google Ads.
YouTube affirme avoir bloqué ou supprimé plus de 867 millions de publicités l’année dernière pour avoir tenté d’échapper à ses systèmes de détection, et avoir bloqué ou supprimé trois milliards de publicités au total pour avoir enfreint ses règles en matière de contenu. Mais cela ne donne pas une idée du nombre d’annonces nuisibles qui sont passées entre les mailles du filet.
Discussion about this post