Search
  • Hubert Marlin

Les nouvelles technologies et le racisme


Il existe des faits qui survivent au temps et à l’espace du moment où leurs vecteurs essentiels restent immuables. Aussi, tant que les humains penseront d’une certaine manière, en ce qui concerne la différence visuelle et génétique entre eux, tous les faits de la vie en seront toujours teintés. Logiquement, les nouvelles technologies de l’information n’échappent pas à ce phénomène, elles sont même en passe de devenir l’élément essentiel d’un racisme qui se veut désormais plus sophistiqué . Une sophistication qui semble banalisée le racisme, en le camouflant, le rendant plus digeste sous des airs hi tech. Le pamphlétaire Gaston Mary, collaborateur à La Libre Parole, le journal d'Édouard Drumont, fut la première personne connue à avoir utilisé le mot « raciste » en 1894 , selon l’écrivain provençal Charles Maurras.

Cependant le premier auteur qui semble avoir utilisé le mot « raciste » est Léon Trotski qui en 1930 dans son Histoire de la révolution russe, donne cet attribut a un groupe des Slaves traditionalistes qui défendaient leur culture et leur mode de vie national. Le racisme , partant du postulat de l'existence de races au sein de l'espèce humaine, considère que certaines catégories de personnes sont intrinsèquement supérieures à d'autres, les idées suprématistes sont le fondement du racisme car lorsque l’on se dit différent des autres c’est en général une manière d’affirmer la différence sous le principe de la spéculation superlative et non minorée ou péjorative. Les machines et les algorithmes écrits par une certaine catégorie de scientistes semblent être racistes, car ils sont définis sous le prisme des individus qui voient le monde en se basant sur ce qu’ils ont reçu comme éducation. Un condensé d’assertions biaisées, qui contribuent à la constitution du profil idéologique des individus, qui construisent des programmes, qui deviennent de plus en plus prépondérants dans le fonctionnement du monde d’aujourd’hui, affectant grandement la vie des profanes . Dans un article publié en avril 2017 par la revue Science, Joanna Bryson, Aylin Caliskan et Arvind Narayanan, des chercheurs des universités de Princeton (New Jersey) et de Bath (Royaume-Uni), démontraient comment la technologie du machine Learning, contribuait au racisme.

Le machine learning ou apprentissage automatique est un sous-ensemble de l'intelligence artificielle dans le domaine de l'informatique qui utilise souvent des techniques statistiques pour donner aux ordinateurs la capacité "d'apprendre" avec des données qu’elles contiennent, sans être explicitement programmé.

Le logiciel dénommée GloVe, développée par l’université Stanford (Californie), choisi pour l’expérience fut construit sur la base de ce système, et les scientistes en observant son comportement conclurent que GloVe reproduisait les biais humains, avec acuité cynique.

GloVe calcule les associations entre les mots, et pour corréler des mots entre eux, le logiciel doit se baser sur des exemples en utilisant d’innombrables données à partir desquelles le programme détecte les associations les plus logiques.

L'apprentissage en profondeur ou deep Learning (également connu sous le nom d'apprentissage structuré profond ou apprentissage hiérarchique) qui est une méthode plus ciblée observée dans plusieurs logiciels, fait partie d'une famille plus large de méthodes d'apprentissage automatique basées sur l'apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche. L'apprentissage peut être supervisé, semi-supervisé ou non supervisé. En utilisant le deep learning un programme peut, par exemple, reconnaître le contenu d'une image ou comprendre le langage parlé, et s’atteler à résoudre des défis complexes, sur lesquels la communauté de chercheurs en intelligence artificielle s'est longtemps cassé le nez.

Pour qu'un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de dizaines de milliers d'images de voitures, étiquetées comme telles. Un « entraînement », qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des voitures sur de nouvelles images.

Outre sa mise en œuvre dans le champ de la reconnaissance vocale avec Siri, Cortana et Google Now, le deep learning est avant tout utilisé pour reconnaître le contenu des images. Google Maps l'utilise pour déchiffrer le texte présent dans les paysages, comme les numéros de rue. Facebook s'en sert pour détecter les images contraires à ses conditions d'utilisation, et pour reconnaître et taguer les utilisateurs présents sur les photos publiées.

Le résultat est efficace dans la reproduction de la coloration du profilage. Des mots relevant du domaine lexical des fleurs sont associés à des termes liés au bonheur et au plaisir (liberté, amour, paix, joie, paradis, etc.). Les mots relatifs aux insectes sont, à l’inverse, rapprochés de termes négatifs (mort, haine, laid, maladie, douleur, etc.).

Pareillement les stéréotypes racistes et sexistes sont aussi reproduits. Les qualificatifs statistiquement les plus donnés aux Noirs américains sont d’avantages liés à un champ lexical négatif que ceux attribués aux Blancs. Le scandale du moteur de recherche google dans sa version Etatsunienne pouvait trouver un déni de racisme de sa conception dans le fait que Google ne serait pas responsable de la pléiade d’informations sur les femmes noires distillées en Amérique du nord sur la toile, car en tapant sur le moteur de recherche black woman plus de 60 pour cent de résultat prouvaient qu’il ya un certain agencement automatique entre les termes femme noire et pute, car la majorité des résultats montraient en général des actrices du porno en tenue très fines, tandis qu’en tapant white woman en général ont avait en face une pléiade d’actrice de cinéma et de top models qui célébraient la pureté et la beauté blanche. La réalité derrière cette vérité c’est que certains moteurs de recherches sont conçus de sorte qu’il donnent les résultats qui sont fidèles non seulement à ce qui se trouvent sur internet mais à l’idéologie de leurs concepteurs sur une question donnée. Si l’algorithme a été écrit en faisant rentrer la donnée selon laquelle les femmes noires sont sexy, ou alors si la majorité des données sur les femmes noires sur internet sont liés aux termes sexistes, il est normal que les résultats des recherches soient teintés par cette caractéristique. Aussi à ce niveau ce n’est pas seulement le concepteur du logiciel qui est à blâmer mais la société elle-même, qui bâtit des stéréotypes rétrogrades concernant une certain groupe d’individus. Stéréotypes qui sont indubitablement retranscrits dans la technologie.

Dans le même ordre d’idées, les moteurs de recherches personnalisés donneront des résultats qui sont conforment à la personnalité ou au métier de celui qui les utilise. Un journaliste en tapant femme, sur son moteur de recherche personnalisé aura un nombre considérable de résultats des femmes qui font dans les métiers des médias.

La technologie de reconnaissance faciale qui traite des caractéristique physique des individus est aussi citée dans la propagation du racisme dans la technologie. Elle est moins effective lorsqu’il s’agit de la reconnaissance du faciès des personnes de type africain. Les logiciels de reconnaissance faciale, qui sont en général conçus par des ingénieurs blancs ont du mal à reconnaitre des individus de race dites noire, et mieux on s’est rendu compte que les mêmes logiciels lorsqu’ils étaient conçus en Asie, avaient plus de succès dans la reconnaissance faciale des sujets de type asiatique.

Il est donc indéniable que la technologie obéit à son environnement et à la philosophie de la vie de ceux qui la conçoive. Une enquête de ProPublica a révélé que les systèmes de justice aux États-Unis utilisaient l'IA pour prédire la probabilité de récidive et admettait que les accusés noirs étaient plus susceptibles de devenir des criminels. L'IA sert également à déterminer dans quelles prisons un détenu devrait se rendre ou, comme l'a révélé l'Atlantic, quels droits de visite il ou elle pourrait avoir. L'IA est également utilisée pour déterminer l'éligibilité au crédit ou les offres pour d'autres produits financiers, et souvent de manière discriminatoire, les programmes peuvent vous offrir un taux d'intérêt plus élevé si vous êtes noir ou hispanique, et moindre si vous êtes asiatique ou blanc. En réalité la technologie n’est jamais neutre. L'exemple de l'interprétation sexiste des images n'est que la pointe de l'iceberg. Étant donné que l'apprentissage automatique et l'intelligence artificielle fonctionnent au moyen de la collecte, du filtrage, puis de l'apprentissage et de l'analyse des données existantes, ils répliqueront les biais structurels existants à moins qu'ils ne soient explicitement conçus pour ne pas en tenir compte.

L’homme crée des machines non seulement pour répondre à ses besoins mais aussi par fidélité en son image, et la recrudescence du racisme dans les outils technologiques prouve simplement que la technologie reste l’apanage d’une certaine élite blanche et raciste qui contrôle la majorité du trafic sur internet ainsi que la production des outils de pointe comme ceux utilisant l’intelligence artificielle. En 2016 ,Tay, une IA de Microsoft, censée incarner une adolescente sur Twitter, fut déconnectée après quelques heures seulement d’échanges sur la toile. Il avait été donné la liberté au programme d’apprendre de ses échanges avec des humains, et de formuler son propre vocabulaire. Tay conçu par des ingénieurs américains blancs dans un pays raciste, s’est mis à tenir des propos racistes et négationnistes, avant d’être suspendu par Microsoft en catastrophe. Ce fut une vitrine sur la qualité de la vie de la société occidentale minée par le racisme et les préjugés.

Aujourd’hui si par narcissisme chronique certains semblent verser dans la fierté de leurs prouesses technologiques, il n’est pas moins temps de dénoncer le modus operandi pernicieux qui se cache derrière le progrès technologique qui en dehors de renforcer le principe d’une société d’exclusion avec l’exploitation toujours plus accrue des ressources naturelles des pays appauvris par un système de prédation, favorise le racisme à travers des produits d’une industrie élitiste qui depuis a fait du profilage racial, une norme qui force le monde vers un ordre antagoniste prélude au chaos; car les préjugés, par tout et leurs corolaires, que sont le sexisme, le racisme ou la xénophobie ont toujours été des vecteur de guerre et non de paix aussi les nouvelles technologies au delà de leur caractère snob, contribuent de plus à la frustration et au formatage égocentrique des franges importantes de la population mondiale une situation qui tôt ou tard découle, sur des affrontements entre les genres, les classes et les races, qui sont les différentes divisions que l’humain s’est imposé, pour mieux comprendre son environnement de manière logique et juste, mais aussi surtout de plus en plus pour le contrôler y employant de méthodes des plus perverses, pour exercer un contrôle qui ne peut se faire qu’en prenant la liberté des autres, que l’on définit selon ses aspirations pour plaire à son ego, quand l’on se sent plus fort, de par l’orgueil que confère l'evolution technologique que d'aucuns ont décidé de confisquer par racisme.

lire plus sur www.flashmag.net

Hubert Marlin

Journaliste


47 views

Also Featured In

© 2018  Flashmag The Vanguard Webzine is a Creation of Medianet LLC - All rights reserved