Science – Une IA reconnait l’origine ethnique d’un humain grâce aux rayons X avec un taux de réussite de 90%

Des scientifiques de l’Université de Harvard ont découvert que les programmes d’IA peuvent déterminer la couleur de peau d’une personne avec une précision de plus de 90% à partir d’une radiographie.

Si les chercheurs ne comprennent pas quelles informations permettent aux IA de détecter cette information, le plus gros problème est qu’ils ont remarqué que l’IA apprend de ces analyses de rayons X et utilise cette information dans le processus de diagnostic médical et de choix du traitement du patient, et pas toujours en bien.

L’Intelligence artificielle raciste et sexiste

Si l’on a longtemps pensé que l’Intelligence Artificielle (IA) pourrait être exempte des préjugés (de couleurs, de sexes, de religion, …) qui empêchent l’humain d’être neutre, on s’est finalement rendu compte que ce n’est pas le cas [NOTE de Daniel Conversano : le biais du journaliste qui écrit l’article est pas croyable. Il ne peut pas concevoir que l’IA se contente de donner… des résultats justes. C’est-à-dire racistes et sexistes]

En effet, un algorithme “peut être raciste, sexiste et nuire aux pauvres”, comme l’explique Elise De Grave, professeure à l’UNamur. De plus, de nombreuses études prouvent que l’Intelligence Artificielle peut être sexiste ou raciste en fonction des programmateurs qui ont codé l’algorithme.

Une étude qui prouve autre chose que ce qui était escompté

L’objectif de l’étude de l’équipe d’Harvard était, avant tout, de déterminer dans quelle mesure les systèmes d’IA pouvaient détecter l’origine ethnique à partir des rayons X et d’en savoir plus sur la manière dont ils sont réellement capables de le faire.

Comme l’explique Boston.com, l’équipe de recherche a formé les programmes d’IA à l’aide de rayons X et de tomodensitogrammes standard de différentes parties du corps. Chaque image (parfois très dégradée) était étiquetée avec l’origine ethnique autodéclarée par le patient mais ne contenait aucune trace de marqueurs raciaux tels que la couleur de la peau, la densité osseuse ou la texture des cheveux.

Les IA arrivent à la bonne réponse plus de 90% du temps. Une bonne nouvelle ? Peut-être mais, selon un communiqué du MIT, les scientifiques ne comprennent pas quelles caractéristiques d’une image permettent au programme de détecter la couleur de peau d’un patient…

Pour l’instant, les chercheurs pensent que l’imagerie médicale enregistre d’une manière ou d’une autre le niveau de mélanine dans la peau d’un patient mais d’une façon que les humains n’ont encore jamais détectée, explique le Boston Globe.

Second problème, l’IA utilise ensuite cette information et pas toujours de manière neutre : “Nous soulignons que la capacité de l’IA à prédire l’identité raciale n’est pas en soi important, mais plutôt que cette capacité est facilement apprise et est donc susceptible d’être présente dans de nombreux modèles d’analyse d’images médicales”, explique Marzyeh Ghassemi, professeur adjoint au Massachusetts Institute of Technology et co-auteur de l’étude.

Source

Total
0
Shares
Previous Post

Société – Les sondeurs suisses sont-ils racistes ? Sondage, commentaires, Heidi News

Next Post

Tranche de vie – Une journée comme les autres en Roumanie – 3 juin 2022, anecdote