Timnit Gebru

Timnit Gebru est une chercheuse spécialisée dans l'éthique de l'intelligence artificielle et notamment les biais algorithmiques.

Timnit Gebru est née à Addis-Abeba, Éthiopie. Elle émigre aux États-Unis à 16 ans et est admise à l'université Stanford[1], où elle poursuit des études en génie électrique. Elle obtient son doctorat en informatique dans le laboratoire d'intelligence artificielle de Stanford, avec Fei-Fei Li, en 2017[2]. Elle effectue ensuite un post-doctorat à Microsoft, dans le laboratoire FATE (Fairness, Accountability, Transparency and Ethics in AI), dédié à l'égalité, la transparence et l'éthique en intelligence artificielle[2].

Pendant sa thèse, Gebru co-fonde Black in AI avec la chercheuse Rediet Abebe, une organisation qui vise à augmenter la représentativité des personnes noires dans le domaine de l'intelligence artificielle[1].

Elle est notamment l'auteure avec Joy Buolamwini de l'étude Gender Shades qui montre les biais des algorithmes de reconnaissance faciale qui reconnaissent moins facilement les personnes de couleur[3]. En particulier, les femmes noires ont 35% moins de chances d'être reconnues que des hommes blancs[4]. L'étude a des conséquences pratiques importantes sur les recommandations et interdictions des systèmes de reconnaissance faciale aux états-unis.

Dans un article de 2018[5], Gebru et ses co-auteurs étudient les conditions de création et de maintenance des ensemble de données utilisés en apprentissage artificiel, et notent le manque de standardisation de la documentation de ces données. Plus généralement, Gebru s'interroge sur le fait que des questions comme: « cette tâche a-t-elle un sens ?  », À qui appartiennent les données ?, « comment sont-elles utilisées ? » ne sont que rarement posées, et que ce sont des questions sociales et non technologiques[6].

En décembre 2020, alors qu'elle co-dirigeait avec la chercheuse Margaret Mitchell l'équipe sur l'éthique dans l'intelligence artificielle, elle est licenciée par son employeur Google. Elle affirme que ce licenciement fait suite aux critiques qu'elle a émises sur la politique de recrutement des minorités de Google et les biais des systèmes d'intelligence artificielle[7]. Google conteste en répondant que son départ fait suite à un ultimatum de sa part[8],[9].

Publications

  • (en) Emily Bender, Timnit Gebru, Angelina McMillan-Major et Shmargaret Shmitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, , p. 610–623 (DOI 10.1145/3442188.3445922)

Notes et références

  1. « ai-innovators-how-one-woman-followed-her-passion-and-brought-diversity-to-ai »
  2. « Understanding the limits of AI: When algorithm fails, »
  3. (en) Joy Buolamwini et Timnit Gebru, « Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification – MIT Media Lab », Proceedings of Machine Learning Research, (lire en ligne).
  4. (en-US) Steve Lohr, « Facial Recognition Is Accurate, if You're a White Guy » [archive du ], The New York Times, (ISSN 0362-4331, consulté le )
  5. (en) « Datasheets for Datasets », ArXiv, (lire en ligne)
  6. (en) « Dealing With Bias in Artificial Intelligence », sur THe New York Times,
  7. (en) « Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I. », The New York Times, (lire en ligne).
  8. (en) Zoe Schiffer, « Timnit Gebru’s team at Google is going public with their side of the story », sur The Verge, (consulté le )
  9. (en) « Google workers mobilize against firing of top Black female executive » [archive du ], sur NBC News (consulté le ).

Voir aussi

Liens externes

  • Portail de l’informatique
  • Portail des probabilités et de la statistique
  • Portail de la sociologie
  • Portail de Google
  • Portail des Afro-Américains
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.