Accueil

Bourrées de préjugés

Article réservé aux abonnés
Responsable du pôle Multimédias Temps de lecture: 2 min

OpenAI, Google et les grandes plateformes d’intelligence artificielle (IA) se disent préoccupés par ce qu’elles appellent l’« alignement » des systèmes d’intelligence artificielle sur des valeurs de société. Mais quelles valeurs ?

Eviter la reproduction des biais discriminants (de genre, de couleur de peau, etc.) de l’homme vers la machine s’avère justement un des problèmes les plus complexes. Or, les IA sont bourrées de préjugés qui ne sont jamais que le reflet des banques de données sur lesquelles elles ont été entraînées : les chefs d’entreprise sont forcément des hommes, et les personnels de ménage, forcément des femmes… Google connaît le même problème : « Imagen reflète tout un tas de biais socioculturels, même lorsqu’il génère des images d’objets, d’événements ou d’activités », notent les chercheurs de Google, qui ont décidé de ne pas ouvrir leur intelligence artificielle à des personnes externes à leur laboratoire.

Cet article est réservé aux abonnés
Article abonné

Découvrez la suite, 1€ pour 1 mois (sans engagement)

Avec cette offre, profitez de :
  • L’accès illimité à tous les articles, dossiers et reportages de la rédaction
  • Le journal en version numérique
  • Un confort de lecture avec publicité limitée

Le fil info

La Une Tous

Voir tout le Fil info

0 Commentaire

Aussi en

Voir plus d'articles

Allez au-delà de l'actualité

Découvrez tous les changements

Découvrir

À la Une

références Voir les articles de références références Tous les jobs