Aller au contenu
Accueil » OpenAI finance une recherche pour prédire les jugements moraux humains

OpenAI finance une recherche pour prédire les jugements moraux humains

  • IA

OpenAI s’aventure dans le domaine complexe et controversé de la morale, en finançant une recherche académique visant à développer des algorithmes capables de prédire les jugements moraux humains. D’après une déclaration déposée auprès de l’IRS, OpenAI Inc., la branche à but non lucratif de l’organisation, a octroyé une subvention à des chercheurs de l’université Duke pour un projet intitulé Research AI Morality. Ce financement s’inscrit dans une initiative plus large de 1 million de dollars sur trois ans, visant à explorer la création d’une « IA morale ».

Un aperçu du projet

Le projet, dirigé Walter Sinnott-Armstrong, professeur d’éthique pratique à l’université Duke, et Jana Borg, chercheuse associée, cherche à entraîner des algorithmes capables de prédire les jugements moraux dans des domaines tels que la médecine, le droit et les affaires.

Sinnott-Armstrong et Borg ne sont pas étrangers à ce sujet. Dans leurs travaux antérieurs, ils ont exploré le potentiel de l’IA en tant que « GPS moral » pour guider les décisions humaines. Leurs recherches incluent le développement d’algorithmes alignés sur des principes moraux pour attribuer des dons d’organes et l’étude des préférences des citoyens concernant la prise de décisions morales des IA.

Cependant, les détails spécifiques de cette étude financée OpenAI restent flous, les chercheurs ayant refusé de commenter leur travail. Un communiqué de presse précise que le projet vise à résoudre des dilemmes impliquant des conflits entre plusieurs aspects moraux. La subvention doit s’achever en 2025.

Les défis de l’IA « morale »

Prédire les jugements moraux humains est une tâche parsemée d’obstacles, tant philosophiques que techniques. La morale, influencée la culture, le contexte et les valeurs personnelles, est profondément subjective. Les débats philosophiques sur les cadres éthiques — du kantianisme à l’utilitarisme — persistent depuis des siècles sans parvenir à un consensus universel. Traduire ces concepts nuancés en algorithmes représente un défi colossal.

Les limitations intrinsèques de l’IA viennent compliquer davantage cet objectif. Les modèles d’apprentissage automatique, qui constituent le cœur des systèmes actuels, sont des outils statistiques formés sur d’immenses ensembles de données. Ils excellent à identifier des motifs, mais ne possèdent ni compréhension réelle des concepts éthiques, ni la capacité de raisonner ou d’intégrer des émotions dans leurs décisions.

Ces failles sont mises en lumière des initiatives passées d’IA « morale ». En 2021, l’Allen Institute for AI a lancé Ask Delphi, un outil conçu pour offrir des recommandations éthiques. Bien qu’il ait pu répondre à des dilemmes simples, une reformulation légère des questions pouvait produire des réponses éthiquement discutables, comme justifier des actes immoraux. Delphi a également reflété des biais culturels, déclarant que l’hétérosexualité était plus « moralement acceptable » que l’homosexualité, un biais lié à ses données d’entraînement.

Une tâche titanesque

OpenAI et ses partenaires font face à l’énorme défi de concevoir des algorithmes capables de naviguer dans la complexité et la subjectivité de la morale. De tels systèmes devront intégrer une multitude de perspectives culturelles, sociales et philosophiques — un standard que beaucoup jugent peut-être inatteignable.

Malgré ces défis, l’investissement d’OpenAI dans ce domaine montre un intérêt croissant pour l’intégration de considérations éthiques dans le développement de l’IA. Reste à savoir si cette initiative aboutira à des avancées significatives ou si elle mettra simplement en évidence les limites des technologies actuelles dans leur capacité à saisir la morale humaine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Quitter la version mobile