Technologie | Le 21 octobre 2021, par Sambuc éditeur. Temps de lecture : quatre minutes.
littérature & sciences humaines
Technologie | Le 21 octobre 2021, par Sambuc éditeur. Temps de lecture : quatre minutes.
Intelligence artificielle
Dans le domaine de l’intelligence artificielle, le problème dit « d’alignement » (alignment problem) désigne l’ensemble des questions techniques et éthiques soulevées par le rapport d’un programme d’intelligence artificielle, et de ses résultats, avec les valeurs, les attentes et les préférences humaines. Il s’agit notamment, pour le développeur, de s’assurer que le programme conçu agit et produit des résultats conformes à ce qu’attendrait un être humain sur des tâches similaires. La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles d’intelligence artificielle.
Le problème d’alignement représente, dans une certaine mesure, un paradoxe : les mathématiciens ont en effet, dès les débuts de cette discipline au milieu du xxe siècle, cherché à construire l’intelligence artificielle « à l’image de l’homme ». Or cet enjeu s’est révélé extrêmement complexe, comme l’ont révélé, dans le domaine du langage, les débuts de la traduction automatique dans les années 1980.
Aujourd’hui encore, le problème d’alignement se pose de façon insistante, en particulier pour les entreprises qui se proposent de développer des intelligences artificielles dites « générales » ou « fortes », impliquées dans des tâches complexes comme la conduite de véhicules autonomes, ou ayant une porté éthique, comme dans la génération en langage naturel (enjeux de désinformation ou fake news, notamment). De nombreuses approches existent – suivi évolutif, modèles antagonistes – qui cherchent à limiter la divergence qui apparaît entre la spécification conçue par l’équipe de développement, et le comportement émergent du modèle développé. Une des approches les plus utilisées aujourd’hui est celle de l’apprentissage par renforcement, qui consiste, dans les cas où cela est praticable, à faire évaluer par un humain les résultats du modèle d’intelligence artificielle, de façon à le corriger par une sorte de « système de récompense » au fil d’une succession d’essais et d’erreurs.
De façon plus générale, le problème d’alignement se rapporte à la question du contrôle, de la compréhension et de la prévision des comportements de l’intelligence artificielle, impliquant aussi bien des solutions d’ingénierie que des questions éthiques.
Sambuc éditeur
Volodymyr Mnih, Koray Kavukcuoglu, et al., « Human-level control through deep reinforcement learning », Nature, vol. 518, p. 529–533 (2015).
Md Sultan Al Nahian, Spencer Frazier, Brent Harrison et Mark Riedl, « Training Value-Aligned Reinforcement Learning Agents Using a Normative Prior », arXiv, publication soumise le 19 avril 2021 (arxiv.org).
Ressource : Santé, sécurité, liberté : où est la priorité ? – France Culture (radiofrance.fr).
Ressource : Isaac Asimov, I, Robot, Boston, Gnome Press, 1950. Premier volume de la suite Robot series (Le Cycle des robots), 1940-1995.
Ressource : Brian Christian, The Alignment Problem: Machine Learning and Human Values, New York, W. W. Norton, 2020.
Ressource : Brian Christian et Tom Griffiths, Algorithms to Live By, New York, Henry Holt, 2016 ; éd. française : Penser en algorithmes, Lausanne, Presses Polytechniques et Universitaires Romandes, 2019.
Ressource : Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, New York, Crown, 2016 ; éd. française : Algorithmes : la bombe à retardement, Paris, Les Arènes, 2018.
Entités nommées fréquentes : Brian Christian, New York.
Politique et institutions | Le 14 novembre 2024, par Urbanitas.fr.
Rechercher un article dans l’encyclopédie...