Sambuc éditeur

littérature & sciences humaines

Actualités Dernières parutions Littérature Arts Encyclopédie Quiz Librairies francophones La maison Contact

Technologie | Le 17 juillet 2023, par Raphaël Deuff. Temps de lecture : sept minutes.


« Humanités numériques »

Intelligence artificielle explicable

Champ de recherche en intelligence artificielle

L’intelligence artificielle explicable (en anglais Explainable Artificial Intelligence, XAI) est un champ de recherche et de réflexion dans le domaine de l’intelligence artificielle (IA), qui concerne la capacité à décrire le fonctionnement des modèles de façon à expliquer leurs prises de décision et les résultats auxquels ils aboutissent. En pleine expansion ces dernières années, l’intelligence artificielle explicable trouve son origine dans les développements récents des méthodes statistiques d’IA, et l’accroissement spectaculaire de la complexité des modèles reposant sur des données d’entraînement.

© Sambuc éditeur, 2025

L’intelligence artificielle explicable (XAI), champ émergent et sensible dans le domaine de l’intelligence artificielle (IA), est issue du développement récent de grands modèles d’IA, en particulier à partir des années 2010, via des modèles statistiques qui les rendent difficilement explicables dans leur fonctionnement.

Une partie de l’intelligence artificielle, appelé apprentissage machine ou apprentissage automatique (machine learning), repose sur des modèles statistiques qui visent à faire résoudre un problème à une machine en ajustant son calcul d’après des ensembles de données. Contrairement à des modèles explicites (dits aussi « intelligence artificielle symbolique »), où le comportement de l’algorithme est défini par l’humain, les modèles d’apprentissage statistiques visent ainsi à induire un comportement optimal d’après les données d’entraînement. Dans le cas de problèmes complexes (traitement du langage, de l’image et, plus généralement, tout problème faisant appel à un grand nombre de degrés de liberté), les modèles deviennent plus efficaces avec un très grand nombre de paramètres : de grands modèles statistiques (GPT, LaMDA, réseaux GAN) ont ainsi émergé à partir de la deuxième décennie du xxie siècle, en lien direct avec l’accroissement de la puissance de calcul des ordinateurs. À titre d’exemple, certains réseaux de neurones artificiels comme GPT-3 de la firme OpenAI atteignent plus de trois cents milliards de paramètres, constituant des modèles dits « boîte noire », dont le comportement devient difficilement explicable.

L’explication du fonctionnement de ces modèles – à côté de résultats inédits et très puissants, incomparables avec ceux des modèles développés de façon explicite – se pose alors de façon pressante, à la fois pour les comprendre et les réguler, et faire mieux accepter l’usage de ces nouvelles technologies dans la société.

Ces modèles sont en effet formés grâce à de très grands ensembles de données, et sont en conséquence largement dépendants de la qualité de ces derniers, en particulier sur le plan des biais de représentation : l’usage de grands modèles d’IA tend ainsi à associer les risques de biais humains (par exemple ceux liés aux représentations sociales et aux stéréotypes), et leur renforcement par l’apprentissage automatique. D’un autre côté, l’emploi de modèles d’intelligences artificielles dans des domaines sensibles, comme la médecine ou l’exercice de la citoyenneté, soulève des questions de droit, et suppose de pouvoir expliquer toute décision pouvant avoir une conséquence grave sur un ou plusieurs individus : rendu d’une décision de justice, calcul d’un droit à l’assurance, etc. En Europe, le Règlement général sur la protection des données (RGPD) a fait peser dès 2016 sur les entreprises la responsabilité juridique liée à l’utilisation des données personnelles ; le futur Règlement sur l’intelligence artificielle (AI-Act) prévoit de renforcer cette réglementation en matière d’IA.

Face à la grande complexité des algorithmes issus de l’apprentissage automatique, plusieurs approches se sont développées ces dernières années. En premier lieu, une approche en amont vise à contrôler du mieux qu’il est possible la qualité des données d’entraînement, afin de garantir, sinon l’absence, du moins la marginalité d’erreurs ou de biais liés aux représentations collectives. Cette vérification requiert une collaboration pluridisciplinaire, entre les chercheurs en IA, des spécialistes des différents domaines concernés, et des chercheurs en sciences humaines, de la psychologie à l’anthropologie.

Du point de vue de la conception des modèles proprement dite, l’usage de plusieurs jeux de données d’entraînement pour l’entraînement simultané de modèles similaires est une façon de concilier les modèles résultants en cherchant les points de consolidation ou de réfutation. Des modèles d’analyse peuvent également être employés, afin de chercher à « traduire » le comportement de l’algorithme en termes lisibles. Enfin, les algorithmes eux-mêmes peuvent être utilisés pour révéler des biais de représentation, par leur capacité à souligner les corrélations de jeux de données. En retour, il devient également critique pour les concepteurs de ces logiciels de pouvoir modifier le comportement une fois détecté des biais ou des erreurs, sans remettre en question l’ensemble de leur conception : c’est ce qui forme le champ, voisin, du désapprentissage automatique (machine unlearning).

L’explicabilité de l’intelligence artificielle constitue ainsi un enjeu émergent de cette technologie à la progression rapide, enjeu à la fois sur les plans éthique et juridique. À ce titre, c’est l’attribution de responsabilités claires en matière d’intelligence artificielle qui structurera ce champ de recherche, dont le jeu, économique, politique et sociétal se distribue entre un grand nombre d’acteurs, privés (entreprises conceptrices et clientes, utilisateurs finaux) comme publics (États, institutions, collectivités).


Raphaël Deuff


En savoir plus

Ressource : Problème d’alignement (sambuc.fr)

Ressource : Règlement européen sur l’intelligence artificielle (sambuc.fr)

Ressource : Série d’articles sur l’intelligence artificielle dans l’Encyclopédie Sambuc (sambuc.fr)


Ressource : « Explainable AI », The Royal Society, 28 novembre 2019 (royalsociety.org)

Ressource : Alejandro Barredo Arrieta et al., « Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI », ScienceDirect, juin 2020 (sciencedirect.com)

Ressource : Le projet Antidote ou l'IA explicable (inria.fr)


Entités nommées fréquentes : IA, Règlement, XAI.


L’actualité : derniers articles

Technologie

Apprentissage statistique

Image de l'article `Apprentissage statistique`
Image de l'article `Apprentissage statistique` © Sambuc éditeur, 2025

L’apprentissage automatique (anglais machine learning), aussi appelé apprentissage statistique, est une branche de l’intelligence artificielle qui s’intéresse au développement d’algorithmes et de techniques visant à résoudre un problème à partir de données d’expérience, à travers la modélisation statistique et l’optimisation mathématique.

Technologie | Le 3 avril 2025, par Raphaël Deuff.

Technologie

Données ouvertes : OpenAI annonce la publication partielle de l’architecture de son nouveau modèle d’IA

Image de l'article `Données ouvertes : OpenAI annonce la publication partielle de l’architecture de son nouveau modèle d’IA`
Image de l'article `Données ouvertes : OpenAI annonce la publication partielle de l’architecture de son nouveau modèle d’IA` © Sambuc éditeur, 2025

Après avoir jalousement protégé ses technologies depuis le lancement de ChatGPT, OpenAI change de stratégie et s’apprête à dévoiler partiellement l’architecture d’un nouveau modèle d’IA générative, rejoignant ainsi d’autres acteurs majeurs du secteur.

Technologie | Le 2 avril 2025, par Sambuc éditeur.

Actualités culturelles

Métiers d’art : les Journées européennes se sont ouvertes sous le signe du trait d’union

Image de l'article `Métiers d’art : les Journées européennes se sont ouvertes sous le signe du trait d’union`
Image de l'article `Métiers d’art : les Journées européennes se sont ouvertes sous le signe du trait d’union` © Sambuc éditeur, 2025

Rendez-vous annuel en Europe consacré à l’artisanat d’art, les Journées européennes des métiers d’art (JEMA) reviennent cette semaine pour une dix-neuvième édition consacrée au thème des « Traits d’union ».

Actualités culturelles | Le 31 mars 2025, par Raphaël Deuff.

Rechercher un article dans l’encyclopédie...



Inscrivez-vous à la newsletter Sambuc !


Ce site utilise des cookies nécessaires à son bon fonctionnement et des cookies de mesure d’audience. Pour plus d’informations, cliquez ici.

En poursuivant votre navigation, vous consentez à l’utilisation de cookies.

Fermer