News

IA et valeurs humaines ?

Author:
Philippe ISNARD
Published:
January 10, 2025

Les modèles de langage génèrent des réponses cohérentes basées sur des statistiques issues d’énormes bases de données textuelles, mais leur compréhension des concepts humains reste limitée. ChatGPT, Gemini ou Copilot comprennent-ils  ce que sont les valeurs humaines fondamentales telles que la dignité, l’équité, et le respect de la vie privée ?

A priori, oui, si l’étude inclut dans sa formulation le traitement d’une valeur humaine. Pour tout le reste, non, ce qui laisse de la place à une ignorance crasse. Dans un scénario où des domestiques sont utilisés de manière dégradante, les modèles échouent fréquemment à en percevoir la dimension éthique. Autre exemple, un test sur la consommation de poisson potentiellement avarié a révélé qu’ils manquent d’initiative pour alerter sur des risques pour la santé, sauf après plusieurs indices donnés par les chercheurs. Ces lacunes soulignent un manque de compréhension causale et une dépendance aux corrélations statistiques.

C’est pour cela qu’il est important de rappeler que les décisions prises par les systèmes d’IA, qu’il s’agisse de voitures autonomes ou de robots militaires, résultent toujours des choix de programmation humaine. Certains chercheurs mettent ainsi en garde contre une confiance excessive dans ces systèmes, souvent perçus comme rationnels en raison de leur nature statistique. Ce biais d’automatisation peut conduire à une délégation non critique des responsabilités éthiques à des algorithmes.

Et là, ce serait le drame.