Il y a 75 ans, le pionnier de l’informatique Alan Turing suggérait qu’on pourrait considérer une machine comme intelligente le jour où, en dialoguant par écrit avec elle pendant quelques minutes, on serait incapable de déterminer s’il s’agit d’un humain ou d’une machine. Aujourd’hui, on peut considérer que les grands modèles de langage (LLM : large language models) disponibles pour le public tels que ChatGPT réussissent le test de Turing. Peut-on pour autant les considérer comme intelligents ?Le problème du test de Turing est qu’il valorise excessivement la capacité à produire du langage. Or nous sommes facilement trompés par les