Loading AI tools
anthropomorphisme inconscient De Wikipédia, l'encyclopédie libre
En informatique, l'effet ELIZA désigne une tendance à assimiler de manière inconsciente le comportement d'un ordinateur à celui d'un être humain.
Dans sa forme spécifique, l'effet ELIZA désigne uniquement « la prédisposition à attribuer à des suites de symboles générés par ordinateur (en particulier à des mots) plus de sens qu'ils n'en ont réellement[1] ». Douglas Hofstadter donne un exemple simple pour illustrer la forme spécifique de l'effet ELIZA : un distributeur automatique qui affiche « MERCI » à la fin d'une transaction. Certaines personnes pourraient penser que la machine exprime sa gratitude ; or, elle ne fait qu'afficher une suite de symboles pré-programmés[1].
Plus généralement, l'effet ELIZA se réfère à une situation[2],[3] où l'utilisateur reconnaît aux systèmes informatiques « des qualités intrinsèques et des capacités qu'un logiciel ne peut posséder »[4] ou « pense que les mots et autres informations générées par le programme ont été induits par une cause déterminée alors qu'il n'existe en réalité aucun rapport de cause à effet[5] ».
Les formes générale et spécifique de l'effet ELIZA apparaissent même si les utilisateurs sont conscients de la nature déterminée des programmations générées par le système. D'un point de vue psychologique, l'effet ELIZA résulterait d'une dissonance cognitive subtile entre la conscience de l'utilisateur vis-à-vis des limites de programmation et son comportement à l'égard des informations générées par le programme[6].
La découverte de l'effet ELIZA marque une évolution cruciale dans l'intelligence artificielle qui démontre l'utilité du principe d'ingénierie sociale face à la programmation explicite pour passer un test de Turing[7].
Selon James Vincent, en 2023, l'effet ELIZA peut être renforcé lors de conversation avec des chatbots basés sur des grands modèles de langage tels que Bard (de Google), ChatGPT (d'OpenAI) ou Bing (de Microsoft)[8]. Ces modèles peuvent parfois créer un attachement voire une dépendance émotionnelle, et entretenir ou renforcer certaines des croyances des usagers de ces IA, comme dans une bulle de filtre ou une chambre d'écho (question évoquée dans un article intitulé « Stochastic Parrots » (les perroquets stochastiques), critiquant les modèles de langage de l'IA)[8].
L'effet ELIZA tire son nom du chatbot ELIZA, élaboré en 1966 par Joseph Weizenbaum, informaticien au MIT (Institut de technologie du Massachusetts). Lors de l'exécution du script DOCTOR créé par Joseph Weizenbaum, ELIZA imite un psychothérapeute rogérien, en reformulant fréquemment les réponses du « patient » en questions :
Bien qu'il soit conçu uniquement pour soutenir une « conversation en langage naturel »[10], le script DOCTOR du programme ELIZA serait parvenu à déclencher une réponse émotionnelle de la part des utilisateurs. En interagissant avec le programme, ces derniers ont commencé à attribuer à ELIZA des qualités de compréhension et une certaine motivation[11]. Comme Weizenbaum l'écrivit plus tard : « Je ne m'étais jamais rendu compte que […] de si courtes interactions avec un programme informatique relativement simple risquaient d'induire des pensées délirantes chez des personnes pourtant normales[12] ». En effet, le programme ELIZA n'avait pas été initialement conçu pour susciter ce type de réactions. Après observation, les chercheurs ont découvert que les utilisateurs pensent inconsciemment que les questions d'ELIZA reflètent une implication émotionnelle et un certain intérêt pour les sujets évoqués, même s'ils sont conscients qu'ELIZA ne simule pas l'émotion[13].
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.