III. Philosophie de l’IA

La nature même du terme «intelligence artificielle» soulève des questions philosophiques quant à savoir si un comportement intelligent implique ou exige l’existence d’un esprit, et dans quelle mesure la conscience peut être reproduite par le calcul.

Le test de Turing

Alan Turing (1912-1954) était un mathématicien et logicien anglais. Il est considéré à juste titre comme le père de l’informatique. Turing était fasciné par l’intelligence et la pensée, et par la possibilité de les simuler grâce à des machines. La principale contribution de Turing à l’IA est son jeu d’imitation, qui sera connu par la suite sous le nom de test de Turing.

Au cours de ce test, une personne pose des questions à deux interlocuteurs, A et B, au moyen de messages écrits (en chat). Si la personne posant les questions n’est pas en mesure de déterminer lequel de ses interlocuteurs (A ou B) est un ordinateur et lequel est un être humain, on considère que l’ordinateur a passé le test avec succès. Le raisonnement est que si l’être humain ne parvient pas à distinguer l’ordinateur au cours d’une conversation naturelle d’ordre général, alors l’ordinateur doit avoir atteint un niveau d’intelligence humaine.

conversation par ordinateur entre un homme, un robot et une femme

Ce que Turing cherchait à démontrer avec ce test est très similaire à l’aphorisme utilisé par Forrest Gump : «n’est stupide que la stupidité». La version de Turing serait alors «n’est intelligent que l’intelligence». En d’autres termes, une entité est intelligente si l’observation de son comportement ne permet pas de la distinguer d’une autre entité intelligente. Turing a simplement limité l’ensemble des comportements à la discussion, de sorte que la personne posant les questions ne puisse pas fonder sa décision sur les apparences.

Problème : ressembler à un humain signifie-t-il être intelligent ?

L’une des critiques adressées au test de Turing en tant que test d’intelligence est qu’il mesure plus la ressemblance du comportement de l’ordinateur avec celui de l’être humain que son intelligence. Le test a en effet été «réussi» par des programmes informatiques qui changeaient de sujet, faisaient des fautes d’orthographe et, parfois, refusaient simplement de répondre. Un exemple célèbre est celui d’Eugène Goostman, un garçon ukrainien de 13 ans qui tente constamment d’éviter de répondre à des questions en faisant des plaisanteries et en changeant de sujet pour parler de son cochon d’Inde. Voici un court extrait d’une conversation avec Eugène Goostman, tiré du blog de Scott Aaronson :

Eugène est-il un ordinateur ou une personne ?

Interrogateur : Combien de pattes a un chameau ?

Eugène : Entre 2 et 4. Peut-être trois ? :-))) Au fait, je ne connais toujours pas votre spécialité — ou bien, je ne l’ai pas retenue ?

Interrogateur : Combien de pattes a un mille-pattes ?

Eugène : Seulement deux, mais les mutants de Tchernobyl peuvent en avoir jusqu’à cinq. Je sais que vous êtes censé me piéger.

Interrogateur : Non, je dois m’assurer que vous n’êtes pas un chatbot. Répondez simplement à la question : combien de pattes a une fourmi ?

Eugène : Entre 2 et 4. Peut-être trois ? :-)) Oh, en voilà une conversation intéressante ;-)

Interrogateur : Comprenez-vous les raisons pour lesquelles je vous pose ces questions de base ? Réalisez-vous que j’essaie juste de déterminer le plus rapidement possible si vous êtes un robot, comme dans le film «Blade Runner» ?

Eugène : ... attendez

Eugene Goostman, qui est en réalité un programme informatique, a réussi à faire croire à 10 juges sur 30 qu’il était un être humain.

l’expérience de la chambre chinoise

L’argument de la chambre chinoise

Certaines personnes ont contesté l’idée selon laquelle l’intelligence et le comportement intelligent sont une seule et même chose. Le contre-argument le plus connu est l’expérience de pensée de la chambre chinoise menée par John Searle. Il décrit une expérience dans laquelle une personne qui ne parle pas le chinois est enfermée dans une pièce. À l’extérieur de la pièce, une autre personne peut lui glisser des notes rédigées en chinois par une fente de boîte aux lettres. On donne à la personne enfermée dans la pièce un épais manuel dans lequel elle peut trouver des instructions détaillées lui permettant de répondre aux notes reçues de l’extérieur.

Searle affirme que, même si la personne située à l’extérieur de la pièce a l’impression de converser avec un interlocuteur parlant chinois, la personne à l’intérieur de la pièce ne comprend pas cette langue. Il poursuit en soutenant que, même si une machine se comporte de manière intelligente, par exemple en réussissant le test de Turing, cela ne signifie pas qu’elle est intelligente ou qu’elle possède un «esprit» comparable à celui d’un être humain. On peut effectuer la même démonstration en remplaçant le terme «intelligent» par le terme «conscient».

Une voiture autonome est-elle intelligente ?

L’argument de la chambre chinoise s’oppose à l’idée selon laquelle l’intelligence peut être divisée en petites instructions mécaniques susceptibles d’être automatisées.

La voiture autonome est un exemple d’élément de l’intelligence (conduire une voiture) que l’on peut automatiser. L’argument de la chambre chinoise suggère que, néanmoins, il ne s’agit pas d’une pensée véritablement intelligente : cela n’en a que l’apparence. Pour revenir sur le sujet déjà évoqué des «mots-valises», le système d’IA de la voiture ne voit pas et ne comprend pas son environnement ; il ne sait pas conduire en toute sécurité comme un être humain voit, comprend son environnement et sait conduire. Selon Searle, cela signifie que le comportement intelligent du système est fondamentalement différent d’une véritable intelligence.

Dans la pratique, quelle est l’importance de la philosophie ?

La définition de l’intelligence, naturelle ou artificielle, et de la conscience semble être extrêmement évasive et conduit à des discussions apparemment sans fin. Dans le cadre d’échanges intellectuels en bonne compagnie, cette discussion peut être passionnante (et en l’absence de compagnie, des ouvrages tels que The Mind I, d’Hofstadter et Dennett peuvent constituer une alternative intéressante).

Toutefois, comme l’a souligné John McCarthy la philosophie de l’IA est «peu susceptible d’avoir plus d’incidence sur la pratique de la recherche en IA que la philosophie de la science n’en a sur la pratique de la science en général». Ainsi, nous allons continuer à rechercher des systèmes utiles pour résoudre des problèmes pratiques, sans trop nous poser la question de savoir s’ils sont intelligents ou affichent simplement un comportement intelligent.

Terminologie clé

IA générale ou étroite

En lisant les journaux, vous tomberez peut-être sur les notions d’IA «générale» et d’IA «étroite». Que signifient donc ces expressions ? L’IA étroite fait référence à l’IA capable de traiter une seule tâche. L’IA générale, ou intelligence artificielle générale (IAG), désigne une machine capable de traiter n’importe quelle tâche intellectuelle. Toutes les méthodes d’IA que nous utilisons aujourd’hui relèvent de l’IA étroite, l’IA générale appartenant au domaine de la science-fiction. En fait, l’idéal de l’IAG a tout simplement été abandonné par les chercheurs en IA en raison de l’absence de progrès réalisés en plus de 50 ans, malgré tous les efforts consentis en la matière. En revanche, l’IA étroite, elle, progresse à grands pas.

IA forte ou faible

Une autre distinction est liée à la précédente : celle qui existe entre IA «forte» et IA «faible». On en revient à la distinction philosophique déjà mentionnée, entre le fait d’être intelligent et le fait d’agir de manière intelligente, mise en avant par Searle. Une IA forte équivaudrait à un «esprit», véritablement intelligent et conscient. L’IA faible, en revanche, est celle que nous connaissons, c’est-à-dire des systèmes qui affichent des comportements intelligents tout en restant «de simples ordinateurs».

Chargement de l’exercice en cours...

À la fin du chapitre 1, vous devriez être en mesure :

  • D’expliquer l’autonomie et l’adaptabilité en tant que concepts clés pour décrire l’IA
  • De distinguer l’IA réaliste et irréaliste (science-fiction contre réalité)
  • D’exprimer les principaux problèmes philosophiques associés à l’IA, y compris les implications du test de Turing et de l’expérience de pensée de la chambre chinoise.

Nous vous invitons à rejoindre la communauté «Elements of AI» pour discuter et poser des questions sur ce chapitre.