Alan Turing (1912-1954) était un mathématicien et logicien anglais. Il est considéré à juste titre comme le père de l’informatique. Turing était fasciné par l’intelligence et la pensée, et par la possibilité de les simuler grâce à des machines. La principale contribution de Turing à l’IA est son jeu d’imitation, qui sera connu par la suite sous le nom de test de Turing.
Au cours de ce test, une personne pose des questions à deux interlocuteurs, A et B, au moyen de messages écrits (en chat). Si la personne posant les questions n’est pas en mesure de déterminer lequel de ses interlocuteurs (A ou B) est un ordinateur et lequel est un être humain, on considère que l’ordinateur a passé le test avec succès. Le raisonnement est que si l’être humain ne parvient pas à distinguer l’ordinateur au cours d’une conversation naturelle d’ordre général, alors l’ordinateur doit avoir atteint un niveau d’intelligence humaine.
Ce que Turing cherchait à démontrer avec ce test est très similaire à l’aphorisme utilisé par Forrest Gump : «n’est stupide que la stupidité». La version de Turing serait alors «n’est intelligent que l’intelligence». En d’autres termes, une entité est intelligente si l’observation de son comportement ne permet pas de la distinguer d’une autre entité intelligente. Turing a simplement limité l’ensemble des comportements à la discussion, de sorte que la personne posant les questions ne puisse pas fonder sa décision sur les apparences.
L’une des critiques adressées au test de Turing en tant que test d’intelligence est qu’il mesure plus la ressemblance du comportement de l’ordinateur avec celui de l’être humain que son intelligence. Le test a en effet été «réussi» par des programmes informatiques qui changeaient de sujet, faisaient des fautes d’orthographe et, parfois, refusaient simplement de répondre. Un exemple célèbre est celui d’Eugène Goostman, un garçon ukrainien de 13 ans qui tente constamment d’éviter de répondre à des questions en faisant des plaisanteries et en changeant de sujet pour parler de son cochon d’Inde. Voici un court extrait d’une conversation avec Eugène Goostman, tiré du blog de Scott Aaronson :
Interrogateur : Combien de pattes a un chameau ?
Eugène : Entre 2 et 4. Peut-être trois ? :-))) Au fait, je ne connais toujours pas votre spécialité — ou bien, je ne l’ai pas retenue ?
Interrogateur : Combien de pattes a un mille-pattes ?
Eugène : Seulement deux, mais les mutants de Tchernobyl peuvent en avoir jusqu’à cinq. Je sais que vous êtes censé me piéger.
Interrogateur : Non, je dois m’assurer que vous n’êtes pas un chatbot. Répondez simplement à la question : combien de pattes a une fourmi ?
Eugène : Entre 2 et 4. Peut-être trois ? :-)) Oh, en voilà une conversation intéressante ;-)
Interrogateur : Comprenez-vous les raisons pour lesquelles je vous pose ces questions de base ? Réalisez-vous que j’essaie juste de déterminer le plus rapidement possible si vous êtes un robot, comme dans le film «Blade Runner» ?
Eugène : ... attendez
Eugene Goostman, qui est en réalité un programme informatique, a réussi à faire croire à 10 juges sur 30 qu’il était un être humain.
Certaines personnes ont contesté l’idée selon laquelle l’intelligence et le comportement intelligent sont une seule et même chose. Le contre-argument le plus connu est l’expérience de pensée de la chambre chinoise menée par John Searle. Il décrit une expérience dans laquelle une personne qui ne parle pas le chinois est enfermée dans une pièce. À l’extérieur de la pièce, une autre personne peut lui glisser des notes rédigées en chinois par une fente de boîte aux lettres. On donne à la personne enfermée dans la pièce un épais manuel dans lequel elle peut trouver des instructions détaillées lui permettant de répondre aux notes reçues de l’extérieur.
Searle affirme que, même si la personne située à l’extérieur de la pièce a l’impression de converser avec un interlocuteur parlant chinois, la personne à l’intérieur de la pièce ne comprend pas cette langue. Il poursuit en soutenant que, même si une machine se comporte de manière intelligente, par exemple en réussissant le test de Turing, cela ne signifie pas qu’elle est intelligente ou qu’elle possède un «esprit» comparable à celui d’un être humain. On peut effectuer la même démonstration en remplaçant le terme «intelligent» par le terme «conscient».
L’argument de la chambre chinoise s’oppose à l’idée selon laquelle l’intelligence peut être divisée en petites instructions mécaniques susceptibles d’être automatisées.
La voiture autonome est un exemple d’élément de l’intelligence (conduire une voiture) que l’on peut automatiser. L’argument de la chambre chinoise suggère que, néanmoins, il ne s’agit pas d’une pensée véritablement intelligente : cela n’en a que l’apparence. Pour revenir sur le sujet déjà évoqué des «mots-valises», le système d’IA de la voiture ne voit pas et ne comprend pas son environnement ; il ne sait pas conduire en toute sécurité comme un être humain voit, comprend son environnement et sait conduire. Selon Searle, cela signifie que le comportement intelligent du système est fondamentalement différent d’une véritable intelligence.
La définition de l’intelligence, naturelle ou artificielle, et de la conscience semble être extrêmement évasive et conduit à des discussions apparemment sans fin. Dans le cadre d’échanges intellectuels en bonne compagnie, cette discussion peut être passionnante (et en l’absence de compagnie, des ouvrages tels que The Mind I, d’Hofstadter et Dennett peuvent constituer une alternative intéressante).
Toutefois, comme l’a souligné John McCarthy la philosophie de l’IA est «peu susceptible d’avoir plus d’incidence sur la pratique de la recherche en IA que la philosophie de la science n’en a sur la pratique de la science en général». Ainsi, nous allons continuer à rechercher des systèmes utiles pour résoudre des problèmes pratiques, sans trop nous poser la question de savoir s’ils sont intelligents ou affichent simplement un comportement intelligent.
Terminologie clé
En lisant les journaux, vous tomberez peut-être sur les notions d’IA «générale» et d’IA «étroite». Que signifient donc ces expressions ? L’IA étroite fait référence à l’IA capable de traiter une seule tâche. L’IA générale, ou intelligence artificielle générale (IAG), désigne une machine capable de traiter n’importe quelle tâche intellectuelle. Toutes les méthodes d’IA que nous utilisons aujourd’hui relèvent de l’IA étroite, l’IA générale appartenant au domaine de la science-fiction. En fait, l’idéal de l’IAG a tout simplement été abandonné par les chercheurs en IA en raison de l’absence de progrès réalisés en plus de 50 ans, malgré tous les efforts consentis en la matière. En revanche, l’IA étroite, elle, progresse à grands pas.
Une autre distinction est liée à la précédente : celle qui existe entre IA «forte» et IA «faible». On en revient à la distinction philosophique déjà mentionnée, entre le fait d’être intelligent et le fait d’agir de manière intelligente, mise en avant par Searle. Une IA forte équivaudrait à un «esprit», véritablement intelligent et conscient. L’IA faible, en revanche, est celle que nous connaissons, c’est-à-dire des systèmes qui affichent des comportements intelligents tout en restant «de simples ordinateurs».