A humanoid robot

L’algorithme SIFT, développé et breveté par Lowe, décompose les images en de nombreuses petites tranches de caractéristiques qui se chevauchent. Chaque tranche est ensuite juxtaposée individuellement les unes aux autres, et les tranches correspondantes sont réunies. S’il y a suffisamment de correspondances entre l’objet et l’image, l’objet visualisé est alors dessiné et orienté sur la carte du robot, continuellement mise à jour. Tout cela se fait en moins d’une seconde.

Cela permet la reconnaissance et la localisation de plusieurs objets dans des environnements changeants, une technologie globale intégrée dans de nombreux systèmes robotiques visuels. La réalisation est l’autonomie avec des paramètres contraints.

Plus la technologie évolue, plus l’existence des robots devient réelle. Mais, puisque les robots acquiescent à l’idée d’autonomie, peut-on encore dire qu’ils sont intelligents ? C’est une question valable, puisque l’intelligence peut être présente sans la présence de l’autonomie (par exemple, Christopher Reeves). Une autre question pertinente est de savoir si, même avec une autonomie totale, on peut les qualifier d’intelligents.

Ces questions appellent une clarification de la signification de l’intelligence, permettant ainsi de disposer de critères pour la mesurer. Une interrogation des définitions du dictionnaire signifie que les entités intelligentes ont une affinité pour la connaissance, pour la comprendre et pour résoudre des problèmes par le biais de la cognition. Cela implique l’autonomie, car une chose doit avoir la capacité de stocker des informations (affinité pour la connaissance, pour être utilisée dans l’apprentissage) et de surmonter les obstacles dans un environnement imprévisible (résolution de problèmes par la cognition). La compréhension est un aspect particulier, comme nous le verrons.

Alan Turing pensait la même chose vers les années 1950, ayant développé son « Turing Test » : un test de quotient intellectuel (test de QI), mais pour les ordinateurs. Turing pensait que, si son ordinateur pouvait tromper un concurrent humain en lui faisant croire qu’il était humain – un jeu de questions et réponses – alors il était intelligent.

Une simplification excessive, cependant. En comparaison, les tests de QI actuels pour les humains qui sont des jauges d’intelligence valables innervent un ensemble de « capacités cognitives », comme le raisonnement analytique, la conscience spatiale, la capacité verbale, etc. Les psychométriciens ont mesuré avec succès plus de soixante-dix de ces capacités. Robert Sternberg (professeur IBM de psychologie et d’éducation à l’université de Yale) a ramené ce nombre à trois : analytique, créatif et pratique.

Ces capacités sont considérées comme faisant partie de systèmes interconnectés qui constituent l’intelligence. Bien sûr, ce sont des métaphores qui planent sur leurs régions cérébrales respectives.
Ensemble, elles représentent un large éventail de puissance intellectuelle, comme le raisonnement mathématique, la recherche de solutions à de nouveaux problèmes, l’écriture créative, la prise de décisions rapides ayant des implications futures durables, etc. Ils dictent l’essence de la pensée intelligente. Le test de Turing est tout au plus un test d’un programme de manière sensiblement compartimentée.

Si l’on considère ces capacités cognitives comme la force motrice de la pensée humaine, en ajoutant la nécessité d’une structure physique comme un cerveau ou un ganglion pour traiter l’information, on obtient l’intelligence comme, incontestablement, « une chose physique qui a la capacité d’apprendre et de comprendre des connaissances en exerçant un ensemble de capacités cognitives qui permettent d’acquérir des connaissances ».

Avec l’inadéquation du test de Turing, il existe la possibilité d’administrer des tests de QI communs aux ordinateurs, comme le SAT, le GMAT, le GRE, etc. S’ils réussissaient, dirions-nous qu’ils sont intelligents par définition ? Après tout, le matériel d’un ordinateur et son programme sont étonnamment similaires à la relation entre les corps physiques et l’ADN.

Bien que le QRIO ou le EMIEW puissent passer, il y a quelques problèmes. Un aspect qui définit l’intelligence, peut-être le plus important, est qu’une chose doit « comprendre », ce qui est difficile pour une entité composée de morceaux de plastique.
L’analogie de la salle chinoise du professeur John R. Searle, tirée de son article de 1980 intitulé « Minds, Brains, and Programs », illustre ce point. Un ordinateur ne s’intéresse pas à la signification des choses – la sémantique – mais seulement à la manipulation de représentations symboliques, comme « si x, alors sortie z… ». Ce que « x » et « z » signifient réellement n’est pas pertinent.

Prenez le mot « mort ». Les données de Star Trek peuvent nous indiquer que le mot « mort » est un nom, qu’il a cinq lettres et sa signification dans le dictionnaire. Cependant, comme il manque d’émotions, il ne peut pas comprendre comme le fait un humain. Si le capitaine Picard était assassiné en sa présence, il n’aurait pas une réaction banale. Pour les sensibles, contrairement à Data, la mort a une série de tags émotionnels/perceptifs, comme la tristesse, la peur, les visages des membres de la famille qui ont péri, etc. Ces tags permettent de comprendre des concepts, comme la mort : des tags qu’un robot n’a pas.

Outre la compréhension, les émotions sont considérées comme un précurseur important pour d’autres processus intellectuels, car elles contribuent à la fois à la motivation et à la temporalité de la pensée, comme la ruée après avoir résolu un problème de mathématiques (acquisition d’un objectif) ou le souvenir d’une période de bonheur élevé.

Comme les émotions soutiennent la motivation, en contribuant à la définition des objectifs, elles sont impératives dans la capacité des personnes à planifier et à prendre des décisions : nécessairement liées à l’autonomie. La temporalité a également une fonction importante dans la planification et la prise de décision. Cependant, la temporalité dans la pensée est aussi un produit de la conscience.
Difficile à tester, mais le consensus est que les ordinateurs n’ont pas cet attribut important et manquent donc de conscience de soi.

LEAVE A REPLY

Please enter your comment!
Please enter your name here