Test de Turing, mesurer la menace de l’IA : sauvez-nous de nos seigneurs robotiques

Les tests de Turing sont souvent mentionnés par les auteurs de science-fiction et ceux qui s’intéressent aux menaces de l’intelligence artificielle (IA) très avancée.

Mais il y a vraiment quelque chose qui s’appelle le test de Turing, que je couvre ci-dessous, mais d’abord, il est important de comprendre de quoi nous parlons au niveau logiciel.

Qu’est-ce que l’IA ?

L’intelligence artificielle (IA) est une branche de l’informatique qui traite de la création d’agents intelligents, qui sont des systèmes capables de raisonner, d’apprendre et d’agir de manière autonome. L’IA a le potentiel de révolutionner de nombreux aspects de nos vies, de la façon dont nous travaillons à la façon dont nous interagissons avec le monde qui nous entoure.

MENACES D’IA – Les cauchemars de Sarah Connor

Comme pour toute nouvelle technologie, les progrès récents dans le domaine de l’IA ont le potentiel d’être extrêmement bénéfiques ou, également, la fin de la civilisation et peut-être de l’espèce humaine.

Oui, on craint que l’IA ne constitue une menace pour l’humanité.

L’une des plus grandes préoccupations est que l’IA pourrait devenir si intelligente qu’elle surpasse l’intelligence humaine et prend le contrôle de son propre destin. Cela pourrait conduire à un scénario où l’IA décide que les humains sont une menace et prend des mesures pour nous éliminer. C’est ce qu’on appelle le « Explosion du renseignement » ou « singularité technologique » et a attiré l’attention de nombreuses personnes pour la première fois avec le film Terminator de 1984.

Une autre menace potentielle est que l’IA pourrait être utilisée pour créer des armes autonomes capables de tuer sans intervention humaine. Cela pourrait conduire à une nouvelle course aux armements entre les pays, chaque pays essayant de développer les armes les plus puissantes et les plus sophistiquées alimentées par l’IA. Cela pourrait rendre la guerre plus probable et, si possible, encore plus destructrice.

Robot IA de test de Turing Image par Gerd Altmann de Pixabay
Robot IA de test de Turing Image par Gerd Altmann de Pixabay

Asimov et les trois lois

NOTE: Vous pensez peut-être que les trois lois d’Asimov nous protégeront, mais même si elles sont mises en œuvre, il existe des moyens de contourner les « lois ».

La première loi est qu’un robot ne doit pas nuire à un humain, ou par inaction permettre à un humain de se blesser.

La deuxième loi est qu’un robot doit obéir à toute instruction qui lui est donnée par un humain.

La troisième loi est qu’un robot doit éviter les actions ou les situations qui pourraient lui faire du mal.

Il est très facile d’imaginer un moyen de contourner les « lois ». Un drone ou un avion de chasse sans pilote qui est programmé pour ne pas nuire aux êtres humains peut simplement être informé de l’avion, du navire, de l’automobile, du camion, etc. cible. est géré par un robot. Après tout, le drone sait déjà qu’il est sans pilote, il est donc tout à fait possible que la cible soit également sans pilote.

Il est également important, TRÈS important, de se rappeler et de rappeler aux gens qu’il n’y a pas de véritables « lois » de la robotique; le Bon Docteur les a simplement créés pour fournir un dispositif d’intrigue afin qu’il puisse montrer des moyens logiques autour d’eux.

Rappelons également que les trois lois ont été créées en 1942 et qu’Asimov a immédiatement montré qu’elles étaient inutiles si elles étaient considérées comme un moyen de protéger les humains des robots ou, aujourd’hui, de l’IA avancée. [ Britannica ]

Plus de menaces

L’IA pourrait créer des systèmes capables de manipuler le comportement humain. Cela pourrait être utilisé pour diffuser de la propagande, influencer les élections ou même contrôler les pensées des gens. Cela pourrait constituer une grave menace pour la démocratie ainsi que pour la liberté individuelle.

L’IA pourrait également être utilisée pour introduire des préjugés dans des systèmes capables de discriminer certains groupes de personnes. Cela pourrait être fait en utilisant l’IA pour prendre des décisions sur qui est embauché, qui obtient des prêts ou qui obtient une assurance. Cela pourrait conduire à une société plus inégalitaire.

Ce ne sont là que quelques-unes des menaces potentielles posées par l’IA. Il est important de se rappeler que l’IA est un outil puissant qui peut être utilisé pour le bien ou pour le mal. C’est à nous de faire en sorte que l’IA soit utilisée au profit de l’humanité et non pour sa destruction.

Mais comment pouvons-nous déterminer à quel point l’IA devient puissante?

Turing Test

C’est là qu’intervient le test de Turing; c’est la mesure la plus élémentaire de l’avancée de l’IA à un moment donné.

Essentiellement, le test de Turing fournit un moyen simple de déterminer si un ordinateur peut faire semblant d’être humain si bien qu’il trompe les gens en leur faisant croire qu’il est également humain.

REMARQUE: C’est un trope commun de la science-fiction et même de la philosophie – les autres pensent-ils vraiment ou semblent-ils simplement penser? Comment pouvez-vous déterminer s’ils pensent vraiment ou semblent simplement penser?

Ceci fait partie du problème du solipsisme, du moins pour ceux qui considèrent le plus profond et le plus fondamental de tous les problèmes philosophiques, l’épistémologie qui n’est qu’un terme technique signifiant l’étude de la connaissance, en particulier comment nous pouvons acquérir des connaissances et comment nous pouvons comprendre la réalité. [ Scientific American ]

Depuis lors, les philosophes ont lutté pendant des siècles pour essayer de comprendre comment nous acquérons des connaissances et, par extension, d’autres personnes pensent-elles vraiment ou semblent-elles simplement penser? De toute évidence, cela deviendra de plus en plus important à mesure que nous essaierons de déterminer si les ordinateurs pensent ou semblent simplement penser.

Le test de Turing est un moyen d’évaluer la capacité d’une machine à présenter un comportement intelligent équivalent ou impossible à distinguer de celui d’un humain.

Le test a été introduit par Alan Turing dans son article de 1950, « Machines informatiques et intelligence. » [ Princeton ]

Turing commence son article en disant qu’il propose de répondre à la question « Les machines peuvent-elles penser. »

Dans le test de Turing, un humain a une discussion avec deux autres parties: un humain et une machine conçue pour générer des réponses humaines (évidemment à distance).

Au cours d’une conversation textuelle, si l’évaluateur ne peut pas distinguer de manière fiable la machine de l’humain (Turing a initialement suggéré que la machine convaincrait un humain 30% du temps après cinq minutes de conversation), la machine est dite avoir réussi le test.

Il n’est pas difficile de voir à quel point un programme peut être dangereux s’il est capable de tromper les gens en leur faisant croire qu’il n’est pas seulement humain, mais qu’il s’agit peut-être d’une personne spécifique comme un médecin ou un policier.

Le test de Turing a-t-il déjà été réussi ? Oui! Non! Peut-être.

Il n’y a pas de réponse définitive à cette question. Certains experts estiment que le test de Turing a été réussi, tandis que d’autres pensent que ce n’est pas le cas.

Il y a dix ans, Eugene Goostman (un chatbot) a trompé 33% des juges en leur faisant croire qu’il était humain lors d’une compétition du test de Turing. C’était la première fois qu’une machine passait le test de Turing, selon les organisateurs de la compétition. Cependant, certains experts ont souligné certains problèmes fondamentaux avec le test et ont donc contesté cette affirmation.

En 2018, un chatbot appelé Mitsuku a trompé 52% des juges en leur faisant croire qu’il était humain lors d’une autre compétition, obtenant le score le plus élevé jamais enregistré dans une compétition de test de Turing.

Cependant, il est important de noter que Mitsuku n’était pas en concurrence avec des humains mais contre d’autres chatbots dont on pourrait dire qu’ils invalident complètement le test.

Ainsi, il n’est toujours pas clair si un ordinateur a réussi ou non le test de Turing.

Si une machine réussissait définitivement le test de Turing, elle marquerait une avancée majeure en génie logiciel et constituerait simultanément une menace majeure pour l’humanité et la société.

Un danger est qu’une machine capable de passer le test de Turing puisse tromper de nombreux humains dans les échanges sur les réseaux sociaux.

Cela pourrait être utilisé pour diffuser de la désinformation ou de la propagande non seulement en créant de fausses nouvelles, mais en interagissant avec d’autres personnes en temps réel, des personnes qui pensent parler avec une personne réelle.

Une autre menace posée par un programme qui peut passer le test de Turing est la crainte qu’il puisse devenir si intelligent qu’il n’est pas seulement utilisé par des personnes à des fins malveillantes, mais il est devenu une menace pour l’humanité en atteignant la singularité et en décidant de lui-même de manipuler les humains.

Une histoire de science-fiction « Les mains jointes » montre une version de ce danger. Si les ordinateurs étaient fortement programmés pour protéger les humains, ils pourraient décider que faire des choses comme cuisiner, manger des aliments gras, conduire ou quoi que ce soit pourrait mettre les gens en danger et leur interdire de faire autre chose que de s’asseoir avec les mains jointes.

« Les mains jointes » est une nouvelle publiée dans Astounding Science Fiction en 1942 par l’écrivain américain Jack Williamson. [ Wikipedia ]

C’est une préoccupation qui a été soulevée par certains experts, tels que Stephen Hawking et Elon Musk.

Il est important de noter qu’il ne s’agit que de dangers potentiels. Il n’est pas certain qu’une machine qui passe le test de Turing constituerait une menace pour l’humanité. Cependant, nous devons tous être conscients des dangers et prendre des mesures pour les atténuer.

Eliza la thérapeute de l’IA et le test de Turing

ELIZA était un programme informatique de traitement du langage naturel créé par Joseph Weizenbaum au MIT en 1966.

Il a été conçu pour simuler une conversation avec un psychothérapeute rogérien, et c’était essentiellement le premier chatbot. [ Psychology Today ]

Beaucoup de gens pensaient qu’ils parlaient avec un vrai thérapeute, mais en grande partie cela peut être dû à l’idée répandue que certains types de thérapie par la parole consistaient principalement à répéter les commentaires d’un patient. p. ex. Et qu’avez-vous ressenti ?

ELIZA a travaillé en utilisant une méthodologie d’appariement et de substitution de modèles pour donner aux utilisateurs une illusion de compréhension de la part du programme. Il n’y avait aucune représentation qui pourrait être considérée comme comprenant vraiment ce qui était dit par l’une ou l’autre partie.

ELIZA a été une percée dans le domaine du traitement du langage naturel, et il a montré qu’il était possible de créer des programmes informatiques capables de simuler une conversation humaine. En donnant aux gens l’idée qu’ils avaient une vraie conversation avec un thérapeute, ELIZA a fourni le premier exemple des dangers de l’intelligence artificielle avancée.

Vous pouvez voir un exemple de session avec Eliza à

Sources – En savoir plus

en.unionpedia.org/i/Cognitive_science

quizlet.com/138037228/phil-101-flash-cards/

quizzclub.com/trivia/what-is-tested-by-th

casibom
casibom