Problème de mise à la terre du symbole

Le problème de l'enracinement des symboles est le problème de savoir comment "... le sens du symbole..." doit "... être fondé sur quelque chose d'autre que juste des symboles plus dénués de sens" [Harnad, S. (1990)]. Ce problème est d'une importance significative dans les domaines de la philosophie, de la cognition et du langage.

Dans les sciences cognitives et la sémantique , le problème d'enracinement des symboles concerne la manière dont les mots ( les symboles en général) obtiennent leur signification , [1] et est donc étroitement lié au problème de la signification réelle. Le problème du sens est à son tour lié au problème de savoir comment les états mentaux ont un sens, donc au problème de la conscience : quel est le lien entre certains systèmes physiques et le contenu des expériences subjectives.

Définitions associées

Le problème de la mise à la terre des symboles

Selon son article de 1990, Harnad exprime implicitement quelques autres définitions du problème d'enracinement des symboles :

  1. Le problème de la mise à la terre des symboles est le problème de savoir comment rendre "... l'interprétation sémantique d'un système de symboles formels..." "... intrinsèque au système, plutôt que simplement parasitaire sur les significations dans nos têtes..." "... dans tout sauf d'autres symboles sans signification..." [Harnad, S. (1990)].
  2. Le problème de la mise à la terre des symboles est le problème de savoir comment "... les significations des jetons de symboles sans signification, manipulés uniquement sur la base de leurs formes (arbitraires) ..." peuvent être fondées "... sur tout sauf d'autres symboles sans signification. "
  3. "... le problème d'enracinement des symboles est appelé le problème de la signification intrinsèque (ou 'l'intentionnalité') dans le célèbre 'Argument de la salle chinoise' de Searle (1980) [Harnad, S. (1990)]."
  4. Le problème de la mise à la terre des symboles est le problème de savoir comment vous pouvez "... jamais sortir du manège symbole / symbole ..."

Système de symboles

Selon son article de 1990, Harnad expose la définition d'un «système de symboles» par rapport à son problème de mise à la terre des symboles défini. Tel que défini par Harnad, un "système de symboles" est "... un ensemble de rayures arbitraires de" jetons physiques "sur du papier, de trous sur une bande, d'événements dans un ordinateur numérique, etc. qui sont ... manipulés sur la base de 'règles explicites' qui sont ... également des jetons physiques et des chaînes de jetons."

Formalité des symboles

Comme Harnad décrit que le problème d'enracinement des symboles est illustré dans l'argument Chinese Room de John R. Searle, la définition de « formel » par rapport aux symboles formels relatifs à un système de symboles formels peut être interprétée à partir de l'article de John R. Searle de 1980 « Minds, brains , et des programmes », dans lequel l'argument de Chinese Room est décrit dans cet article :

  • "... tout ce que "formel" signifie ici, c'est que je peux identifier les symboles entièrement par leurs formes."

Non-sens présumé des symboles

Relatif à l'argument de la Chambre chinoise

Dans son article de 1990, Harnad fait l'hypothèse que les symboles sont intrinsèquement dénués de sens. Cela contraste avec une note dans ledit article de Harnad de 1990 qui pourrait être interprétée comme étant "... le fait que nos propres symboles ont une signification intrinsèque", par laquelle cela doit être interprété comme "... si c'est le fait que ..." parce qu'il y a l'hypothèse que Harnad n'avait pas de critère à utiliser pour connaître la signification intrinsèque d'un symbole: Sinon, le problème de mise à la terre du symbole de Harnad serait résolu pour un scénario de symbole, pour lequel il n'a pas . De plus, selon Harnad dans son article de 1990 sur le problème de l'ancrage des symboles, le problème de l'ancrage des symboles est illustré dans l'argument de la salle chinoise de Searle :

  • Dans l'argument de la salle chinoise, la langue chinoise qui est interprétée par l'ordinateur qui donne une sortie de réponses en langue chinoise est postulée comme étant exprimée sans point de référence (pas le programme de langue interprétative lui-même) pour "comprendre" la langue chinoise en entrée ou sortie, rendant ainsi la signification des symboles dénuée de sens . La même chose est postulée pour tout humain qui prendrait la place de l'ordinateur interprétant le langage.

Relatif au problème du critère

Selon l'article de janvier 2021 "Le problème du critère" de Gordon Seidoh Worley sur lesswrong.com, relatif au problème du critère, le problème de la mise à la terre des symboles est "... essentiellement le même problème, généralisé" et lié à la métaphysique mise à la terre.

Même si le programme de langage interprétatif de l'ordinateur dans l'argument de la salle chinoise était déduit (peut-être par l'utilisation de l'induction de Solomonoff et de la méthode scientifique comme une pierre de Rosette métaphorique ) en fonction d'une équation dans un effort pour développer un critère (à être symboliquement représentatif d'une équation) pour l'interprétation précise d'une entrée de langue chinoise dans une ou plusieurs langues d'intérêt, (à moins que ce critère puisse exister indépendamment d'un critère de base pour lui-même) ce critère lui-même aurait besoin d'une fondation (peut-être un être humain -the-loop ) pour que son interprétation soit associée comme significative, par laquelle une telle matière régressive (qui est supposée conduire à une régression infinie) est liée au problème du critère.

Comme on peut l'interpréter, s'il n'y a pas de critère à utiliser pour connaître la signification intrinsèque d'un symbole, alors personne ne peut connaître la signification intrinsèque d'un symbole. On présume que si la signification intrinsèque existait de quelque manière que ce soit en tant qu'attribut d'un symbole, alors un critère pourrait être utilisé pour connaître la signification intrinsèque de ce dit symbole : soi-disant, ce critère pourrait être dérivé de la signification intrinsèque signification du symbole lui-même. On présume alors que ledit critère pourrait être généralisé afin d'en déduire la signification d'un ou plusieurs autres symboles similaires. Cependant, à ce jour, aucun critère connu n'a été découvert pour déduire la signification intrinsèque d'un symbole.

De plus, aucune solution au problème du critère n'est connue pour avoir existé ni exister. Cela conduit à l'inférence qu'il pourrait ne pas être possible de déduire la signification intrinsèque d'un symbole, ce qui conduit à l'inférence que cela pourrait être parce qu'il n'y a pas de signification intrinsèque à avoir : parce que, comme on peut en déduire, aucune signification intrinsèque à la le symbole pourrait exister en premier lieu ; aucun fondement héréditaire du symbole ne peut exister pour qu'il soit déduit afin qu'il soit utilisé comme critère pour déduire la signification intrinsèque du symbole.

Sans critère pour agir comme un point de référence précis, ou "base", pour l'interprétation significative d'un ou plusieurs symboles, alors les symboles sont supposés être intrinsèquement sans signification. En outre, l'existence d'un critère à utiliser pour dériver ladite signification intrinsèque d'un symbole est présumée dépendre de l'existence d'une signification intrinsèque dudit symbole. Dans tout effort visant à assumer une résolution du problème du critère, la base supposée de la résolution du problème du critère serait similaire à la base de la résolution supposée du problème du critère dans des "symboles sans signification" parce que la fondation serait être sans justification connue,

Arrière-plan

Référents

Gottlob Frege a distingué un référent (la chose à laquelle un mot se réfère) et la signification du mot. Ceci est le plus clairement illustré en utilisant les noms propres d'individus concrets, mais c'est également vrai des noms de types de choses et de propriétés abstraites : (1) "Tony Blair", (2) "le premier ministre du Royaume-Uni pendant l'année 2004", et (3) "le mari de Cherie Blair" ont tous le même référent, mais pas le même sens. [2]

Certains ont suggéré que la signification d'un mot (référent) est la règle ou les caractéristiques que l'on doit utiliser pour réussir à choisir son référent. À cet égard, (2) et (3) se rapprochent de porter leurs significations sur leurs manches, car ils énoncent explicitement une règle pour choisir leurs référents : « Trouvez celui qui a été Premier ministre du Royaume-Uni pendant l'année 2004 », ou "trouver celui qui est le mari actuel de Cherie". Mais cela ne règle pas la question, car il reste le problème du sens des éléments de cette règle ("premier ministre", "Royaume-Uni", "pendant", "actuel", "Chérie", "mari"), et comment les choisir .

L'expression "Tony Blair" (ou mieux encore, simplement "Tony") n'a pas ce problème de composant récursif, car elle pointe directement vers son référent, mais comment ? Si le sens est la règle pour choisir le référent, quelle est cette règle, quand on en vient à des composants non décomposables comme des noms propres d'individus (ou des noms de genres, comme dans "un homme célibataire" est un "célibataire") ?

Processus référentiel

Les humains sont capables de déduire les référents voulus de mots, tels que "Tony Blair" ou "baccalauréat", mais ce processus n'a pas besoin d'être explicite. C'est probablement une attente déraisonnable de connaître la règle explicite pour choisir les référents prévus [ pourquoi ? ] .

Donc, si nous considérons que le sens d'un mot est le moyen de choisir son référent, alors les significations sont dans notre cerveau. C'est le sens au sens étroit . Si nous utilisons « sens » dans un sens plus large , alors nous pouvons vouloir dire que les sens incluent à la fois les référents eux-mêmes et les moyens de les repérer. Donc, si un mot (par exemple, "Tony-Blair") est situé à l'intérieur d'une entité (par exemple, soi-même) qui peut utiliser le mot et choisir son référent, alors le sens large du mot comprend à la fois les moyens que cette entité utilise pour choisir son référent, et le référent lui-même : un large lien causal entre (1) une tête, (2) un mot à l'intérieur, (3) un objet à l'extérieur, et (4) tout "traitement" nécessaire pour réussir reliez le mot intérieur à l'objet extérieur.

Mais que se passe-t-il si "l'entité" dans laquelle se trouve un mot n'est pas une tête mais un morceau de papier (ou un écran d'ordinateur) ? Quelle est sa signification alors ? Il est certain que tous les mots (de référence) sur cet écran, par exemple, ont une signification, tout comme ils ont des référents.

Au 19ème siècle, le philosophe Charles Sanders Peirce a suggéré ce que certains pensent être un modèle similaire : selon son modèle de signe triadique, le sens nécessite (1) un interprète, (2) un signe ou representamen, (3) un objet, et est ( 4) le produit virtuel d'une régression et d'un progrès sans fin appelé sémiose . [3] Certains ont interprété Peirce comme abordant le problème de l'enracinement, des sentiments et de l'intentionnalité pour la compréhension des processus sémiotiques. [4] Ces dernières années, la théorie des signes de Peirce a été redécouverte par un nombre croissant de chercheurs en intelligence artificielle dans le contexte du problème d'enracinement des symboles. [5]

Processus de mise à la terre

Il n'y aurait aucun lien entre les symboles écrits et les référents voulus s'il n'y avait pas d'esprits médiatisant ces intentions, via leurs propres moyens internes de sélection de ces référents voulus. Ainsi, la signification d'un mot sur une page est "sans fondement". Le rechercher dans un dictionnaire n'aiderait pas non plus : si l'on essayait de rechercher le sens d'un mot que l'on ne comprenait pas dans un dictionnaire d'une langue que l'on ne comprenait pas déjà, on passerait sans cesse d'une définition dénuée de sens à une autre. La recherche de sens serait sans fondement. En revanche, le sens des mots dans sa tête - ces mots que l'on comprend - est "fondé". [ citation nécessaire ]Cet ancrage mental de la signification des mots assure la médiation entre les mots sur n'importe quelle page externe que l'on lit (et comprend) et les objets externes auxquels ces mots se réfèrent. [6] [7]

Exigences pour la mise à la terre des symboles

Un autre système de symboles est le langage naturel ( Fodor 1975). Sur papier ou sur ordinateur, le langage n'est lui aussi qu'un système symbolique formel, manipulable par des règles basées sur les formes arbitraires des mots. Mais dans le cerveau, des chaînes de gribouillis sans signification deviennent des pensées significatives. Harnad a suggéré deux propriétés qui pourraient être nécessaires pour faire cette différence : [ citation nécessaire ]

  1. Capacité à choisir des référents
  2. Conscience

Capacité à sélectionner des référents

Une propriété que le papier statique ou, généralement, même un ordinateur dynamique, manque au cerveau est la capacité de repérer les référents des symboles. C'est ce dont nous parlions tout à l'heure, et c'est à cela que se réfère le terme jusqu'alors indéfini de « mise à la terre ». Un système de symboles seul, qu'il soit statique ou dynamique, ne peut pas avoir cette capacité (pas plus qu'un livre), car la sélection de référents n'est pas seulement une propriété computationnelle (indépendante de l'implémentation) ; c'est une propriété dynamique (qui dépend de l'implémentation).

Pour être fondé, le système de symboles devrait être augmenté de capacités sensorimotrices non symboliques - la capacité d'interagir de manière autonome avec ce monde d'objets, d'événements, d'actions, de propriétés et d'états auxquels leurs symboles sont systématiquement interprétables (par nous) comme faisant référence. Il faudrait qu'elle puisse repérer les référents de ses symboles, et que ses interactions sensorimotrices avec le monde s'accordent de manière cohérente avec les interprétations des symboles.

En d'autres termes, les symboles doivent être connectés directement à (c'est-à-dire fondés sur) leurs référents ; la connexion ne doit pas dépendre uniquement des connexions faites par le cerveau d'interprètes externes comme nous. Le système de symboles seul, sans cette capacité d'enracinement direct, n'est pas un candidat viable pour être ce qui se passe réellement dans notre cerveau lorsque nous pensons à des pensées significatives (Cangelosi & Harnad 2001).

La signification en tant que capacité à reconnaître des instances (d'objets) ou à effectuer des actions est spécifiquement traitée dans le paradigme appelé "Procedural Semantics", décrit dans un certain nombre d'articles dont "Procedural Semantics" de Philip N. Johnson-Laird [8] et développé par William A. Woods dans "Signification et liens". [9]Un bref résumé dans l'article de Woods se lit comme suit : "L'idée de la sémantique procédurale est que la sémantique des phrases en langage naturel peut être caractérisée dans un formalisme dont les significations sont définies par des procédures abstraites qu'un ordinateur (ou une personne) peut soit exécuter, soit raisonner sur Dans cette théorie, la signification d'un nom est une procédure pour reconnaître ou générer des instances, la signification d'une proposition est une procédure pour déterminer si elle est vraie ou fausse, et la signification d'une action est la capacité de faire l'action ou de dire si cela a été fait."

Conscience

Autrement dit, la nécessité de l'enracinement nous fait passer du niveau du test de Turing correspondant, purement symbolique (computationnel), au test de Turing robotique, hybride symbolique/sensorimoteur (Harnad 2000, 2007). Le sens est fondé sur la capacité robotique à détecter, catégoriser, identifier et agir sur les choses auxquelles les mots et les phrases se réfèrent (voir les entrées pour Affordance et pour Perception catégorique). D'autre part, si les symboles (mots et phrases) se réfèrent aux bits mêmes de '0' et '1', directement connectés à leurs implémentations électroniques, qu'un (n'importe quel ?) système informatique peut facilement manipuler (donc détecter, catégoriser , identifier et agir), alors même les systèmes informatiques non robotiques pourraient être qualifiés de "sensorimoteurs" et donc capables de "ancrer" des symboles dans ce domaine étroit.

Catégoriser, c'est faire la bonne chose avec le bon type de chose. Le catégoriseur doit être capable de détecter les caractéristiques sensorimotrices des membres de la catégorie qui les distinguent de manière fiable des non-membres. Ces détecteurs de caractéristiques doivent être innés ou appris. L'apprentissage peut être basé sur l'induction d'essais et d'erreurs, guidé par la rétroaction des conséquences d'une catégorisation correcte et incorrecte ; ou, dans notre propre espèce linguistique, l'apprentissage peut aussi être basé sur des descriptions ou des définitions verbales. Cependant, la description ou la définition d'une nouvelle catégorie ne peut véhiculer la catégorie et fonder son nom que si les mots de la définition sont eux-mêmes des noms de catégorie déjà fondés (Blondin-Massé et al. 2008). Donc, en fin de compte, l'enracinement doit être sensori-moteur, pour éviter une régression infinie (Harnad 2005).

Mais si l'enracinement est une condition nécessaire au sens, est-ce une condition suffisante ? Pas nécessairement, car il est possible que même un robot qui pourrait passer le test de Turing, "vivant" parmi nous de manière indiscernable toute une vie, n'ait pas dans sa tête ce que Searle a dans la sienne : ce pourrait être un p- zombie , sans personne à la maison, ressentant des sentiments, signifiant des significations (Harnad 1995). Cependant, il est possible que différents interprètes (y compris différentes espèces d'animaux intelligents) aient des mécanismes différents pour produire du sens dans leurs systèmes, on ne peut donc pas exiger qu'un système différent d'un humain "expérimente" le sens de la même manière qu'un humain le fait. , et vice versa.

Harnad désigne ainsi la conscience comme une seconde propriété. Le problème de la découverte du mécanisme causal pour choisir avec succès le référent d'un nom de catégorie peut en principe être résolu par les sciences cognitives. Mais le problème d'expliquer comment la conscience pourrait y jouer un rôle "indépendant" est probablement insoluble, sauf sous peine de dualisme télékinésique . Peut-être que la mise à la terre des symboles (c'est-à-dire la capacité robotique du TT) est suffisante pour s'assurer que la signification consciente est présente, mais encore une fois, peut-être pas. Dans les deux cas, nous ne pouvons espérer être plus sages – et c'est le point méthodologique de Turing (Harnad 2001b, 2003, 2006).

Formulation

Pour répondre à la question de savoir si l'enracinement est une condition nécessaire à la signification, une formulation du problème de l'enracinement des symboles est nécessaire : le problème de l'enracinement des symboles est le problème de savoir comment faire "... l'interprétation sémantique d'un système de symboles formels. .." "... intrinsèque au système, plutôt que simplement parasitaire sur les significations dans nos têtes..." "... dans tout sauf d'autres symboles sans signification [Harnad, S. (1990)]."

Fonctionnalisme

Il y a une école de pensée selon laquelle l'ordinateur ressemble plus au cerveau - ou plutôt, le cerveau ressemble plus à l'ordinateur. Selon ce point de vue (appelé " computationalisme ", une variété de fonctionnalisme ), la future théorie expliquant comment le cerveau choisit ses référents, (la théorie à laquelle les neurosciences cognitives pourraient éventuellement arriver) sera purement computationnelle ( Pylyshyn 1984). Une théorie computationnelle est une théorie au niveau du logiciel. Il s'agit essentiellement d'un algorithme informatique : un ensemble de règles de manipulation des symboles. Et l'algorithme est "indépendant de l'implémentation". Cela signifie que quoi que fasse un algorithme, il fera la même chose quel que soit le matériel sur lequel il est exécuté. Les détails physiques de lasystème dynamique mettant en œuvre le calcul sont sans rapport avec le calcul lui-même, qui est purement formel ; tout matériel capable d'exécuter le calcul fera l'affaire, et toutes les implémentations physiques de cet algorithme informatique particulier sont équivalentes, en termes de calcul.

Un ordinateur peut exécuter n'importe quel calcul. Par conséquent, une fois que le calculalisme a trouvé un algorithme informatique approprié, celui que notre cerveau pourrait exécuter lorsqu'il y a du sens qui transpire dans nos têtes, le sens transpirera également dans cet ordinateur, lorsqu'il implémentera cet algorithme.

Comment saurions-nous que nous avons un algorithme informatique approprié ? Il devrait être capable de passer le test de Turing . Cela signifie qu'il devrait être capable de correspondre avec n'importe quel être humain en tant que correspondant, pendant toute une vie, sans jamais se distinguer d'aucune façon d'un véritable correspondant humain.

L'argument de la chambre chinoise de Searle

John Searle a formulé "l' argument de la chambre chinoise " afin de réfuter le calculalisme. L' argument de la salle chinoise est basé sur une expérience de pensée : dans celle-ci, Searle a déclaré que si le test de Turing était effectué en chinois, alors lui-même, Searle (qui ne comprend pas le chinois), pourrait exécuter un programme qui implémente le même algorithme que l'ordinateur utilisait sans savoir ce que signifiait l'un des mots qu'il manipulait.

À première vue, il semblerait que s'il n'y a aucune signification dans la tête de Searle lorsqu'il implémente ce programme, alors il n'y a aucune signification dans l'ordinateur lorsque c'est lui qui implémente l'algorithme non plus, le calcul étant indépendant de l'implémentation. Mais à y regarder de plus près, pour qu'une personne exécute le même programme qu'un ordinateur, elle devrait au moins avoir accès à une banque de mémoire similaire à celle de l'ordinateur (très probablement stockée en externe). Cela signifie que le nouveau système de calcul qui exécute le même algorithme n'est plus seulement la tête d'origine de Searle, mais cela plus la banque de mémoire (et éventuellement d'autres dispositifs). En particulier, cette mémoire supplémentaire pourrait stocker une représentation numérique du référent voulu de différents mots (comme des images, des sons, voire des séquences vidéo), que l'algorithme utiliserait comme modèle et pour dériver les caractéristiques associées au référent prévu. La "signification" ne doit donc pas être recherchée uniquement dans le cerveau original de Searle, mais dans le système global nécessaire pour traiter l'algorithme. Tout comme lorsque Searle lit des mots anglais, la signification ne doit pas être localisée dans des zones de traitement logique isolées du cerveau, mais probablement dans le cerveau global, y compris probablement des zones spécifiques de mémoire à long terme. Ainsi, le fait que Searle ne perçoive aucune signification dans sa seule tête lorsqu'il simule le travail d'un ordinateur n'implique pas un manque de signification dans le système global, et donc dans le système informatique réel passant un test de Turing avancé. La "signification" ne doit donc pas être recherchée uniquement dans le cerveau original de Searle, mais dans le système global nécessaire pour traiter l'algorithme. Tout comme lorsque Searle lit des mots anglais, la signification ne doit pas être localisée dans des zones de traitement logique isolées du cerveau, mais probablement dans le cerveau global, y compris probablement des zones spécifiques de mémoire à long terme. Ainsi, le fait que Searle ne perçoive aucune signification dans sa seule tête lorsqu'il simule le travail d'un ordinateur n'implique pas un manque de signification dans le système global, et donc dans le système informatique réel passant un test de Turing avancé. La "signification" ne doit donc pas être recherchée uniquement dans le cerveau original de Searle, mais dans le système global nécessaire pour traiter l'algorithme. Tout comme lorsque Searle lit des mots anglais, la signification ne doit pas être localisée dans des zones de traitement logique isolées du cerveau, mais probablement dans le cerveau global, y compris probablement des zones spécifiques de mémoire à long terme. Ainsi, le fait que Searle ne perçoive aucune signification dans sa seule tête lorsqu'il simule le travail d'un ordinateur n'implique pas un manque de signification dans le système global, et donc dans le système informatique réel passant un test de Turing avancé. comprenant probablement des zones spécifiques de la mémoire à long terme. Ainsi, le fait que Searle ne perçoive aucune signification dans sa seule tête lorsqu'il simule le travail d'un ordinateur n'implique pas un manque de signification dans le système global, et donc dans le système informatique réel passant un test de Turing avancé. comprenant probablement des zones spécifiques de la mémoire à long terme. Ainsi, le fait que Searle ne perçoive aucune signification dans sa seule tête lorsqu'il simule le travail d'un ordinateur n'implique pas un manque de signification dans le système global, et donc dans le système informatique réel passant un test de Turing avancé.

Conséquences

Comment Searle sait-il qu'il n'y a aucun sens dans sa tête lorsqu'il exécute un tel programme de réussite au test de Turing ? Exactement de la même manière qu'il sait s'il y a ou non un sens qui se passe dans sa tête dans d'autres conditions : il comprendles mots de l'anglais, alors que les symboles chinois qu'il manipule selon les règles de l'algorithme ne signifient rien pour lui (et il n'y a personne d'autre dans sa tête pour qu'ils signifient quelque chose). Cependant, le système complet qui manipule ces symboles chinois - qui n'est pas seulement le cerveau de Searle, comme expliqué dans la section précédente - peut avoir la capacité d'extraire une signification de ces symboles, dans le sens d'être capable d'utiliser des modèles internes (mémoire) des référents prévus, choisissez les référents prévus de ces symboles, et identifiez et utilisez généralement leurs caractéristiques de manière appropriée.

Notez qu'en soulignant que les mots chinois n'auraient pour lui aucun sens dans ces conditions, Searle a fait appel à la conscience. Sinon, on pourrait soutenir qu'il y aurait un sens dans la tête de Searle dans ces conditions, mais que Searle lui-même n'en serait tout simplement pas conscient. C'est ce qu'on appelle la « réponse systémique » à l'argument de la salle chinoise de Searle, et Searle rejette la réponse systémique comme étant simplement une réitération, face à des preuves négatives, de la thèse même (le calculalisme) qui est mise à l'épreuve dans son expérience de pensée : "Les mots dans un calcul en cours d'exécution sont-ils comme les mots non fondés sur une page, sans signification sans la médiation des cerveaux, ou sont-ils comme les mots fondés dans les cerveaux?"

Dans cette question ou/ou, le mot (encore indéfini) "non fondé" s'est implicitement appuyé sur la différence entre les mots inertes sur une page et les mots consciemment significatifs dans nos têtes. Et Searle affirme que dans ces conditions (le test de Turing chinois), les mots dans sa tête ne seraient pas consciemment significatifs, donc ils seraient toujours aussi sans fondement que les mots inertes sur une page.

Donc, si Searle a raison, que (1) les mots sur une page et ceux de tout programme informatique en cours d'exécution (y compris un programme informatique réussissant le test de Turing) n'ont aucun sens en eux-mêmes, et donc que (2) quoi que ce soit que le cerveau fait pour générer du sens ne peut pas être simplement un calcul indépendant de la mise en œuvre, alors que fait le cerveau pour générer du sens (Harnad 2001a) ?

La notion d'intentionnalité de Brentano

« L'intentionnalité » a été appelée la « marque du mental » à cause de certaines observations du philosophe Brentano selon lesquelles les états mentaux ont toujours un objet ou un contenu (mental) inhérent, voulu vers lequel ils sont « dirigés » : On voit quelque chose , veut quelque chose, croit quelque chose, désire quelque chose, comprend quelque chose, veut dire quelque chose, etc., et cet objet est toujours quelque chose que l'on a en tête. Avoir un objet mental fait partie du fait d'avoir quelque chose à l'esprit. C'est donc la marque du mental. Il n'y a pas d'états mentaux "flottants" qui n'aient pas aussi un objet mental. Même les hallucinations et les imaginations ont un objet, et même se sentir déprimé ressemble à quelque chose. L'objet n'est pas non plus l'objet physique "externe", quand il y en a un. On peut voir une vraie chaise, mais l'objet "intentionnel" de son "état intentionnel" est la chaise mentale à laquelle on pense. (Encore un autre terme pour l'intentionnalité a été "à propos" ou "représentationnalité": les pensées concernent toujours quelque chose; ce sont des "représentations" (mentales) de quelque chose; mais ce quelque chose est ce que le penseur a à l'esprit,

Si tout cela ressemble à du patinage sur la surface d'un problème plutôt qu'à une véritable percée, alors la description précédente a eu l'effet escompté : ni le problème de l'intentionnalité n'est le problème de l'enracinement des symboles ; les symboles d'enracinement ne sont pas non plus la solution au problème de l'intentionnalité. Les symboles à l'intérieur d'un système de symboles dynamiques autonomes capables de passer le test robotique de Turing sont fondés, en ce que, contrairement au cas d'un système de symboles non fondé, ils ne dépendent pas de la médiation de l'esprit d'un interprète externe pour les connecter. aux objets extérieurs qu'ils sont interprétables (par l'interpréteur) comme étant « sur » ; la connexion est autonome, directe et sans intermédiaire. Mais l'enracinement n'est pas un sens. La mise à la terre est une fonction de performance d'entrée/sortie. La mise à la terre relie les entrées sensorielles des objets externes aux symboles et états internes se produisant dans un système sensorimoteur autonome, guidant le traitement et la sortie résultants du système.

Le sens, au contraire, est quelque chose de mental. Mais pour essayer de mettre un terme au jeu des noms qui consiste à proliférer des synonymes non explicatifs pour le problème corps/esprit sans le résoudre (ou, pire, en laissant entendre qu'il y a plus d'un problème corps/esprit), citons encore une chose cela n'a pas besoin d'être expliqué davantage : le sentiment . La seule chose qui distingue un état interne qui n'a qu'un fondement d'un autre qui a un sens, c'est qu'il ressemble à quelque choseêtre dans l'état de sens, alors qu'il n'y a rien à ressentir d'être dans l'état fonctionnel simplement fondé. La mise à la terre est une question fonctionnelle ; le sentiment est une matière ressentie. Et c'est là la véritable source de la relation peekaboo vexée de Brentano entre "l'intentionnalité" et son "objet intentionnel" interne. Tous les états mentaux, en plus d'être les états fonctionnels d'un système dynamique autonome, sont aussi des états émotionnels. Les sentiments ne sont pas simplement « fonctionnels », comme le sont tous les autres états physiques ; les sentiments sont aussi ressentis.

Par conséquent, le sentiment ( sensience ) est la marque réelle du mental. Mais le problème d'enracinement des symboles n'est pas le même que le problème esprit/corps, et encore moins une solution à celui-ci. Le problème corps/esprit est en fait le problème sensation/fonction, et l'enracinement symbolique ne touche que sa composante fonctionnelle. Cela n'enlève rien à l'importance du problème d'ancrage des symboles, mais reflète simplement qu'il s'agit d'une pièce maîtresse du plus grand puzzle appelé l'esprit.

Le neuroscientifique Antonio Damasio étudie cette fonction de marquage des sentiments et des émotions dans son hypothèse de marqueur somatique . Damasio ajoute la notion d' homéostasie biologiqueà cette discussion, en la présentant comme un processus de régulation corporelle automatisé fournissant une intentionnalité à un esprit via les émotions. L'homéostasie est le mécanisme qui maintient tous les processus corporels en équilibre sain. Toutes nos actions et perceptions seront automatiquement "évaluées" par notre matériel corporel en fonction de leur contribution à l'homéostasie. Cela nous donne une orientation implicite sur la façon de survivre. De telles évaluations corporelles ou somatiques peuvent nous venir à l'esprit sous la forme de sentiments conscients et non conscients (« sentiments intestinaux ») et guider notre processus de prise de décision. Le sens d'un mot peut être grossièrement conceptualisé comme la somme de ses associations et de leur contribution attendue à l'homéostasie, où les associations sont des reconstructions de perceptions sensorimotrices apparues en contiguïté avec le mot. Encore, l'hypothèse du marqueur somatique est toujours vivement débattue et les critiques affirment qu'elle n'a pas réussi à démontrer clairement comment ces processus interagissent au niveau psychologique et évolutif. La question récurrente que l'hypothèse du marqueur somatique n'aborde pas demeure : comment et pourquoi l'homéostasie (comme dans toutservomécanisme tel qu'un thermostat et un four) deviennent une homéostasie ressentie ?

Voir également

Remarques

  1. ^ Vogt, Paul. "Évolution du langage et robotique : problèmes d'ancrage des symboles et d'acquisition du langage." Systèmes de cognition artificielle. IGI Global, 2007. 176–209.
  2. Bien que cet article s'inspire par endroits de la vision sémantique de Frege, il est très anti-frégéen dans sa position. Frege était un critique féroce des récits psychologiques qui tentent d'expliquer le sens en termes d'états mentaux.
  3. ^ Peirce, Charles S. La philosophie de Peirce : écrits choisis. New York : AMS Press, 1978.
  4. ^ Semeiosis et intentionnalité TL Transactions courtes de la Charles S. Peirce Society Vol. 17, n ° 3 (été 1981), p. 197-223
  5. CS Peirce et l'intelligence artificielle : héritage historique et (nouveaux) enjeux théoriques ; Pierre Steiner; SAPERE - Numéro spécial sur la philosophie et la théorie de l'IA 5: 265–276 (2013)
  6. C'est la théorie causale et contextuelle de la référence qu'Ogden & Richards ont présentée dans The Meaning of Meaning (1923).
  7. ^ Cf. externalisme sémantique tel que revendiqué dans "The Meaning of 'Meaning'" of Mind, Language and Reality (1975) par Putnam qui affirme: "Les significations ne sont tout simplement pas dans la tête." Maintenant, lui et Dummett semblent favoriser l'antiréalisme en faveur de l'intuitionnisme , du psychologisme , du constructivisme et du contextualisme .
  8. ^ Philip N. Johnson-Laird "Sémantique procédurale" (Cognition, 5 (1977) 189; voir http://www.nyu.edu/gsas/dept/philo/courses/mindsandmachines/Papers/procedural.pdf)
  9. ^ William A. Woods. "Signification et liens" (AI Magazine Volume 28 Numéro 4 (2007); voir http://www.aaai.org/ojs/index.php/aimagazine/article/view/2069/2056)

Les références

Remarque : Cet article est basé sur une entrée initialement publiée dans Nature/Macmillan Encyclopedia of Cognitive Science qui a depuis été révisée par l'auteur et la communauté Wikipédia.
  • Blondin Masse, A, G. Chicoisne, Y. Gargouri, S. Harnad, O. Picard, O. Marcotte (2008) Comment le sens est-il ancré dans les définitions du dictionnaire ? TextGraphs-3 Workshop, 22nd International Conference on Computational Linguistics, Coling 2008 , Manchester, 18–22 août 2008
  • Cangelosi, A. & Harnad, S. (2001) L'avantage adaptatif du vol symbolique par rapport au labeur sensorimoteur : ancrer le langage dans les catégories perceptuelles. Évolution de la communication 4(1) 117–142.
  • Cangelosi, A.; Greco, A.; Harnad, S. Du labeur robotique au vol symbolique: transfert de base des catégories d'entrée de gamme aux catégories de niveau supérieur. Connexion Science 12(2) 143–62.
  • Fodor, JA (1975) Le langage de la pensée . New York : Thomas Y. Crowell
  • Frege, G. (1952/1892). Du sens et de la référence. Dans P. Geach et M. Black, Eds., Traductions des écrits philosophiques de Gottlob Frege . Oxford : Blackwell
  • Harnad, S. (1990) Le problème de mise à la terre des symboles. Physique D 42 : 335–346.
  • Harnad, S. (1992) Il n'y a qu'un seul problème esprit/corps. Symposium sur la perception de l'intentionnalité, XXV Congrès mondial de psychologie, Bruxelles, Belgique, juillet 1992 International Journal of Psychology 27 : 521
  • Harnad, S. (1994) Le calcul n'est qu'une manipulation de symboles interprétables : la cognition ne l'est pas. Minds and Machines 4: 379–390 (numéro spécial sur "Qu'est-ce que le calcul")
  • Harnad, S. (1995) Pourquoi et comment nous ne sommes pas des zombies. Journal d'études sur la conscience 1 : 164–167.
  • Harnad, S. (2000) Esprits, machines et Turing : l'indiscernabilité des indiscernables. Journal of Logic, Language, and Information 9(4): 425–445. (Numéro spécial sur "Alan Turing et l'intelligence artificielle")
  • Harnad, S. (2001a) Minds, Machines and Searle II: Qu'est-ce qui est faux et vrai dans l'argument de la chambre chinoise de Searle? Dans: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument . Presse universitaire d'Oxford.
  • Harnad, S. (2001b) Pas d'issue facile. Les Sciences 41(2) 36–42.
  • Harnad, Stevan (2001a) Expliquer l'esprit : problèmes, problèmes. Les Sciences 41 : 36–42.
  • Harnad, Stevan (2001b) Le problème esprit/corps est le problème sentiment/fonction : Harnad sur Dennett sur Chalmers. Rapport technique. Département d'électronique et d'informatique. Université de Southampton.
  • Harnad, S. (2003) Une machine peut-elle être consciente ? Comment?. Journal des études sur la conscience 10 (4–5): 69–75.
  • Harnad, S. (2005) Connaître, c'est catégoriser : la cognition est une catégorisation. dans Lefebvre, C. et Cohen, H., Eds. Manuel de Catégorisation . Elsevier.
  • Harnad, S. (2007) The Annotation Game: On Turing (1950) sur l'informatique, les machines et l'intelligence. Dans : Epstein, Robert & Peters, Grace (Eds.) The Turing Test Sourcebook : Philosophical and Methodological Issues in the Quest for the Thinking Computer . Kluwer
  • Harnad, S. (2006) Cohabitation : calcul à 70 ans Cognition à 20 ans. Dans Dedrick, D., Eds. Essais en l'honneur de Zenon Pylyshyn .
  • En ligneMacDorman, Karl F. (1999). Symboles de mise à la terre par intégration sensorimotrice. Journal de la Robotics Society of Japan, 17(1), 20–24. Version en ligne
  • En ligneMacDorman, Karl F. (2007). La vie après la métaphore du système symbolique. Études d'interaction, 8(1), 143–158. Version en ligne
  • Pylyshyn, ZW (1984) Calcul et cognition . Cambridge MA : MIT/Bradford
  • Searle, John. R. (1980) Esprits, cerveaux et programmes. Sciences du comportement et du cerveau 3 (3): 417–457
  • Taddeo, Mariarosaria & Floridi, Luciano (2005). Le problème de l'enracinement des symboles : une revue critique de quinze années de recherche. Journal of Experimental and Theoretical Artificial Intelligence , 17 (4), 419–445. Version en ligne
  • Turing, AM (1950) Machines informatiques et intelligence. Mind 49 433–460 [Réimprimé dans Minds and machines . A. Anderson (éd.), Engelwood Cliffs NJ : Prentice Hall, 1964.]