Rechercher
Fermer ce champ de recherche.

Information et Cognition.

Pour les sciences cognitives le concept d’information est crucial puisqu’il s’agit d’étudier comment l’information de l’environnement (externe et interne à l’organisme humain) est encodée, sélectionnée, organisée, stockée et récupérée par les systèmes sensoriels, perceptifs, attentionnels, mémoriels, du corps-cerveau.

La psychologie cognitive opère une distinction essentielle entre deux modes de traitement de l’information.

  • Le « bottom-up » ou traitement ascendant dans lequel les informations sont directement issues de la stimulation sensorielle ; cela correspond à un guidage par le stimulus.
  • Le « top-down » ou traitement descendant dans lequel les informations sont plus ou moins contrôlées par des représentations cognitives en mémoire ; cela correspond à un guidage par les concepts.

Les recherches en la matière visent à mettre l’accent sur les interactions complexes entre ces deux modes de traitement et à les mettre en relation, d’une part, avec les exigences de la tâche à effectuer, d’autre part, avec les caractéristiques individuelles des acteurs.

Dans l’analyse et l’explication de l’information certains neuroscientifiques insistent sur le rôle de l’action. Ainsi Alain Berthoz avance que la perception est une action simulée dans la mesure où elle est un jugement, une prise de décision, une anticipation des conséquences de l’action. D’autres font valoir l’idée selon laquelle la notion d’information est liée à celle de modularité de l’esprit, c’est-à-dire à une conception qui envisage le système cognitif comme décomposable en sous-systèmes fonctionnellement distincts. C’est le cas de Jerry Fodor qui considère que les modules cognitifs impliqués dans les activités de perception et de langage sont, du point de vue de l’information, cloisonnés.

Si l’on s’attache aux relations entre l’information et la cognition, il est intéressant de signaler l’existence d’une théorie qui vise à définir le contenu des états mentaux à l’aide du concept d’information (cf. Fred Dretske).

Selon cette théorie tout événement réducteur d’incertitude est un signal ou un message. Dès lors le concept d’information a les propriétés suivantes.

  1. Il est insensible au contenu de l’information dont il permet de mesurer la quantité.
  2. On ne peut pas l’appliquer à une occurrence d’événement indépendamment d’une série d’événements de même type.
  3. Le support physique des événements auxquels on attribue de l’information (symboles des messages) ne joue aucun rôle.
  4. La quantité de l’information (« l’informativité ») d’un événement E n’est bien déterminée qu’à une condition :
  • L’ensemble des types événements dont il était apriori possible qu’ils se produisent et l’ensemble des types d’événements qui comptent comme équivalents à E, sont bien déterminés.


Pour conclure :
Dans cette théorie toute information est une réduction d’incertitude. Le calcul des probabilités constitue l’arrière fond de cette approche même si elle ne se confond pas avec la théorie statistique et informatique de l’information.

Partager ce post

Plus de posts

Retour haut de page