top of page

Boucles (Bonus)
Récursion

Renvoi 1
renvoi 2
renvoi 3

Dans cet article, je souhaiterais répondre aux arguments de Cynthia Golmi, qui a écrit une analyse critique portant sur mon article du 31 décembre 2021 (que j'avais intitulé « Outils Quanti, Partie 3 »). Je vais profiter de l'occasion pour revenir sur certains points de mon article qui ont porté à confusion, et tenter d'en consolider le propos. Pour ce faire, il me semble utile de m'appuyer sur le texte de Mme Golmi, et donc d'en citer de larges extraits – heureusement pour moi, ce texte n'est pas soumis au droit d’auteur.

 

Boomy argumente que la différence entre un corbeau et un bureau ne peut être complètement épuisée par un seul qualificatif décontextualisé. Au lieu de cela, il soutient que des assemblages de mots et d'opérateurs qualitatifs structurés en phrases sont nécessaires. Cependant, il introduit ensuite l'idée que des algorithmes de détection d'objets peuvent manier ces catégories conceptuelles qualitatives avec des taux de réussite similaires à ceux des humains. Cette transition abrupte laisse le lecteur perplexe quant à la pertinence de l'argument.

 

De plus, Boomy utilise l’exemple des réseaux de neurones artificiels et leur capacité à reconnaître des objets pour soutenir son propos. Il affirme que si ces programmes peuvent distinguer les corbeaux des bureaux, cela implique l'existence d'une narration basée uniquement sur des quantités et des opérateurs quantitatifs. Cependant, il néglige de reconnaître que ces algorithmes sont préalablement "entraînés" par les catégorisations humaines. Ils ne créent pas de concepts qualitatifs, mais "apprennent" à les manipuler. Par conséquent, l'analogie entre les capacités de ces programmes et la nature de notre propre compréhension conceptuelle est discutable.

 

L’autrice n’a pas tort quand elle souligne que les réseaux de neurones artificiels « apprennent » à manipuler des catégories préexistantes. C’est effectivement un point qui n’apparait pas dans mon article initial, mais qui ne peut pas à lui seul constituer un argument en faveur d’une différence fondamentale avec les réseaux de neurones naturels qu’on peut trouver dans un cerveau.

​

En ce qui me concerne, quand j’ai appris le français je n’en ai pas créé les concepts et catégories. Autrement dit, moi aussi j’ai été entrainé à partir de catégorisations (humaines) préexistantes.

​

Mais l’autrice enchaîne avec un autre argument – selon moi bien plus pertinent - en faveur de la spécificité des humains :

 

Boomy soulève également la question de la perception humaine, en suggérant que les humains aussi ne perçoivent qu'une grille de pixels. Cependant, il omet de considérer les processus cognitifs complexes qui transforment ces signaux sensoriels en expérience subjective. Comparer cette expérience humaine à celle des algorithmes qui traitent uniquement des images ne semble pas approprié.

​

Ici, Mme Golmi soulève un point crucial, que je vais développer un peu avant d’essayer d’y répondre.

​

La théorie du cerveau modulaire part du constat que certaines formes de cognition semblent être « localisées » dans des zones spécifiques du cerveau. Un certain type d’activité mentale correspondra à l’activation de certaines zones : les aires de Broca et de Wernicke pour le langage, le lobe occipital (et dans une moindre mesure les lobes pariétal et temporal) pour la vision, etc.

​

Pourtant, ce n’est pas comme ça que je me ressens. Dans ma vie de tous les jours, je n’ai pas la sensation d’être une multitude d’entités spécialisées qui travaillent en parallèle à traiter les signaux sensoriels issus du monde extérieur. J’ai plutôt la sensation que c’est la même entité qui voit par mes yeux, qui entend par mes oreilles, et qui parle par ma bouche. J’ai la sensation d’être cette entité, qui fait une expérience subjective et unifiée de « ce que ça fait d’être moi ».

​

Je ne pense pas que les algorithmes de reconnaissance d’image ressentent quoi que ce soit de semblable. Je ne pense pas qu’ils font une expérience subjective des images qu’ils « reconnaissent ». C’est pourquoi il me semble tout à fait juste de dire que ces algorithmes ne reconnaissent pas comme des humains. C’est d’ailleurs ce point que je tentais d’illustrer avec l’exemple du magnétophone, qui lui non plus ne chante pas vraiment.

​

Ainsi, je ne prétendais pas que les machines perçoivent le monde comme des humains – je ne pense pas que ce soit le cas.

 

Mon argument se limite à dire que si une machine est capable de poser nos mots, nos qualifiants, sur des images – si elle le fait aussi bien qu’un humain - alors c’est que ces qualifiants et ces images peuvent être traduits en quantités.

 

 

Enfin, l'auteur évoque l'idée selon laquelle les narrations en mots peuvent être traduites en narrations en nombres sans perte significative de sens. Cependant, cette affirmation manque de preuves concrètes et d'exemples concrets pour étayer son argument.

 

En guise d’exemple et de réponse, je me contenterai de préciser que Cynthia Golmi s’appelle en réalité Chat GPT.[1]

 

 

De plus, l'idée que la variabilité des catégories conceptuelles entre individus est aussi grande que la perte de sens potentielle lors de la traduction en nombres est une généralisation simpliste.

​

En conclusion, le texte de Boomy propose des réflexions intéressantes sur la relation entre la qualification qualitative et la quantification. Cependant, l'argumentation est parfois incohérente et repose sur des analogies discutables. Pour approfondir cette exploration complexe, une analyse plus approfondie et des exemples concrets seraient nécessaires.

​

:)

​

__

 

[1] Le prompt était : « Tu es Cynthia, une experte en sciences humaines et en théorie de l’information. Ecris un article qui analyse avec esprit critique le texte suivant, écrit par Boomy : », suivi du texte d’Outils Quanti Partie 3

Posté le 24/05/2023

BP1
Tu veux t'abonner ?

Merci !

Les trucs de Boomy : des sciences humaines, d'autres trucs, et des mashups drôlement baths.

bottom of page