Pour ne pas tout dire
L’expression “intelligence artificielle” n’est-elle pas abusivement utilisée pour parler des outils de conversation programmée ? Le succès de ChatGPT fait surgir des questions simples, avec des effets de panique médiatique qui n’ont pas de justifications. S’il convient de s’intéresser à cet outil numérique, n’est-il pas opportun de le ramener à ce qu’il est, n’en déplaise aux auteurs : un système évolué des tables de radotage ?
De fait, ces systèmes n’ont qu’une pseudo autonomie. Ils fonctionnent sur programmation et sollicitation et permettent de générer du texte à partir de données d’apprentissage et des croisements sémantiques. Leur utilisation dans différents domaines, avec des applications telles que le marketing, la communication et le journalisme n’offre aucune garantie de sérieux. Nous pourrions dire : bien au contraire. Si les algorithmes permettent de générer des textes cohérents, avec des réponses sur des sujets très variés, l’esprit critique fait défaut, même si parfois le système en fait la simulation. C’est d’ailleurs cette simulation qui trompe les plus naïfs des utilisateurs. Le système compile indifféremment des données choisies par les auteurs, et souvent avec beaucoup de complaisance avec le discours et l’Histoire officielle de l’environnement d’utilisation. Ainsi, les avantages de ChatGPT ne peuvent pas masquer ses défauts et limites.
I. Les limites de l’apprentissage automatique
Lorsque la vigilance humaine est absente, les erreurs et les imprécisions dans les réponses de ChatGPT peuvent avoir des conséquences problématiques dans des domaines touchant à la liberté, à la sécurité, à la vie des organisations, à la conduite politique et économique, ainsi qu’à la santé. En effet, les modèles de langage ne sont pas infaillibles et leur utilisation nécessite de la prudence. Des données biaisées, incomplètes ou mal structurées peuvent conduire à des erreurs difficiles à détecter et à corriger. De plus, les valeurs morales que le système a intégrées peuvent bien satisfaire l’utilisateur sans pour autant être pertinentes. En outre, les modèles de langage sont incapables de saisir la subtilité et la complexité de certaines situations, et ne peuvent pas remplacer l’expertise humaine dans toutes les circonstances.
Ainsi, l’information diffusée à propos de cet outil doit permettre une appropriation intelligente de la population, plutôt que de laisser des décideurs administratifs et politiques la possibilité de prendre des mesures restrictives de l’exercice de la liberté. En réalité, cet outil ne saurait avoir plus d’influence qu’en a eu la presse, la radio, le cinéma, la télévision et internet, et pas moins non plus.
Il est possible de le considérer comme un instrument de construction de la communication, avec tous les défauts des standards de l’information. Il convient d’être attentif à tout ce qu’il présente comme des vérités, d’autant plus s’il est utilisé dans l’éducation, l’enseignement et la formation continue. Il a dans ses modèles tous les poncifs des théories sur la communication, sans intégrer la moindre approche critique. Ainsi, il est clair qu’en tant que ressource pédagogique, il y a de quoi être très vigilant. Il est loin d’intégrer les approches récentes et d’évacuer les théories devenues obsolètes.
II. Raisonnement et information biaisés dans le modèle
Au préalable, le système doit être présenté comme un moyen au service de l’intelligence humaine et pas tant comme une intelligence artificielle. Cette manière de faire souligne qu’il peut comporter des biais, et qu’il est nécessaire de toujours vérifier les réponses fournies par ChatGPT avec vigilance.
Ensuite, nous venons de le voir, l’un défaut du système réside dans la sélection des données. Ce n’est pas seulement une question de qualité, c’est aussi une question de diversité. Le fait même de la sélection peut conduire à des réponses avec des stéréotypes ou des préjugés. Par exemple, avec des informations contenant des conceptions sécuritaires et liberticides, ChatGPT en répercute des notions dans ses réponses.
Dans la même logique, le modèle peut avoir du mal à générer des réponses appropriées pour des questions qui concernent les femmes si les données ne concernent que des hommes. Ainsi, avec des données d’une culture spécifique ou d’une certaine région géographique, les réponses du modèle sont inévitablement influencées. Par exemple, dès lors que les données proviennent de la culture occidentale, les réponses générées ne peuvent qu’être moins adaptées aux cultures asiatiques ou africaines.
Autre exemple, si les données contiennent des stéréotypes racistes ou sexistes, les réponses générées par le modèle peuvent refléter ces préjugés et perpétuer des formes de mise à l’index et de discrimination. Et encore, si la discussion porte sur des aspects économiques, de pratiques gestionnaires ou de priorités de gouvernance, de rapports entre la sécurité et la liberté, il est plus que vraisemblable que des biais de préférences idéologiques se glissent dans les textes fournis par le système. Par conséquent, l’universalité du système est très difficile à obtenir. Il en va de même pour ce qui est de l’évolution culturelle. L’outil ne peut qu’avoir une tendance conservatrice.
Ces exemples montrent comment les biais dans ce qui est fourni à ChatGPT peuvent affecter les réponses que le système génère, ce qui soulignent l’importance de l’attention des utilisateurs autant que des contributeurs à l’évolution de l’outil développé.
III. Limitation d’interprétation des contextes et environnements
L’identification des contextes peut être une exigence des utilisateurs et pourtant il s’agit de l’une des lacunes les plus flagrantes de ChatGPT. Le fait que le modèle génère des réponses d’apparence cohérente peut être trompeur. Il le fait à partir des données qui lui ont été programmées et donc il ne peut pas avoir tous les contextes spécifiques dans sa base. Et les particularités qui lui ont été intégrées peuvent être présentées comme des principes généraux. De même, les conseils qui peuvent en être extraits peuvent ne pas correspondre à la réalité, quoique la présentation de l’information par le système puisse être très affirmative.
Par exemple, si une question est posée dans un contexte spécifique, comme la préparation d’un entretien d’embauche, l’analyse d’une situation, la mise en place d’une stratégie, le commentaire d’une décision politique, économique, scientifique, les choix financiers ou tout choix relationnel, ChatGPT ne peut pas générer une réponse appropriée. Les biais cités plus haut interfèrent lourdement sur la rédaction des réponses. Non seulement le modèle ne peut pas prendre en compte les informations absentes de ce qui lui a été fourni, mais en plus il ne peut pas croiser des informations si le modèle n’a pas prévu cette possibilité. Dans tous les cas, la capacité d’analyse du système est limitée par son absence totale d’autonomie et d’universalité de programmation. Il manque dès lors de nuance au regard de toute situation un tant soit peu complexe.
En étant patient, en procédant par reformulation, en réinterrogeant la qualité des réponses, en dialoguant et en reprenant toute les affirmations, en usant de doute, les utilisateurs peuvent constater que les réponses de ChatGPT peuvent varier jusqu’à être si nuancées qu’elles peuvent devenir paradoxales. Dès lors, chaque utilisateur doit affiner le travail réalisé par l’outil électronique en assurant l’apport de précisions contextuelles. Il convient aussi de savoir que le système ne retient les données contextuelles que sur la page de travail où elles ont été introduites. Il ne réutilise les informations que celle qui figurent sur le document en cours ; autrement dit, il ne retient pas les informations quand on change de page de travail, ce qui peut être perturbant pour ceux qui imaginent que le système est toujours en apprentissage.
IV. La maltraitance de l’éthique
ChatGPT soulève des questions en raison de sa capacité à générer des écrits, en pouvant reproduire des effets de style. Nous lui avons par exemple demandé de nous faire un texte à la manière de François Villon, à partir d’une histoire improvisée. Impressionnant. Faites l’expérience. Parfois son tyle laisse à désirer, mais vous pouvez déjà obtenir un texte étonnant.
Les risques incluent ainsi la propagation de fausses informations, la manipulation de l’opinion publique, et l’altération de l’authenticité des contenus en ligne. Ce défaut est résidant dans son potentiel en raison des biais et des sélections d’information qui lui sont intégrés
En conséquence, ChatGPT peut être utilisé pour altérer l’authenticité des contenus en ligne en générant du contenu qui semble authentique, mais qui a en réalité été créé par un modèle de langage. Comment ne pas inciter à la vigilance ?
De fait, ça fait une autre raison d’être attentif à ce qui est raconté ici et là…
V. Avantages et bénéfices sous attention
Des avantages peuvent être concédés. Tout d’abord, ChatGPT est capable de générer du contenu à grande échelle et vite. Et le plus fascinant est la performance en matière de traduction, c’est du temps réel.
Le système est devenu aussi performant avec les mots qu’avec les chiffres. Il génère des discours aussi vite que les ordinateurs génèrent des calculs. Mais la confiance aveugle comporte des risques. N’oublions pas que les ordinateurs les plus performants sont utilisés pour calculer le lancement de fusées loin dans l’espace et que certaines d’entre elles explosent en vol après seulement quelques centaines de mètres dans le ciel.
En outre, ChatGPT est en mesure de fournir des réponses précises et rapides, en langage naturel, à des questions spécifiques, ce qui peut être utile pour les professionnels qui ont un besoin rapide d’informations en étant capables de les évaluer. Il peut aider à automatiser des tâches, comme la création de rapports ou la rédaction de courriels. Pour autant, l’aide qu’il peut apporter dans la compréhension de modèles linguistiques et de la syntaxe, doit être prise avec circonspection, surtout s’il s’agit d’envisager d’améliorer la compréhension de la façon dont les humains communiquent.
Ce que vous pouvez retenir
ChatGPT offre une pratique de conversation avec une machine qui est aussi étonnante que peut l’être la discussion avec un perroquet. Comme dit en introduction, vous disposez d’une table de radotage de compétition. Certes, le système est plus performant que l’oiseau et plus bavard que la table de radotage enseignée dans les écoles d’administration et de sciences politiques. Il a le potentiel de révolutionner la rédaction dans certains secteurs tels que l’enseignement, le journalisme, la politique ou la publicité. Mais il ne peut pas apprendre de ses propres erreurs, ce qui – même si ça ne le différencie guère de nombreux humains – le prive de la performance qu’on aimerait bien lui attribuer. La qualité variable des réponses générées, les confusions, la tendance à reproduire les biais de toute sorte, la compréhension limitée du contexte ne permet pas de lui faire confiance.
Pour autant, il convient de ne pas voir cet outil comme une arme de traitement de l’information différentes de toutes les autres. Certes, il peut permettre d’accélérer la création de textes, mais il ne remplace pas l’intelligence et la subtilité humaine. Un couteau sur une table reste un couteau sur une table. De fait, on peut le transformer en arme, mais celui qui est en face peut aussi connaître la self défense. Autrement dit, les changements ne vont pas être plus profonds que l’introduction de la dactylographie avec la machine à écrire ou le développement de la micro informatique. Il s’agit d’une technologie supplémentaire. L’alarmisme vient toujours accompagner les changements. Certes, il est important de reconnaître les limites de cette technologie, notamment avec la tendance à reproduire les biais présents dans les données d’apprentissage et la compréhension limitée du contexte. Néanmoins, il faut bien reconnaître que, même si c’est navrant, l’esprit humain et la communication humaine se révèlent de la même nature, en dépit de toute l’instruction qui peut lui avoir été apportée. De ce fait, c’est vers la conscience de l’utilisateur qu’il convient de se tourner.
Si l’on s’en tient qu’au système lui-même, son amélioration peut se faire de manière contributive entre les utilisateurs et les développeurs de ChatGPT, de sorte qu’il puisse y avoir une résolution des problèmes liés au biais et aux limites, afin de maximiser les avantages potentiels de cette technologie pour la société dans son ensemble. Mais le vrai intérêt est ailleurs.
Soyez attentif à ma conclusion
En faisant un usage subtile de cet outil, ce n’est pas la connaissance qui peut en pâtir. Du tout. La connaissance devient en effet anecdotique. Hier, elle permettait à des personnes de se valoriser, tant dans les salons que sur les tribunes. Désormais, c’est une nouvelle approche qui est en train de se faire et c’est un autre outil de l’humain qui peut s’épanouir : son raisonnement, sa réflexion et la sagacité de sa conscience, autant dire son intelligence. C’est bien là qu’il faut voir le bénéfice de cet outil qui manipule les données de la connaissance humaine : il rend disponible le travail sur la qualité de conscience humaine.
En ultime synthèse, voici les plus graves défauts de cette pseudo intelligence artificielle :
- Les données utilisées contiennent des stéréotypes et des préjugés, avec des biais culturels et géographiques qui nécessitent du discernement dans l’utilisation qui est faite.
- L’expertise fine, l’aptitude à la synthèse, le sens de l’analogie, la subtilité, la créativité et la réflexion typique de l’humain en sont absentes.
- Le langage véhicule sans discrimination les valeurs morales des auteurs qui ont fait la sélection des informations, parfois avec complaisance, ce qui est loin de témoigner de qualité et d’éthique. La conséquence est que cet outil peut générer des discours standardisés, avec des informations fausses, tendant à manipuler les opinions publiques et influencer les comportements.
- Le système utile des formules très identifiables. Les adverbes font parties du lexique programmé
CHATGPT ? En bref, un outil génial loin d’être à l’épreuve des sarcasmes et de la bêtise humaine
L’article CHATGPT, un perroquet radoteur ? est apparu en premier sur Officiel de la Médiation Professionnelle et de la Profession de Médiateur.