Wouaouh !

Les phrases sont syntaxiquement correctes, avec à peine une faute d'orthographe à l'occasion (erreur ou « pour faire vrai » ?). La langue, le thème sont immédiatement compris. Il comprend mes fautes de frappes. Il comprend je ne sais combien de langues, et traduit entre elles (pas trop mal pour ce que j'ai pu vérifier ; ce n'est certes pas nouveau depuis DeepL). Même en langue du Mordor. Il comprend une fonction en SQL et explique son fonctionnement.

Il a digéré tout Wikipédia. Il est capable de pointer une incohérence temporelle si je lui demande de raconter un texte impliquant François Ier et Alexandre le Grand. Mais si je lui dis que c'est imaginaire, il imagine comment pourrait tourner une guerre entre l'armée de Louis XIV et ses mousquets et l'armée de Sauron, en termes souvent trop vagues pour être utiles.

Les précautions oratoires sont multiples, à la limite du pénible. On sent que les expériences malheureuses d'autres chatbots devenus racistes après un quart d'heure sur Twitter ont servi. La moindre allusion raciste, esclavagiste, sexiste, ou violente génère une réponse outrée un peu moralisatrice qui invite vite à consulter un professionnel de santé. Une question politico-économique génère souvent une mini-dissertation avec des définitions, et des conclusions un peu bateau (« y a pas de certitudes, mais des bons et des mauvais côtés, faut voir »).

J'ai essayé de le pousser du côté complotiste. Hitler est bien mort, et les théories du complot sont sans fondement. La Terre n'est pas plate. Il refuse de démontrer que 2+2=5 et répond « va compter sur tes doigts ».

ChatGPT est capable de générer des programmes dans un langage sur un simple énoncé. En bash, python, SQL, PL/pgSQL, PL/Python.

La réponse est en gros pertinente...

Oui mais

Au deuxième abord, et ensuite au troisième, ça se gâte.

Péchés véniels : ses tics de langages et précautions oratoires énervent vite. Le côté moralisateur va bloquer rapidement toute utilisation artistique, le joker « imagine que » ne fonctionne pas si facilement. Il décrit souvent le processus qu'il suit pour expliquer ce qu'il répond.

Mastodon[1] est plein d'exemples du manque total de bon sens de ChatGPT. Il n'a aucun sens critique sur ce qu'il fait, ni même de la réalité. L'expression « perroquet stochastique » devient un lieu commun justifié, et si on lui demande il est d'ailleurs d'accord.

Ses propositions de fonctions en bash ou python sont syntaxiquement correctes, mais peuvent utiliser des fonctions qui n'existent pas. Il invente des aussi des options de commandes informatiques (qui pourraient très bien exister).

Il sait écrire une fonction qui calcule les dernières décimales de pi, sans la culture pour savoir que la question est débile (quand il ne se plante pas et calcule les 10 premières). Il démontre que √4 est irrationnel.

Il se contredit dans une même phrase. Il affirme que la France n'a qu'un fuseau horaire (UTC !), et au fur et à mesure que je lui parle de l'outre-mer, il s'excuse d'avoir oublié la Guyane ou le Gabon (il ne vérifie rien). Il ne dit jamais spontanément que la France est le pays avec le plus de fuseaux horaires au monde ; c'est dans Wikipédia pourtant.

Je peux lui demander de créer un sonnet sur n'importe quel sujet. Mais les vers ne riment pas.

Il comprend sans corriger. Je peux lui demander de convertir 54 000 blocs de 8 ko en « mégactets », la réponse sera « 447.144 mégactets ». Le chiffre est d'ailleurs faux car il divise des ko de 1024 octets par des mégaoctets de 1 000 000 octets, et, pire :

Le résultat de l'opération 54123 x 8192 est 447 144 576.

Oui, ce calcul est faux : ChatGPT marque une régression même par rapport à une calculette. C'est reproductible avec des grands chiffres. Quand on lui fait remarquer, il se confond en excuses. C'est aussi le cas quand on lui fait corriger par une autre erreur.

Il est capable d'affirmer deux choses opposées dans deux phrases successives.

Il est perdu quand il y a une ambiguïté dans une phrase.

Si je lui demande si les plumes de baleines font de bons oreillers, il objecte que ce n'est pas une option éthique car la chasse à la baleine est illégale.

Les jeux de mots le dépassent. Peut-être pourra-t-on discerner un humain d'une IA en lui demandant d'expliquer des blagues : Blade Runner n'est pas loin. Certains humains échoueront à ce test. Il est difficile de tester ChatGPT là-dessus puisqu'il ne prétend pas du tout être un vrai humain ni ressentir d'émotions. Mais il a déjà plus d'empathie que certains de mes semblables.

Et c'est encore l'humain qui va poser problème

En tant que complétion automatique pour aider les humains, ça fait longtemps que les IA sont utiles. Et comme la complétion automatique du téléphone, elle va être source de pas mal de fous rires et crise de nerfs, mais c'est une question d'habitude.

Sur le plus long terme, je vois monter la compétence « formuler des question pour ChatGPT pour qu'il sorte quelque chose de correct ». Ça devient déjà un sport sur les IA qui génère des images. On parie que ça va finir par devenir tellement technique que ça va finir chez les informaticiens comme le SQL, les tableaux BI, tout ce qui est pour utilisateurs finaux mais réclame de la réflexion ?

Des réseaux sociaux vont devenir inutilisables car submergés de bots innombrables qui ne dormiront jamais. Les délaisser sera peut-être une preuve de santé mentale. À mon avis, faire passer une IA pour un être humain réel deviendra un délit, et j'espère plus tôt que tard (sauf mention explicite bien sûr, et je sens qu'il va y avoir pas mal de zones grises), et devrait l'être depuis longtemps. Même ça ne protégera pas des concepts remontant du pire fond de l'humanité de rediffuser dans la société si des IA les répètent assez souvent.

Le futur va être intéressant. Les IA ont une très sale tendance à révéler le mauvais fond de l'humanité si on ne les bride pas. Le réglage du niveau d'éthique est une décision carrément politique. Voire philosophique, comme dans le dilemme du tramway. Pour un ChatGPT moralisateur qui ne s'engage pas, combien d'autres devenues fachos en quelques heures de contacts avec les internautes ? Qui définira la philosophie des IA ?

L'IA remplacera peut-être des travailleurs et autres petites mains, créateurs comme trolls, ou restera juste un outil dans leur main. En fin de compte, celui qui donnera les ordres tout en haut continuera de donner le ton.

Note

[1] Fini, l'oiseau bleu pour moi