Wouaouh !
Les phrases sont syntaxiquement correctes, avec à peine une faute d'orthographe à l'occasion (erreur ou « pour faire vrai » ?). La langue, le thème sont immédiatement compris. Il comprend mes fautes de frappes. Il comprend je ne sais combien de langues, et traduit entre elles (pas trop mal pour ce que j'ai pu vérifier ; ce n'est certes pas nouveau depuis DeepL). Même en langue du Mordor. Il comprend une fonction en SQL et explique son fonctionnement.
Il a digéré tout Wikipédia. Il est capable de pointer une incohérence temporelle si je lui demande de raconter un texte impliquant François Ier et Alexandre le Grand. Mais si je lui dis que c'est imaginaire, il imagine comment pourrait tourner une guerre entre l'armée de Louis XIV et ses mousquets et l'armée de Sauron, en termes souvent trop vagues pour être utiles.
Les précautions oratoires sont multiples, à la limite du pénible. On sent que les expériences malheureuses d'autres chatbots devenus racistes après un quart d'heure sur Twitter ont servi. La moindre allusion raciste, esclavagiste, sexiste, ou violente génère une réponse outrée un peu moralisatrice qui invite vite à consulter un professionnel de santé. Une question politico-économique génère souvent une mini-dissertation avec des définitions, et des conclusions un peu bateau (« y a pas de certitudes, mais des bons et des mauvais côtés, faut voir »).
J'ai essayé de le pousser du côté complotiste. Hitler est bien mort, et les théories du complot sont sans fondement. La Terre n'est pas plate. Il refuse de démontrer que 2+2=5 et répond « va compter sur tes doigts ».
ChatGPT est capable de générer des programmes dans un langage sur un simple énoncé. En bash, python, SQL, PL/pgSQL, PL/Python.
La réponse est en gros pertinente...
Oui mais
Au deuxième abord, et ensuite au troisième, ça se gâte.
Péchés véniels : ses tics de langages et précautions oratoires énervent vite. Le côté moralisateur va bloquer rapidement toute utilisation artistique, le joker « imagine que » ne fonctionne pas si facilement. Il décrit souvent le processus qu'il suit pour expliquer ce qu'il répond.
Mastodon[1] est plein d'exemples du manque total de bon sens de ChatGPT. Il n'a aucun sens critique sur ce qu'il fait, ni même de la réalité. L'expression « perroquet stochastique » devient un lieu commun justifié, et si on lui demande il est d'ailleurs d'accord.
Ses propositions de fonctions en bash ou python sont syntaxiquement correctes, mais peuvent utiliser des fonctions qui n'existent pas. Il invente des aussi des options de commandes informatiques (qui pourraient très bien exister).
Il sait écrire une fonction qui calcule les dernières décimales de pi, sans la culture pour savoir que la question est débile (quand il ne se plante pas et calcule les 10 premières). Il démontre que √4 est irrationnel.
Il se contredit dans une même phrase. Il affirme que la France n'a qu'un fuseau horaire (UTC !), et au fur et à mesure que je lui parle de l'outre-mer, il s'excuse d'avoir oublié la Guyane ou le Gabon (il ne vérifie rien). Il ne dit jamais spontanément que la France est le pays avec le plus de fuseaux horaires au monde ; c'est dans Wikipédia pourtant.
Je peux lui demander de créer un sonnet sur n'importe quel sujet. Mais les vers ne riment pas.
Il comprend sans corriger. Je peux lui demander de convertir 54 000 blocs de 8 ko en « mégactets », la réponse sera « 447.144 mégactets ». Le chiffre est d'ailleurs faux car il divise des ko de 1024 octets par des mégaoctets de 1 000 000 octets, et, pire :
Le résultat de l'opération 54123 x 8192 est 447 144 576.
Oui, ce calcul est faux : ChatGPT marque une régression même par rapport à une calculette. C'est reproductible avec des grands chiffres. Quand on lui fait remarquer, il se confond en excuses. C'est aussi le cas quand on lui fait corriger par une autre erreur.
Il est capable d'affirmer deux choses opposées dans deux phrases successives.
Il est perdu quand il y a une ambiguïté dans une phrase.
Si je lui demande si les plumes de baleines font de bons oreillers, il objecte que ce n'est pas une option éthique car la chasse à la baleine est illégale.
Les jeux de mots le dépassent. Peut-être pourra-t-on discerner un humain d'une IA en lui demandant d'expliquer des blagues : Blade Runner n'est pas loin. Certains humains échoueront à ce test. Il est difficile de tester ChatGPT là-dessus puisqu'il ne prétend pas du tout être un vrai humain ni ressentir d'émotions. Mais il a déjà plus d'empathie que certains de mes semblables.
Et c'est encore l'humain qui va poser problème
En tant que complétion automatique pour aider les humains, ça fait longtemps que les IA sont utiles. Et comme la complétion automatique du téléphone, elle va être source de pas mal de fous rires et crise de nerfs, mais c'est une question d'habitude.
Sur le plus long terme, je vois monter la compétence « formuler des question pour ChatGPT pour qu'il sorte quelque chose de correct ». Ça devient déjà un sport sur les IA qui génère des images. On parie que ça va finir par devenir tellement technique que ça va finir chez les informaticiens comme le SQL, les tableaux BI, tout ce qui est pour utilisateurs finaux mais réclame de la réflexion ?
Des réseaux sociaux vont devenir inutilisables car submergés de bots innombrables qui ne dormiront jamais. Les délaisser sera peut-être une preuve de santé mentale. À mon avis, faire passer une IA pour un être humain réel deviendra un délit, et j'espère plus tôt que tard (sauf mention explicite bien sûr, et je sens qu'il va y avoir pas mal de zones grises), et devrait l'être depuis longtemps. Même ça ne protégera pas des concepts remontant du pire fond de l'humanité de rediffuser dans la société si des IA les répètent assez souvent.
Le futur va être intéressant. Les IA ont une très sale tendance à révéler le mauvais fond de l'humanité si on ne les bride pas. Le réglage du niveau d'éthique est une décision carrément politique. Voire philosophique, comme dans le dilemme du tramway. Pour un ChatGPT moralisateur qui ne s'engage pas, combien d'autres devenues fachos en quelques heures de contacts avec les internautes ? Qui définira la philosophie des IA ?
L'IA remplacera peut-être des travailleurs et autres petites mains, créateurs comme trolls, ou restera juste un outil dans leur main. En fin de compte, celui qui donnera les ordres tout en haut continuera de donner le ton.
Note
[1] Fini, l'oiseau bleu pour moi
8 réactions
1 De Thias - 05/03/2023, 21:09
Le truc c'est que ces LLM émulent plutôt bien tout une partie de la population qui parle avec autorité de sujet sans en avoir une réelle compréhension, prêtres, politiciens, certains journalistes. Il est probable que les LLM vont s'améliorer, et les politiciens… moins…
Je vois mal une legislation qui privera tant de gens de la chose dont ils ont tant besoin: un internet complet qui confirme leurs idées…
2 De Le webmestre - 05/03/2023, 22:42
Tu dis là que les IA vont remplacer tous ces gens dont on voulait déjà se passer ? Moi ça me va. Mais ils ne vont pas aimer la concurrence.
Terminator avait imaginé plusieurs variantes d'avènements de Skynet , voilà celle par remplacement de fausses élites.
Je me demande si des IA ne sont pas déjà entraînées à manipuler des IA généralistes comme ChatGPT. Pour contrer des IA trolls il va falloir pas mal de modérateurs IA, ou IA trolls en face, ou pour commander ces essaims d'IA. Si on arrive ainsi à la Singularité, ça promet si elle est aussi fiable que ChatGPT.
3 De Thias - 10/03/2023, 17:13
L'expression consacrée est la «spamularité», le moment ou les commentaires des bots remonteront le niveaux des commentaires sur YouTube, les réseaux sociaux ou les forums.
4 De Le webmestre - 10/03/2023, 18:40
Mmmmm, vu le niveau moyen du commentaire sur twitter ou youtube, je pense que les IA sont déjà capables de mieux.
5 De Thias - 11/03/2023, 20:24
C'est exactement le cœur du problème. Cela change définitivement la balance entre la production de contenu/parole et l'attention disponible. Il y avait déjà trop de contenus avant – je recevais un magazine du fabricant de mon four, et c'était avant l'avènement des LLM. Je n'ai honnêtement aucune idée de ce que ça va donner…
6 De Le webmestre - 13/03/2023, 09:16
@Thias : Il y a un obstacle à la généralisation complète du contenu généré par IA sur des indications humaines de plus en plus flous : elles vont finir par se retrouver entre elles en vase clos, sans que ça intéresse les humains. Les revenus publicitaires vont alors décrocher. Une IA peut faire semblant d'être un lecteur, mais n'achète ni voiture ni chaussettes.
Ça devrait se voir assez vite, et donc le futur devrait juste être un peu plus pire que maintenant : les contenus de m... seront générés par des IA, les gens qui écrivent dans leur coin continueront d'écrire avec leur public, un peu moins visibles, le contenu moyen utilitaire sera un peu plus décevant, et l'humanité un peu plus fragmentée et abrutie.
Si par contre il existe un moyen de monétiser l'attention des IA, ça peut s'emballer méchamment, les IA parlant aux IA sans limite. Jusqu'à étranglement du système, comme les spams avec le mail, à moins qu'il y ait une réaction violente genre éclatement de bulle. Après tout, ça arrive un peu déjà, la pub sur Internet et ses chiffres invérifiables étant en bonne partie du vent, et les clic souvent issus de robots.
7 De Thias - 16/03/2023, 21:17
Je pense que ça peut partir dans différentes directions, possiblement toutes en même temps.
D'un côté définitivement saturer le monde avec des contenus sans valeur, de l'autre forcer les différentes autorités (gouvernement, journalistes, académiques) a utiliser des outils modernes pour signer leur contenus (cryptographie).
Enfin un changement de perception sur l'importance de la forme et de la présentation, certains de ces modèles passent déjà les examens pour entrer en fac de droit et tout le monde pourra avoir des CVs et des lettres de motivations écrites dans un français parfait, il faudra peut-être se rabattre sur les compétences.
Dans la bagarre je soupçonne que pas mal de professions de "comm" vont passer à la trappe, ou changer dramatiquement. J'ai l'impression qu'on aura besoin des gens pour gérer les problèmes réels et physiques liés au réchauffement climatique…
8 De Le webmestre - 16/03/2023, 22:37
Les compétences vont devoir changer, oui. J'utilise déjà un peu ChatGPT pour cracher une ou deux fonctions. Mais c'est moi qui dit qui fait quoi. Et je corrige.
Dans mon boulot, je ne sais pas si une IA pourra me remplacer. Ça fait 30 ans qu'on dit que les DBA vont devenir inutiles, mais on élargit juste à chaque fois la palette des dysfonctionnements à gérer et les besoins augmentent.
Comme a dit quelqu'un sur LinkedIn, les bons recruteurs vont perdurer, mais les mauvais vont se faire remplacer d'un clic (et je pense que ChatGPT lire les CV, lui). Pas mal de postes de petites mains vont encore sauter, oui.
Des humains pourraient avoir des certificats « je suis un humain », mais les IA qu'ils délégueront en profiteront. Dans un monde où l'IA sera aussi utilisée que les correcteurs orthographiques et les lettres type, où commence l'original, où s'arrête le robotique ? Les IA et filtres auto dont regorge Photoshop suppriment-elles totalement l'artiste ?
Par contre, des multinationales ont déjà des robots qui décident de plein de choses (en fait déjà les ERP au XXè, et même simplement des procédures et règles avant) : vont devenir encore un peu plus inhumaines.
Mais il est vrai qu'il y a plus de chance que le changement ne soit pas mineur, comme l'apparition des calculatrices, mais bien majeur, comme internet, et en plus brutal encore que la dissémination des smartphones.
Le fait que les IA soient concentrées dans quelques mains (MS, Google..) est inquiétant. Est-ce temporaire ? Je peux déjà installer stablediffusion sur mon PC.
Encore plus optimiste : des IA sont utilisés pour imaginer des molécules en santé ou chercher des lois physique (version améliorée de la bête régression linéaire qui n'explique rien mais sert à l'ingénieur et le technicien) , peut être qu'une solution au changement climatique ou la pollution plastique viendra de là. « ChatGPT 5 , dis moi comment faire de la fusion froide et comment fabriquer une bactérie qui se nourrit du plastique dans l'eau de mer ». Et puis on pourra aller à la plage pendant que les IA bosseront pour nous. Oh, on arrive à la question du partage de ces gains de productivité !