Utiliser l’IA en activant sa propre intelligence

Utiliser l’IA en activant sa propre intelligence

Adopter une intelligence artificielle générative, comme ChatGPT, ne dispense pas de mettre au travail ses propres neurones, bien au contraire !

Luc JULIA, un des cerveaux créateurs de l’assistant vocal d’Apple Siri, met en exergue le rôle du sachant : « Le prof est la clé. » Dans son intervention filmée au Sénat français, l’expert invite les professeurs à envisager les systèmes génératifs comme une opportunité plutôt que comme un ennemi invisible. La résignation n’a pas sa place, accueillir l’intelligence artificielle comme un outil de formation au sens critique peut être une expérience enrichissante pour les apprenants, comme pour les enseignants.

À l’UMONS, une réflexion a évidemment été menée pour estimer une utilisation adéquate des systèmes d’intelligence artificielle générative, dans le cadre de l’évaluation des travaux écrits par les étudiants. Une charte a été éditée en conséquence et fixe les limites acceptables et souhaitables dans un contexte de formation universitaire. S’il est de plus en plus difficile de juger de la qualité de l’écrit, l’importance de propos étayés par des sources pertinentes, consignées dans une bibliographie structurée, est cruciale pour permettre une évaluation objective, constante et proportionnée par les professeurs. Ceux-ci sont amenés à juger, encore plus qu’avant, la compréhension par les étudiants des concepts qu’ils posent dans leurs rapports.

Plutôt que de considérer ces nouveaux outils comme une menace, on peut également prendre le point de vue positif d’une occasion d’y confronter sa propre intelligence et compréhension des choses.

Lucas Michel, formateur et conférence IA et ChatGPT, nous livre son avis sur une étude du MIT qui dit que ChatGPT rend les gens bêtes : « (…) si tu prompts après avoir réfléchi, si tu utilises l’IA pour aller plus loin, pas pour éviter l’effort, alors là oui, c’est un game changer ».

Selon moi, il est préférable de préalablement se renseigner de manière « traditionnelle » sur un sujet. Une fois son avis établi, il peut s’avérer pertinent de challenger ChatGPT pour voir s’il est sur la même longueur d’onde. Si c’est le cas, on peut estimer avoir une idée assez précise sur le sujet. Sinon, c’est là que ChatGPT devient intéressant, car il peut mettre en avant des points auxquels on n’aurait pas pensé ou qu’il interprète différemment. À ce moment-là, creuser pour affiner son avis, en recoupant les sources, paraît la bonne approche. Se forger d’abord un avis plutôt qu’ingurgiter le « savoir » pré-digéré d’une IA, et garder un esprit critique, sont les garants d’une méthode efficace d’apprentissage continu.

17E08048-0F86-4932-82AC-4E38C030BE24

Prompt ChatGPT ayant permis de créer cette illustration :

« Crée une image expliquant qu’on peut utiliser ChatGPT en activant sa propre intelligence, en gardant un esprit critique »

attention au recours systÉmatique et automatique

En entreprise, comme ailleurs, l’IA générative fait des merveilles. Plus besoin de coder en CSS un survol de bouton sur un site web, aux oubliettes les heures passées à rédiger un résumé de réunion, vive la traduction automatique lors des visioconférences. Les exemples sont nombreux. Oui, mais…

Lorsqu’on délègue à une IA des tâches sensibles, liées au core business de son entreprise, le risque est grand si on le fait de manière régulière et sans contrôle. N’oublions pas qu’une IA ne sera jamais responsable de ce qu’elle dit ou génère. Vous bien. En 2022 déjà, un tribunal civil canadien jugeait qu’il n’était pas juste de penser qu’un chatbot était une entité légale externe à l’entreprise, Air Canada en l’occurence, et qu’il avait sa propre responsabilité en cas de réponses incorrectes. 

Il peut être extrêmement tentant de s’en remettre aveuglément à une IA qui semble, à première vue, « faire le job » à votre place. Encore faut-il que ce travail délégué soit de qualité, précis et sans faute. Dans le cas contraire, c’est la réputation de votre entreprise qui pourrait être en jeu. Alors que faire pour éviter cela ? Contrôler, vérifier, tester. Il n’est de ce fait pas évident que le gain de temps soit réel, si on ne fait que déplacer la charge plus loin dans le processus.

Guillaume von der Weid, nous explique qu’ « (…) en masquant la dimension exclusivement calculatoire de l’IA, cette projection anthropomorphique [N.D.L.R. projection qui vise à considérer une IA comme une intelligence humaine] conduit à lui déléguer des responsabilités qui nous reviennent ». Est-on le maître dans cette interaction, l’IA étant de ce fait l’esclave qui pourrait vouloir s’affranchir (le cinéma hollywoodien a largement couvert le champ des possibles) ? Ou, a contrario, deviendrons-nous les esclaves des algorithmes, ne sachant plus réfléchir par nous-mêmes ?

Loin de ces considérations philosophiques et catastrophistes, et sans même aborder les aspects éthiques, il est bon d’appréhender ces innovations, dont on ne mesure pas encore la portée dans les années à venir, pour ce qu’elles sont : des assistants, apparemment intelligents, réservoirs de connaissances gigantesques, possédant une rapidité de traitement hors normes humaines. Rien de moins, rien de plus.