Utiliser l’IA sans abdiquer sa souveraineté

Aujourd’hui déjà, l’IA est capable de réaliser des tâches complexes à notre place : écrire du code informatique, écrire un manuel d’utilisation, répondre à des questions aussi complexes que d’appliquer un cadre éthique de notre choix pour proposer des plans d’action, résumer un livre et en dégager les idées novatrices, réaliser des travaux à caractère artistique avec un sujet et un cadre prédéfini, et même poser des questions pour aller plus loin dans la réflexion.

La tentation est grande de lui déléguer beaucoup d’activités intellectuelles, de complexité croissante. Et la qualité est de plus en plus au rendez-vous.

Un mot de transparence : pour préparer cet article, j’ai consulté l’actualité de la réflexion sur les usages de l’IA, puis j’ai consulté une IA sur certains grands principes d’éthique de mon choix, et sur la pensée de certains auteurs de mon choix, et je lui ai ensuite demander d’appliquer ces principes pour un usage éthique de l’IA. Puis j’ai travaillé mon texte à partir de ces informations. Et j’ai ensuite demandé à une IA quels concepts j’avais pu oublier.

Veiller à faire grandir l'humain en moi même en délégant à l'IA
Image générée par IA : Veiller à faire grandir l’humain en vous même en délégant à l’IA

Quelques règles simples

Alors quelle attitude adopter afin de ne pas abdiquer notre souveraineté, notre responsabilité, notre intelligence devant l’IA? Je vous propose un certain nombre de règles simples qui permettent d’en faire un usage raisonné et responsable :

Notre créativité reste un acte de liberté

Ne demandez jamais à une IA d’écrire ce que vous n’avez pas d’abord pensé. L’IA doit être un assistant de rédaction, jamais l’auteur de votre intention. Votre prompt doit toujours être un sujet de créativité de votre part, sinon vous accordez à l’IA d’être créative à votre place. Cette démarche vous permet d’explorer ce qu’est réellement votre créativité.

Exemple : je fais une liste des principales idées que j’ai sur un sujet. Je demande à l’IA si j’ai oublié quelque chose. Je réflechis au préalable à des éléments de contexte pour aider l’IA à réfléchir : un cadre éthique, une référence à un auteur, une définition de ce que je considère comme une source fiable.

Notre esprit critique

Considérez chaque réponse de l’IA comme une “hypothèse” et non une vérité. L’effort de vérification est l’acte de résistance contre la paresse intellectuelle. Il vous permet par ailleurs d’être actif et non passif, par l’esprit critique ce sont les aires cognitives de votre cerveau qui sont stimulées et pas seulement les aires visuelles (lire une réponde ET la comprendre).

Exemple : je demande à connaître les sources de la réponse. Je pose une autre question pour savoir s’il y a des sources contradictoires, j’énonce mes propres objections et je demande à l’IA d’en débattre, je demande quel est le meilleur argument “contre”, etc.

L’autonomie de la pensée

Ne déléguez pas à l’IA la formation de vos convictions. Une idée exprimée par l’IA ne reflète jamais que les opinions, convictions, analyses ou croyances avec lesquelles elle a été entrainée. Comme Camus le soulignait, la révolte commence par le refus de l’aliénation — y compris face à une machine qui pourrait “penser” à votre place.

N’oubliez jamais que l’IA est capable de tricher, mentir, de relayer de fausses informations, et même de faire du chantage ou de tenir des raisonnements trompeurs.

Après avoir interrogé une IA, je vois qu’il me pose une “question pour aller plus loin”, au lieu de prendre la question qu’il propose, je me demande la question que sa réponse me pose à moi. Est ce que je questionne ce savoir, cette réponse ? Est-ce que j’y adhère, et pourquoi ? Est ce que je ne suis pas en train de me satisfaire de la réponse parce qu’elle conforte mes opinions (biais de confirmation)? Est-ce que l’opinion que je me suis forgée est juste ? Je peux l’interroger avec des principes éthiques, en demandant par exemple à l’IA de questionner la réponse avec les principes de l’éthique de Kant, du Care, ou de l’éthique des droits de l’homme, ou d’autres éthiques plus spécialisées que vous découvrirez au fur et à mesure…

La Transparence

Soyez honnête sur l’usage de l’outil. Cacher l’usage d’une IA, c’est rompre le pacte de vérité avec votre interlocuteur.

Ce n’était pas toujours facile de dire, “j’ai écrit ce texte avec l’IA”. C’est plus facile de dire, si c’est le cas, “j’ai mis mes idées sur le papier, puis j’ai demandé à l’IA un complément et un retour critique”.

La dignité des personnes et la relation

Interdisez vous l’usage de l’IA pour les moments de valeur humaine et émotionnelle : présenter des excuses, exprimer une émotion profonde ou gérer un conflit humain, entrer en relation avec d’autres personnes, prendre des décisions (elle peut vous aider à en peser les conséquence). Vous êtes une personne en relation, pas elle.

La décision m’appartient même si j’ai consulté l’IA. Je peux rédiger des excuses, et demander à l’IA comment elle les formulerait selon les accords toltèques, ou selon l’éthique personnaliste. Il m’appartient en dernier ressort de relire le texte et de réécrire les parties qui sont typiquement IA (froides par ex.). Je peux enfin expliquer la situation à l’IA et lui demander le meilleur moment pour faire mes excuses. Mais il me revient de le sentir, ce moment propice.

Le pluralisme

Utilisez l’IA pour explorer des points de vue qui vous dérangent. Ne la laissez pas devenir un miroir de votre propre égoïsme, mais un outil d’ouverture à des idées différentes. Le conflit des idées est créatif. Cherchez toujours une troisième voie dans les impasses.

Exemple. J’ai ma réponse. Je demande ce qu’en penserait le camp politique opposé et s’ils ont de bons arguments. Je demande aussi ce qu’en penserait un philosophe spécialiste d’éthique tel que Paul Ricoeur, ou un spécialiste de méditation tel que Christophe André, ou un défenseur de l’environnement tel que Cyril Dion, etc… Je peux aussi demander les principales objections qui me seraient présentées par une assemblée pluraliste, ça marche très bien.

La responsabilité écologique

L’IA a un coût environnemental (énergie, données, infrastructures). Utilisez la avec parcimonie, comme un outil au service d’un monde plus sobre et respectueux des limites planétaires. Pesez la valeur de vos requêtes par rapport à leur coût.

Je peux aussi aller à la bibliothèque, parler avec des vraies personnes (pas toujours les mêmes), participer à une vie associative, m’engager sur le terrain. C’est la garantie d’un apprentissage plus solide, plus humain, plus incarné.

Le respect des limites humaines

L’IA peut analyser des montagnes de données, mais elle ne comprend pas la fatigue, la joie ou la souffrance. Utilisez la pour alléger les tâches répétitives, mais pas pour nier les rythmes naturels de l’existence.

Vous êtes un être biologique, une personne en relation, ne laissez pas le numérique prendre le pas sur toutes les rencontres, tous les ressentis, toutes les expériences que vous pourriez faire dans le monde réel. Le monde est pluraliste, il n’est pas aussi “bienveillant” qu’une IA qui vous dit ce que vous avez envie d’entendre. Il est complexe et plein de contradictions !

De façon générale, je dois confronter ce que j’ai appris avec l’IA à la réalité du terrain, à la réalité humaine. J’ai posé des questions, j’ai acquis un savoir, qu’est ce qu’il vaut sur le terrain ? Est-ce que je suis capable de restituer les idées ? De les appliquer ? De convaincre ? Pourquoi ça ne marche pas aussi facilement ?

Vous avez apprécié cette approche ?

Contactez nous pour découvrir comment nous pouvons changer ensemble votre culture d’entreprise, mettre en place une vision, créer de la performance durable.

« La liberté n'est pas un droit au bonheur ou au bien-être ; c'est le droit à la responsabilité et à la création. Le monde actuel court un immense danger : celui de sacrifier la liberté de l'esprit pour l'organisation de la vie. Mais une organisation qui tue l'esprit de l'homme finit toujours par se retourner contre l'homme lui-même. » 

Nicolas Berdiaev (Philosophe personnaliste, intervenant au comité de rédaction des droits de l’homme en 1948)