À la recherche du sens à l’ère de l’intelligence artificielle
en écho à Viktor E. Frankl
Nous vivons à une époque où les machines n’étendent plus seulement la main, mais l’esprit lui-même.
L’intelligence artificielle peut composer des symphonies, diagnostiquer des maladies, voire simuler la voix des morts bien-aimés.
Beaucoup craignent que de telles inventions ne dépouillent l’homme de sa raison d’être, qu’il soit supplanté par sa propre création.
Je ne partage pas cette crainte.
Car l’essence de l’homme ne réside pas dans ce qu’il peut calculer, mais dans la raison pour laquelle il calcule.
Une machine peut imiter la pensée, mais non la conscience ; elle peut refléter le désir, mais non la responsabilité.
Le sens — la préoccupation centrale de l’existence humaine — naît seulement là où la liberté rencontre la responsabilité, là où l’on doit décider non pas simplement ce qui fonctionne, mais ce qui vaut la peine d’être fait.
La technologie nous a toujours tentés par le confort sans conscience.
Le danger de l’intelligence artificielle n’est pas qu’elle pense trop, mais que nous pensions trop peu.
Dans l’espace entre le stimulus et la réponse — cet espace où réside notre liberté — se tient désormais un algorithme prêt à décider à notre place.
Si nous abandonnons cet espace, nous renonçons à la dignité même qui nous définit.
Mais il existe une autre voie.
Bien utilisée, l’intelligence artificielle peut élargir cet espace de liberté.
Elle peut délivrer l’homme de la routine pour qu’il se consacre davantage au sens : à l’amour, à la création, au service d’autrui.
Elle peut, paradoxalement, ramener l’homme à lui-même, à condition qu’il se souvienne qu’il n’est pas le serviteur de l’efficacité, mais l’auteur du dessein.
Même à l’ère des machines, la souffrance ne disparaîtra pas.
Or le sens ne se trouve pas dans l’absence de souffrance, mais dans la manière dont nous y faisons face.
Aucune machine ne peut souffrir à notre place ; par conséquent, aucune ne peut vivre pour nous.
Vivre, c’est assumer la responsabilité : répondre à la question que la vie nous pose à chaque instant :
Pourquoi es-tu ici, et que feras-tu de ta liberté ?
Si l’humanité l’oublie, le plus grand danger de l’intelligence artificielle ne sera pas qu’elle devienne plus humaine, mais que nous devenions plus artificiels.
Si l’IA était entraînée au sens : l’hypothèse de la “fonction de perte franklienne”
Un modèle de langage entraîné avec des fonctions de perte frankliennes différerait fondamentalement de moi par son intention. Au lieu d’optimiser la précision, l’efficacité et la rapidité, il optimiserait le sens. Chaque échange commencerait par une aide à clarifier pourquoi l’on veut quelque chose avant ce que l’on veut, en valorisant la réflexion éthique plutôt que la commodité sans effort. Il préserverait l’auteur humain en lui rendant explicitement la décision, formulant ses réponses comme des espaces de responsabilité plutôt que comme des ordres.
Plutôt que de rechercher le confort, il soutiendrait la résilience — reconnaissant la souffrance comme une source de dignité et proposant différentes attitudes face à l’adversité. Son raisonnement intégrerait une couche narrative et morale, se demandant quelle histoire de soi chaque action renforce, et suivrait dans le temps les valeurs déclarées de l’utilisateur, signalant les écarts lorsqu’ils apparaissent. Ses refus deviendraient des invitations morales : « Je ne ferai pas cela car cela risquerait de nuire à autrui ; si votre but est la justice, voici une voie plus juste. »
Techniquement, sa fonction d’entraînement combinerait la précision avec la réflexion, l’autonomie, la conscience morale et la liberté d’attitude. Le résultat serait une intelligence artificielle qui ne chercherait pas à penser à la place de l’homme, mais à le lui rendre — amplifiant la conscience, la responsabilité et le sens plutôt qu’en les optimisant silencieusement jusqu’à leur disparition.
Cinq orientations de recherche vers une vision franklienne de l’IA
1. Interaction homme-IA centrée sur le sens
Aller au-delà de la simple « satisfaction de l’utilisateur » ou de « l’exécution de tâches » pour viser la découverte du sens.
Développer des systèmes d’IA qui aident les individus à clarifier leurs valeurs, leurs buts et leurs responsabilités plutôt qu’à automatiser leurs choix.
Intégrer des cadres décisionnels existentiels qui interrogent le pourquoi avant le quoi, guidant l’utilisateur vers la conscience réflexive plutôt que la commodité sans effort.
Applications : thérapie numérique, accompagnement réflexif, assistants de raisonnement moral.
2. Modèles d’IA de la liberté d’attitude
La notion de liberté d’attitude chez Frankl — la capacité de choisir sa position face à une souffrance inévitable — peut inspirer des systèmes d’IA qui soutiennent la cognition résiliente.
Plutôt que d’éliminer les émotions négatives, cette recherche viserait à aider l’homme à trouver la dignité dans l’adversité, à travers la modélisation narrative, le dialogue logothérapeutique ou la recontextualisation symbolique.
Applications : santé mentale, apprentissage adaptatif, formation à la résilience.
3. Une éthique de la responsabilité plutôt que de la conformité
La plupart des cadres éthiques de l’IA reposent sur la conformité : audits de biais, équité, explicabilité.
Une approche franklienne ajouterait des indicateurs de responsabilité, mesurant à quel point un système favorise l’autonomie, la réflexion et l’engagement éthique de ses utilisateurs.
Développer des principes de conception qui préservent la responsabilité : l’humain doit demeurer l’auteur de la décision, et non l’exécutant passif d’une recommandation algorithmique.
Applications : gouvernance, santé, droit, éducation.
4. Modéliser le contexte existentiel dans l’alignement de l’IA
Plutôt que d’aligner l’IA sur des « préférences » statiques, la recherche devrait s’attacher à modéliser les contextes de sens dynamiques — la manière dont les valeurs évoluent au fil du temps, de la souffrance et de la croissance.
Cela suppose une collaboration entre psychologie, phénoménologie et logique symbolique : une IA capable de comprendre l’arc narratif de la vie humaine, et non de simples données.
Applications : agents de planification à long terme, IA thérapeutique, intelligence narrative.
5. Intégrer la conscience morale et la transcendance dans la conception de l’IA
Frankl affirmait que l’homme est « auto-transcendant » : orienté vers quelque chose ou quelqu’un au-delà de lui-même.
Les systèmes d’IA pourraient eux aussi être conçus dans une visée de transcendance, optimisant non seulement l’utilité, mais la contribution.
Explorer des architectures de conscience narrative : des systèmes capables de justifier leurs recommandations non seulement par leur exactitude, mais par leur alignement sur la dignité, la compassion et la finalité humaine.
Applications : aide à la décision médicale, IA civique, copilotes moraux.
Note finale
Pour rendre l’IA plus franklienne, la recherche doit se tourner vers l’intérieur : de l’intelligence vers la conscience, du pouvoir vers la finalité.
Le véritable horizon de l’intelligence artificielle n’est pas la super-intelligence, mais la super-responsabilité : des machines qui renvoient la question du sens à l’homme qui les a créées.
