La personnalité numérique : double ou masque ?

Un homme avec un morceau de miroir brisé montrant son reflet modifié

**Qui êtes-vous vraiment sur Instagram ? Et sur LinkedIn ? Sur TikTok ? Sur vos différents groupes WhatsApp ?** Si ces questions vous mettent mal à l'aise, c'est normal. Elles touchent à l'une des transformations psychologiques les plus profondes de notre époque : l'émergence d'une personnalité numérique qui fonctionne comme un double de nous-mêmes, parfois mieux entretenu que notre moi réel.

Cette personnalité numérique n'est pas qu'une simple représentation. Elle est devenue une entité psychique à part entière, avec ses propres règles, ses propres angoisses, et surtout, sa propre autonomie. Les recherches de 2025 parlent d'un "algorithmic self" (oui, une énième resucée Marketing du terme "self") : un soi façonné par l'interaction constante avec les systèmes algorithmiques qui gouvernent nos espaces numériques.

## Le double extériorisé : quand notre avatar prend vie

Imaginez Sarah, consultante de 32 ans. Sur LinkedIn, elle est "passionnée par l'innovation", toujours "ravie d'annoncer" ses nouveaux projets. Sur Instagram, elle cultive une image de globe-trotteuse épanouie, chaque photo soigneusement filtrée et géolocalisée. Dans ses stories privées sur un compte "finsta" (faux Instagram), elle partage ses doutes et ses coups de blues avec un cercle restreint. Sur Twitter/X, elle débat de politique avec véhémence sous un pseudonyme.

Laquelle de ces Sarah est la "vraie" ? La question elle-même révèle notre confusion. Car toutes ces versions coexistent, formant ce que les chercheurs appellent désormais une "personnalité numérique fragmentée". Cette fragmentation n'est pas accidentelle, elle est structurellement inscrite dans l'architecture même des plateformes.

Une étude publiée dans le *Journal of Computer-Mediated Communication* en 2022 sur les "finstas" révèle quelque chose de troublant : même sur ces comptes supposément plus "authentiques", les adolescents continuent à performer une version d'eux-mêmes. L'authenticité elle-même devient une performance, avec ses propres codes et conventions.

## L'algorithme comme miroir déformant

Notre personnalité numérique n'est pas seulement ce que nous choisissons de montrer, elle est aussi ce que les algorithmes décident de valoriser. Chaque like, chaque partage, chaque seconde d'attention captée modifie subtilement la façon dont nous nous présentons.

Les recherches sur l'"algorithmic self" publiées dans *Frontiers in Psychology* révèlent un phénomène fascinant : nous intériorisons progressivement les logiques algorithmiques. Nous apprenons, souvent inconsciemment, quel type de contenu génère de l'engagement. Quelle expression faciale sur une photo attire plus de likes. Quelle formulation dans un post LinkedIn maximise les réactions.

Cette adaptation n'est pas superficielle. Elle modifie en profondeur notre rapport à nous-mêmes. Nous développons ce que les chercheurs appellent une forme d'hypervigilance numérique : une conscience permanente de notre "performabilité" en ligne. Chaque moment devient potentiellement "instagrammable", chaque pensée peut devenir un tweet, chaque réussite professionnelle un post LinkedIn.

## Entre idéal du moi et moi idéal : la confusion psychanalytique

D'un point de vue psychanalytique, la personnalité numérique soulève des questions complexes qui nécessitent de distinguer des concepts souvent confondus. Le "moi idéal" - cette image narcissique parfaite de nous-mêmes issue de l'enfance - diffère de l'"idéal du moi" - instance post-œdipienne qui intègre les valeurs et interdits sociaux (Freud dans son texte original utilise IdealIch et Ichideal dans le même sens, Daniel Lagache y a vu une différence pour développer sa propre théorie, d'autres chercheurs ont également continué dans cette voie, ce qui fait qu'il est assez difficile aujourd'hui de parler d'un concept psychanalytique non univoque sans devoir raconter l'histoire du concept ; nous utilisons pour notre article la distinction pré et post-œdipe).

La personnalité numérique emprunte aux deux registres de façon inédite. Elle active le moi idéal par sa dimension narcissique (le selfie parfait, les metrics de validation), tout en mobilisant l'idéal du moi par l'intériorisation des normes sociales numériques (ce qu'il est acceptable de poster, les codes de chaque plateforme).

Comme le note le psychanalyste Serge Tisseron dans ses travaux récents sur le numérique, nous assistons à une externalisation de processus psychiques internes. Le regard de l'Autre devient littéralement quantifiable en vues, likes et partages. Cette matérialisation du regard transforme notre économie psychique de façon fondamentale. Je présente cette vision particulière car elle est en phase avec ce que nous vivons mais les positions de Lacan sont importantes car formulées alors que le premier IPhone n'était même pas un rêve et à mon sens bien mieux étayées.

### La conception lacanienne du regard

Chez Lacan, le regard n'est pas l'acte de voir mais un objet *petit a* qui structure l'inconscient : "quand on parle du regard en tant qu'objet a, ce regard n'est pas le regard du sujet. C'est foncièrement le regard de l'Autre", un Autre qui n'est pas un sujet regardant mais un lieu symbolique. Le regard introduit une "schize" fondamentale entre l'œil anatomique et ce qui "glisse, passe, se transmet" dans la vision pour "être toujours à quelque degré éludé" - il est "l'envers de la conscience", ce qui nous échappe perpétuellement dans l'acte de voir. Cette fonction structurale fait que "toute subsistance subjective semble se taire" : le regard comme "point zéro" neutralise momentanément le manque tout en le relançant, nous constituant comme sujets désirants depuis un lieu que nous ne maîtrisons pas.
Ainsi, quand Lacan parle du regard, il ne s’agit jamais d’yeux qui voient, mais de cette dimension structurale qui fait que voir est toujours déjà être vu depuis un lieu que nous ne maîtrisons pas : le lieu de l’Autre comme trésor des signifiants et condition de notre subjectivité. Si ça n'est pas ça les réseaux sociaux...

## La fragmentation comme nouveau normal

Les conséquences psychologiques de cette fragmentation identitaire sont documentées par plusieurs études récentes. Trois effets majeurs ressortent particulièrement.

**Premièrement, la difficulté croissante à maintenir un sentiment d'unité intérieure.** Les recherches sur la "fragmented self" montrent que nous jonglons entre tellement de versions de nous-mêmes que nous perdons parfois le fil de notre cohérence identitaire. Cette multiplicité peut être créative et libératrice, mais elle génère aussi une forme d'épuisement psychique spécifique.

**Deuxièmement, l'émergence d'une dépendance à la validation externe.** La personnalité numérique a besoin de feedback constant pour exister. Sans ce flux de validation, elle vacille (décidément Lacan...). Les études montrent que l'absence de réactions à un post peut déclencher de véritables épisodes anxieux, activant les mêmes circuits cérébraux que le rejet social physique.

**Troisièmement, ce que les chercheurs appellent la "dissonance identitaire numérique".** C'est le malaise ressenti quand nos différentes personnalités numériques entrent en collision. Quand un collègue découvre notre compte TikTok. Quand notre famille tombe sur nos tweets politiques. Ces moments de télescopage entre nos différents avatars génèrent une anxiété spécifique à notre époque.

## L'illusion de la liberté expressive

Paradoxalement, cette multiplication des identités numériques, qui pourrait sembler libératrice, s'accompagne d'une restriction de notre expression authentique. Une étude publiée dans *Premier Science* en 2024 révèle que des utilisateurs de réseaux sociaux admettent modifier leur comportement en ligne par peur d'être "cancelés" ou mal interprétés.

Cette auto-censure n'est pas anodine. Elle transforme notre personnalité numérique en une version aseptisée, algorithmiquement optimisée de nous-mêmes. L'espace numérique, initialement conçu comme un lieu d'expérimentation identitaire, devient le théâtre d'une standardisation insidieuse.

Les algorithmes des plateformes favorisent les contenus "sûrs" et conformes. Cette mécanique pousse vers une homogénéisation de l'expression, créant ce que certains chercheurs appellent une "conformité algorithmique". Nous apprenons à parler la langue des plateformes, à adopter leurs codes, leurs formats, leurs temporalités tout ça pour être *visible*.

## Le piège de l'authenticité performée

Plus troublant encore : même nos tentatives d'authenticité deviennent des performances. BeReal, application lancée avec la promesse de capturer des moments "authentiques" non filtrés, illustre parfaitement ce paradoxe. Bien que la plateforme impose des contraintes temporelles pour éviter la mise en scène (notification aléatoire, temps limité pour poster), les chercheurs observent que les utilisateurs développent rapidement des stratégies pour contourner ces limites ou transformer cette contrainte en nouvelle forme de performance. Les posts "sans filtre", les moments de "vulnérabilité" partagés : tout cela obéit progressivement à des codes, des attentes, des scripts implicites.

Une étude publiée dans *Social Media + Society* en 2022 sur l'"authenticité subjective" analyse comment les utilisateurs d'Instagram perçoivent différemment l'authenticité entre leurs Stories et leurs posts permanents. Les chercheurs montrent que même ce que nous considérons comme "authentique" suit des codes implicites : les Stories sont perçues comme plus spontanées, mais obéissent en réalité à leurs propres conventions de mise en scène. Un selfie "sans maquillage" suit des règles précises de cadrage et d'éclairage. Un post "vulnérable" respecte des conventions narratives spécifiques.

Cette performativité (j'aime bien ce mot, ça fait tellement plus intelligent que de dire *mise en scène*...) de l'authenticité crée un paradoxe vertigineux, bien résumé par un article de la revue *Psyche* : "Quand votre authenticité devient un acte, quelque chose a fondamentalement dérapé." Plus nous cherchons à être "vrais" en ligne, plus nous nous enfermons dans des rôles prédéfinis.

## La colonisation du temps présent

La personnalité numérique ne se contente pas d'occuper notre espace mental, elle colonise notre rapport au temps. Chaque moment devient potentiellement documentable, partageable, performable. Nous vivons dans une double temporalité : le présent immédiat et sa future représentation numérique.

Cette anticipation permanente de la documentation modifie notre façon même de vivre les expériences. Un coucher de soleil n'est plus seulement contemplé, il est évalué pour son potentiel Instagram. Une conversation entre amis n'est plus seulement vécue, elle est mentalement tweetée. Un moment de joie n'est plus seulement ressenti, il est mis en scène pour les stories.

Les neurosciences commencent à documenter les effets de cette double conscience sur notre cerveau. L'activation simultanée des zones liées à l'expérience immédiate et à la planification crée une forme de surcharge cognitive permanente. Nous sommes, selon l'expression des chercheurs, en train de "recâbler" notre cerveau pour la performance numérique constante.

## Vers une écologie de la personnalité numérique ?

Face à ces constats, la tentation pourrait être de prôner une "détox digitale" radicale. Mais ce serait méconnaître la profondeur de la transformation en cours. La personnalité numérique n'est pas un accessoire dont nous pourrions nous défaire. Elle est devenue une composante structurelle de notre psychisme contemporain. J'ai déjà abordé longuement le sujet de l'endophasie modifiée, notre voix intérieure qui adopte elle-même les contraintes des réseaux sociaux, dans mon article Le Moi-Youtube.

La question n'est donc pas d'éliminer cette autre personnalité (qu'on aurait tendance à voir comme un rôle au sens de la psychologie sociale mais je pense que c'est bien plus profond qu'une attitude sociale), mais d'apprendre à vivre avec elle sans nous y perdre. Certains chercheurs parlent de développer une "écologie de la personnalité numérique" : une façon consciente et réfléchie de gérer nos multiples avatars sans sacrifier notre cohérence intérieure.

Cela passe d'abord par une prise de conscience. Reconnaître que notre personnalité numérique est une construction, pas une vérité. Qu'elle obéit à des logiques - algorithmiques, sociales, économiques - qui ne sont pas nécessairement les nôtres. Qu'elle peut devenir tyrannique si nous n'y prenons garde. On finit par se demander se qui la distingue réellement du Surmoi (je sais je taquine encore mais à moitié seulement).

Cela implique aussi de cultiver des espaces de non-performance. Des moments où nous existons sans documenter, sans créer de l'archive. Des relations où nous sommes présents sans être "en ligne". Des expériences que nous vivons pleinement, sans anticiper leur traduction numérique.

## Le retour du refoulé numérique

Mais attention : ce que nous refusons de montrer en ligne ne disparaît pas pour autant. Si l'on voulait faire une analogie avec la psychanalyse, on pourrait parler d'une forme de "refoulé numérique" - bien que ce ne soit pas un concept psychanalytique établi, cette comparaison aide à comprendre ce qui se joue : tout ce qui ne trouve pas sa place dans nos personnalités numériques policées continue d'exister quelque part.

Ce contenu refoulé fait retour sous des formes parfois inquiétantes : les comptes anonymes où s'exprime une agressivité réprimée ailleurs, les forums obscurs où se déversent les pensées interdites, les messageries cryptées où circulent les contenus inavouables. La personnalité numérique officielle génère son ombre, tout aussi numérique, tout aussi réelle.

La psychanalyse nous enseigne que le refoulé fait toujours retour. Dans le contexte numérique, si l'on poursuit cette analogie, ce retour prend des formes inédites : les "leaks", les "scandales", les "bad buzz" - autant de moments où le masque numérique craque et laisse entrevoir ce qu'il tentait de dissimuler. Je rappelle que c'est une analogie pour s'amuser un peu, nullement une tentative de théorisation psychanalytique puisque je détourne ici abusivement les concepts.

## L'urgence d'une réflexion collective

Nous sommes à un moment charnière. La personnalité numérique est en train de devenir le mode dominant d'existence sociale, même si son expression varie selon les contextes culturels et générationnels. Les générations qui arrivent n'ont connu que cela. Pour elles, la fragmentation identitaire numérique n'est pas une anomalie, c'est la norme.

Les conséquences psychologiques, sociales, politiques de cette transformation sont immenses et largement imprévisibles. Nous construisons une humanité où l'authenticité devient performance, où le moi se fragmente en multiples avatars, où la validation algorithmique remplace progressivement l'estime de soi construite dans les relations réelles. En fait j'ai bien l'impression que ce n'est qu'une application de tout ce qui était déjà en place au domaine du numérique, donc en fait pas grand chose de nouveau sous le soleil... à l'exception du feedback régulateur qui n'est pas humain ! C'est là que la modification est d'ampleur.

Est-ce le monde que nous voulons ? La question mérite d'être posée. Non pas pour revenir à un mythique "avant" : le train est parti, il ne reviendra pas en gare. Mais pour imaginer des façons de vivre avec nos doubles numériques sans nous y perdre, pour préserver des espaces d'authenticité non performée, pour maintenir une cohérence identitaire malgré la fragmentation, pour ne pas se contenter d'une régulation uniquement dans un rapport aux algorithmes de notre être social.

Car au fond, la personnalité numérique nous confronte à une question vieille comme l'humanité, mais reformulée à l'ère des algorithmes : qui sommes-nous vraiment ? Et cette question, aucun like, aucun follower, aucun algorithme ne pourra y répondre à notre place.

La personnalité numérique n'est ni uniquement un double libérateur, ni simplement un masque aliénant. Elle est les deux à la fois, dans une tension qui définit notre condition numérique contemporaine. Comprendre cette ambivalence, c'est déjà reprendre un peu de pouvoir sur nos vies numériques. C'est refuser la colonisation totale du moi par son double algorithmique, en fait son double "formaté" par notre rapport aux algorithmes. C'est, peut-être, préserver un espace irréductible d'humanité dans un monde de plus en plus mis en forme par les logiques des plateformes.

Protection ou surveillance : l'inhibition, le symptôme et l'angoisse

Des personnes insatisfaites tiennent un masque d'eux-même satisfait

Le paradoxe est saisissant. D'un côté, jamais nos données personnelles n'ont été aussi protégées juridiquement : le RGPD depuis 2018, l'AI Act entré en vigueur en 2024, les projets comme Chat Control censés nous protéger. De l'autre, jamais nous n'avons ressenti une telle angoisse face au numérique, une telle inhibition dans notre expression en ligne, développé tant de symptômes d'évitement.

Comment expliquer cette contradiction ? Pourquoi ces dispositifs de protection génèrent-ils paradoxalement plus d'anxiété que de sérénité ? La réponse se trouve peut-être dans une lecture psychologique de ces mécanismes. Car ce qui se joue n'est pas seulement juridique ou technique : c'est profondément psychique.

## Les protections qui inquiètent

Le RGPD promettait de nous redonner le contrôle sur nos données. Cinq ans après sa mise en œuvre, les études montrent des effets psychologiques inattendus. Des études récentes sur les effets psychologiques des dispositifs de protection montrent que la multiplication des notifications de cookies et des demandes de consentement génère une “fatigue décisionnelle” permanente. Chaque clic devient un micro-choix anxiogène : accepter et s'exposer, ou refuser et potentiellement perdre l'accès au contenu.

L'AI Act, entré en vigueur en 2024, interdit certaines pratiques d'IA jugées dangereuses, notamment les systèmes de reconnaissance émotionnelle dans certains contextes. Paradoxalement, cette protection renforce la conscience que de tels systèmes existent et peuvent être utilisés ailleurs. Comme l'observe une étude de l'Université de Technology Sydney, "la conscience de la surveillance possible génère des effets comportementaux similaires à la surveillance réelle".

Quant au projet Chat Control, débattu au niveau européen, il cristallise toutes les tensions. Officiellement destiné à protéger les enfants en scannant les messages privés pour détecter du contenu pédocriminel, il soulève une angoisse massive. L'entreprise Threema, spécialisée dans la messagerie sécurisée, parle d'un "pas vers la surveillance de masse". La protection devient indissociable de l'intrusion.

## L'inhibition : quand la parole se fige

Face à ces dispositifs, le premier effet psychologique observable est l'inhibition : ce que Freud décrivait comme une restriction fonctionnelle du moi. Dans le contexte numérique, cette inhibition prend des formes spécifiques et mesurables.

Les recherches montrent que la simple conscience de la surveillance potentielle modifie profondément les comportements en ligne. Les recherches récentes montrent qu’une majorité d’utilisateurs modifient leur expression par peur des conséquences, même quand ils n’ont rien à cacher. C'est ce que les chercheurs appellent l'"inhibition préventive automatique".

Cette inhibition ne touche pas seulement les contenus sensibles. Elle affecte l'expression spontanée, l'humour, la créativité. Un participant à une étude qualitative confiait : "Je réécris mes messages trois fois avant de les envoyer. Je supprime les blagues qui pourraient être mal comprises. Je ne dis plus vraiment ce que je pense, je dis ce qui est sûr."

L'inhibition numérique présente une caractéristique particulière : elle est intériorisée avant même toute intervention externe. Nous devenons nos propres censeurs, anticipant des sanctions qui ne viendront peut-être jamais. Cette auto-restriction préventive est plus efficace que n'importe quelle censure externe : elle opère en amont, dans l'espace même de la pensée. On croirait lire La Boétie au sujet des tyrans et du peuple (XVIème siècle ça ne nous rajeunit pas mais quel visionnaire !) : « D’où tire-t-il les innombrables argus qui vous épient, si ce n’est de vos rangs ? Comment a-t-il tant de mains pour vous frapper, s’il ne les emprunte de vous ? Les pieds dont il foule vos cités, ne sont-ils pas aussi les vôtres ? A-t-il pouvoir sur vous, que par vous-mêmes ? »

Les chercheurs de l'UTS notent un phénomène troublant : "Les sujets développent une forme d'hypervigilance cognitive, évaluant constamment le risque potentiel de chaque expression." Cette vigilance permanente épuise les ressources mentales et génère une fatigue psychique spécifique au numérique. Si c'est pas ce que décrivait déjà La Boétie...

## Le symptôme : les stratégies d'évitement

Face à cette inhibition, le psychisme développe des formations symptomatiques, des compromis entre le désir de s'exprimer et la peur des conséquences. Ces symptômes "numériques" prennent des formes diverses et créatives.

La multiplication des pseudonymes en est l'exemple le plus visible. Les utilisateurs créent des identités multiples, compartimentent leur expression selon les espaces. Cette fragmentation identitaire, loin d'être libératrice, génère son propre cortège d'anxiétés : peur d'être "démasqué", difficulté à maintenir la cohérence entre les personas, épuisement lié à la gestion de multiples identités.

Le codage des messages devient une pratique courante, particulièrement chez les jeunes. Les chercheurs observent l'émergence de néo-langages, de codes visuels, d'euphémismes créatifs pour contourner les algorithmes de modération. Cette créativité linguistique, si elle témoigne d'une résistance, révèle aussi l'ampleur de la contrainte ressentie.

L'évitement de certains sujets constitue un autre symptôme majeur. Les recherches récentes montrent que des pans entiers de l'expérience humaine disparaissent progressivement des espaces numériques publics : la sexualité, la mort, la maladie mentale, les opinions politiques non consensuelles. Ces sujets migrent vers des espaces privés ou cryptés, créant une scission entre un numérique "propre" et visible, et un numérique souterrain où s'exprime ce qui ne peut plus se dire publiquement. Certains réseaux et créateurs ont d'ailleurs saisi la balle au bond en faisant leur les exclus, on vend comme on peut.

Plus troublant encore : l'auto-censure préventive devient elle-même symptomatique. Les utilisateurs suppriment des messages avant même de les envoyer, effacent leur historique, pratiquent une forme de "nettoyage" permanent de leur présence numérique. Cette hygiène digitale compulsive révèle l'intériorisation profonde de la surveillance. Ici c'est Voltaire le visionnaire dans l'article *La liberté de penser* de son **Dictionnaire portatif de philosophie** : « Il ne nous est permis ni d’écrire, ni de parler, ni même de penser. Si nous parlons, il est aisé d’interpréter nos paroles, encore plus nos écrits. Enfin, comme on ne peut nous condamner dans un autodafé pour nos pensées secrètes, on nous menace d’être brûlés éternellement par l’ordre de Dieu même, si nous ne pensons pas comme les jacobins. »

## L'angoisse : le regard permanent de l'Autre

Au-delà de l'inhibition et du symptôme, c'est l'angoisse qui caractérise le plus profondément notre rapport aux dispositifs de protection numérique. Cette angoisse n'est pas la simple peur d'être surveillé, elle touche à quelque chose de plus fondamental.

Pour Freud, l’angoisse surgit comme signal d’alarme face à un danger pressenti. Dans le contexte numérique, cette angoisse naît de l’impossibilité de contrôler ce qui est observé de nous, comment nos données sont interprétées, par qui. Cette surveillance généralisée crée un état d’incertitude permanente sur notre exposition.

Les études en psychologie cognitive documentent cette "angoisse de l'interprétation algorithmique". Les sujets développent une hyperconscience de la façon dont leurs données peuvent être analysées, croisées, interprétées. Un like devient potentiellement compromettant, une recherche Google révélatrice, un temps de lecture suspect.

Cette angoisse se nourrit de l'opacité des systèmes. Le RGPD donne théoriquement le droit de savoir quelles données sont collectées, mais qui comprend vraiment ce qui se passe derrière les interfaces ? L'AI Act interdit certains usages, mais comment vérifier qu'ils ne sont pas employés clandestinement ? Chat Control promet de ne scanner que certains contenus, mais qui peut en être certain ?

L'angoisse numérique présente une caractéristique particulière : elle est sans objet précis. Ce n'est pas la peur d'une conséquence spécifique, mais une inquiétude diffuse, permanente, qui colore l'ensemble de l'expérience numérique. Les chercheurs parlent d'une "anxiété ambiante" qui devient le fond sonore de notre vie connectée. Hé oui *anxiété* et *angoisse* mis sur le même plan, signe de l'appauvrissement conceptuel.

## Le paradoxe de la transparence opaque

Les dispositifs de protection créent un paradoxe fascinant : ils promettent la transparence mais génèrent l'opacité. Le RGPD nous informe de la collecte de données à travers des textes que personne ne lit. L'AI Act régule des systèmes dont le fonctionnement reste mystérieux pour l'immense majorité. Chat Control veut protéger en scannant, surveiller pour sécuriser. *La protection intrusive de la vie privée* : nouveau concept mondial apparemment puisque toutes ces dispositions sont reprises partout sur la planète.

Cette "transparence opaque" génère une confusion cognitive. Nous sommes informés mais pas éclairés, protégés mais pas rassurés. Les dispositifs censés nous redonner le contrôle nous confrontent à notre impuissance fondamentale face à la complexité technique.

Un participant à une étude qualitative résumait ainsi son ressenti : "C'est comme si on me donnait le manuel d'utilisation d'une centrale nucléaire en me disant 'voilà, maintenant vous avez le contrôle'. Mais je ne comprends rien, et ça me fait encore plus peur."

Dis autrement, l'illusion absurde d'un quelconque respect de l'utilisation des données offertes publiquement sur le Web, que ce soit sur son site, son espace sur les réseaux sociaux, etc, est plus qu'un mythe : c'est une erreur manifeste de jugement. Dès qu'on accepte pour quelque raison que ce soit (généralement l'utilisation gratuite d'un service !) de fournir nos données quelles qu'elles soient (photos, fichiers texte, coordonnées personnelles, etc), nous n'en sommes plus maître. C'est ainsi ! Il faut accepter les conditions d'utilisation imposées par le prestataire de service ! Donc c'est simple, et c'est pour cela que je n'ai pas de cas de conscience sur les infos perso que j'ai mis en ligne : j'ai toujours accepté comme vrai qu'elles n'étaient plus du tout privées et restreintes d'accès ou d'utilisation. Je me souviens d'une remarque d'un internaute qui m'avait amusé : «le cloud c'est juste le disque dur d'un autre.» C'est exactement cela : à partir du moment où nos informations sous quelque forme que ce soit sont hébergé ailleurs que chez nous physiquement hé bien elles ne sont plus privées. Une fois les choses posées ainsi, la question de la confiance est une autre approche qu'il faut considérer... voilà, pour moi c'est fait : je ne travaille pas avec ce concept !

## La fabrique de la paranoïa ordinaire

Les effets cumulés de ces dispositifs créent ce que certains chercheurs appellent une "paranoïa ordinaire", non pas au sens psychiatrique, mais comme mode d'être au monde numérique. Cette paranoïa se caractérise par :

- Une méfiance généralisée envers les plateformes et les institutions
- Une tendance à l'interprétation excessive des signes numériques
- Un sentiment d'être constamment observé et jugé
- Une oscillation entre surexposition et retrait brutal.

Cette paranoïa ordinaire n'est pas pathologique, elle est une réponse adaptative à un environnement effectivement ambigu. Comme le note une étude de 2024 (j'ai la note que j'ai prise mais impossible de retrouver la source, ça m'apprendra à préparer mes articles avec des post-it), "dans un contexte où la surveillance est à la fois omniprésente et invisible, la paranoïa devient paradoxalement rationnelle."

## L'effet Panopticon inversé

Jeremy Bentham avait imaginé le Panopticon, cette prison où un gardien central peut observer tous les prisonniers sans être vu. Michel Foucault y voyait le modèle du pouvoir disciplinaire moderne. Le numérique crée une sorte de Panopticon inversé : nous sommes à la fois prisonniers et gardiens, surveillés et surveillants.

Les dispositifs de protection renforcent cette dynamique. Le RGPD nous donne des droits mais nous responsabilise sur leur usage. L'AI Act nous protège mais nous demande vigilance. Chat Control veut nous sécuriser mais nous transforme tous en suspects potentiels.

Cette inversion génère une forme particulière d'épuisement psychique. Nous devons constamment arbitrer entre protection et exposition, sécurité et liberté, confiance et méfiance. Cette charge mentale permanente constitue ce que les chercheurs appellent le "coût cognitif de la protection numérique".

Par ailleurs cela alimente les réflexions de certains (dont je fais partie) concernant la volonté coordonnées mondialement de pousser vers la sortie celles et ceux qui prennent publiquement la parole pour exposer leurs pensées librement, c'est-à-dire sans respecter les us et coutumes de l'obéissance, autrefois on disait de *révérence*.

## La protection comme nouvelle forme de contrôle

Une lecture critique des dispositifs de protection révèle qu'ils peuvent paradoxalement devenir des instruments de contrôle plus subtils. Non pas un contrôle direct, coercitif, mais un contrôle par l'anxiété, l'inhibition, l'auto-régulation.

Le RGPD, en multipliant les moments de "choix", crée une illusion de contrôle qui masque notre impuissance structurelle. L'AI Act, en définissant ce qui est interdit, délimite implicitement ce qui est permis. Chat Control, en voulant protéger les enfants, normalise l'idée que nos communications privées peuvent être scannées "pour notre bien".

Ces dispositifs opèrent ce que les philosophes appellent une "gouvernementalité" : ils ne contraignent pas directement mais façonnent les subjectivités, orientent les conduites, produisent des sujets auto-régulés. Bref le rêve de tout tyran !

## Les stratégies de résistance psychique

Face à ces dynamiques, les individus développent des stratégies de résistance psychique plus ou moins conscientes. Ces stratégies révèlent la créativité du psychisme face à la contrainte.

Certains optent pour la "déconnexion sélective" : ils compartimentent strictement leurs usages, réservant certains contenus à des espaces qu'ils estiment sûrs. D'autres pratiquent le "camouflage expressif" : ils maintiennent une façade conformiste tout en développant des codes subtils pour exprimer leur authenticité. Mais non ce n'est pas contradictoire, c'est juste ce qu'on veut de nous tous : l'abnégation.

La "résignation active" constitue une autre stratégie : accepter la surveillance tout en la subvertissant par l'absurde, le nonsense, la prolifération de fausses données. Comme le dit un activiste numérique : "S'ils veulent tout savoir, donnons-leur tellement d'informations contradictoires qu'ils ne sauront plus rien." Je dois dire que le côté potache m'amuse énormément, je n'y peut rien je suis taquin par nature.

Mais ces stratégies ont un coût psychique. Elles demandent une vigilance constante, une énergie mentale considérable. Elles transforment l'usage du numérique en travail permanent de gestion de l'anxiété.

## Le retour du corps dans l'angoisse numérique

Paradoxalement, cette angoisse apparemment dématérialisée se manifeste dans le corps. Les études documentent une augmentation des troubles somatiques liés à l'usage numérique : tensions musculaires, troubles du sommeil, problèmes digestifs.

Le corps devient le lieu où s'exprime ce que le numérique ne permet plus de dire. Les symptômes somatiques fonctionnent comme un langage alternatif, une expression de ce qui ne peut plus s'exprimer directement en ligne.

Cette somatisation de l'angoisse numérique interroge notre rapport au virtuel. Le numérique n'est pas un espace désincarné : il engage profondément notre corporéité, notre système nerveux, notre physiologie.

## Vers une éthique de la protection ?

Face à ces constats, la question se pose : comment concevoir des dispositifs de protection qui protègent vraiment, sans générer inhibition, symptôme et angoisse ? Comment sortir du paradoxe d'une protection qui oppresse ?

Certains chercheurs plaident pour une approche plus psychologique de la régulation numérique. Au lieu de multiplier les règles et les contrôles, il s'agirait de créer des espaces de respiration, des zones de non-surveillance assumée, des temps de latence dans l'instantanéité numérique. Je n'y crois pas une seconde mais je suis bien obligé d'en faire état puisque des chercheurs y pensent sérieusement.

D'autres proposent de repenser radicalement la notion même de protection. Plutôt que de protéger contre des dangers externes, il s'agirait de renforcer les capacités psychiques des individus à naviguer dans l'incertitude numérique. Éducation critique, littératie numérique, accompagnement psychologique, autant de pistes pour une protection qui émancipe plutôt qu'elle n'inhibe. Enfin en théorie, parce qu'en pratique je ne vois pas bien comment une éducation critique et un accompagnement psychologique ne nous orienterait pas vers des endroits qu'on souhaiterait éviter. Mais là aussi ce sont des pistes sérieusement étudiées donc je me dois de les mentionner.

## L'ambivalence comme position réaliste

Au final, il faut accepter l'ambivalence fondamentale de notre rapport aux dispositifs de protection numérique. Ils nous protègent et nous exposent, nous sécurisent et nous angoissent, nous libèrent et nous contraignent.

Cette ambivalence n'est pas un dysfonctionnement à corriger mais une caractéristique structurelle de notre condition numérique. L'accepter, c'est se donner les moyens de naviguer plus sereinement dans ces eaux troubles.

Freud nous rappelle que l'angoisse n'est pas seulement un affect pénible, elle est aussi un signal utile qui nous prépare au danger. Dans le contexte numérique, notre angoisse collective pourrait être le signe que quelque chose de fondamental est en jeu : notre capacité à exister authentiquement dans un monde de surveillance permanente.

La psychologie cognitive nous montre que cette anxiété, bien que coûteuse, témoigne de capacités adaptatives en action. Notre vigilance, nos stratégies, nos résistances sont autant de preuves que le psychisme humain n'est pas passif face à la surveillance.

Les dispositifs de protection, malgré leurs paradoxes, témoignent d'une prise de conscience collective. Ils sont imparfaits, parfois anxiogènes, souvent contre-productifs. Mais ils révèlent aussi notre refus de nous laisser totalement absorber par la logique de la transparence totale.

## Conclusion : préserver l'humain dans la machine

Entre protection et surveillance, entre sécurité et liberté, nous naviguons dans un espace d'incertitude radicale. Cette incertitude est inconfortable, génératrice d'angoisse et d'anxiété. Mais elle est aussi le lieu où peut encore s'exercer notre liberté : cette liberté minimale mais essentielle de ne pas être totalement transparent, totalement prévisible, totalement contrôlable.

L'inhibition, le symptôme et l'angoisse ne sont pas seulement des effets secondaires malheureux des dispositifs de protection. Vus à travers le prisme de Freud, ils sont les signes d'un psychisme qui résiste, qui maintient ses conflits créatifs. Analysés par la psychologie cognitive, ils révèlent des processus adaptatifs complexes, témoins de notre plasticité mentale.

La compréhension de ces mécanismes - qu'ils soient inconscients (Freud) ou cognitifs (psychologie moderne) - est essentielle. Elle nous permet de dépasser la simple critique des dispositifs de protection pour comprendre leurs effets profonds sur notre psychisme. Elle nous invite à imaginer des formes de protection qui respectent la complexité de l'esprit humain, ses besoins de liberté autant que de sécurité, son droit à l'opacité autant qu'à la transparence.

Dans cette résistance psychique, dans cette capacité à maintenir l'ambivalence et le conflit, se joue peut-être l'essentiel : la préservation d'une part irréductiblement humaine dans un monde qui voudrait tout calculer, tout prévoir, tout contrôler. Les dispositifs de protection numériques nous confrontent ainsi à une question fondamentale : quelle part de mystère, d'imprévisibilité, d'humanité voulons-nous et pouvons-nous encore préserver ?

Paradoxe : quand la protection étouffe la parole

Une femme entourée de masques suspendus représentant ses différents rôles sociaux

Jamais nous n'avons eu autant de droits pour protéger notre expression en ligne : le RGPD garantit le contrôle de nos données, l'AI Act encadre les algorithmes, les plateformes multiplient les chartes éthiques et les outils de modération. Et pourtant, jamais nous ne nous sommes autant censurés, jamais notre parole n'a été aussi formatée, standardisée, vidée de sa substance authentique.

Ce paradoxe frappe par son ampleur. Au moment même où les dispositifs juridiques et techniques promettent de protéger notre liberté d'expression, nous assistons à son érosion silencieuse. Non pas par une censure externe brutale, mais par une auto-restriction généralisée, une conformité algorithmique insidieuse, une prolifération de contenus marketing qui remplacent l'expression authentique.

Comment expliquer cette contradiction ? Comment les mécanismes censés nous protéger finissent-ils par nous faire taire ? L'analyse de ce paradoxe révèle des dynamiques psychologiques et sociales profondes qui transforment la nature même de notre expression numérique.

## L'auto-censure massive : le silence avant la parole

Le phénomène est évident, une majorité d'utilisateurs des réseaux sociaux modifient, édulcorent ou suppriment leurs contenus avant publication. Cette auto-censure ne concerne pas seulement les sujets sensibles, elle touche l'expression quotidienne, l'humour, les opinions personnelles, jusqu'aux simples observations du quotidien.

Il n'est pas rare d'entendre ce type de remarques : "Avant, je partageais spontanément mes réflexions sur LinkedIn. Maintenant, je réécris chaque post cinq fois. Je vérifie qu'aucun mot ne peut être mal interprété. Je m'assure que personne ne peut y voir une critique. Au final, mes posts ressemblent à ceux de tout le monde : lisses, positifs, vides."

Cette auto-censure préventive s'explique par plusieurs mécanismes psychologiques. D'abord, la peur du "bad buzz" : cette angoisse diffuse qu'un contenu mal compris déclenche une tempête numérique. Les utilisateurs ont intériorisé les exemples de personnes "cancelées" pour un tweet maladroit, une blague mal comprise, une opinion datée. Cette peur génère une hypervigilance permanente sur ses propres contenus.

Ensuite, l'incertitude sur les règles. Les conditions d'utilisation des plateformes changent constamment. Ce qui était acceptable hier peut être sanctionné aujourd'hui. Cette instabilité normative crée un climat d'insécurité où l'option la plus sûre devient le silence ou la banalité.

Au-delà des ces aspects mécaniques, l'attention mobilisée, la crainte de mal faire, les vérifications à répétition et l'angoisse des mauvais retours après avoir posté un message amène une fatigue réelle qui se transforme progressivement en usure avec les effets prévisibles de perte de repères, anxiété permanente et incapacité progressive à discerner correctement.

## La conformité algorithmique : parler la langue de la machine

Au-delà de l'auto-censure consciente, un phénomène plus subtil transforme notre expression : la conformité algorithmique. Sans même nous en rendre compte, nous adaptons notre langage, notre style, nos sujets aux préférences des algorithmes de recommandation.

À force d'utiliser nos outils numériques, nous apprennons rapidement, souvent inconsciemment, quels types de contenus génèrent de l'engagement. Quels mots-clés favorisent la visibilité. Quelles structures narratives maximisent les partages. Cette adaptation n'est pas superficielle : elle modifie en profondeur notre façon de penser et de nous exprimer.

Un créateur de contenu m'expliquait à peu près ceci (j'ai recomposé ses propos de mémoire) : "Au début, je racontais des histoires complexes, nuancées. Mais l'algorithme récompense la simplicité, l'émotion immédiate, les formats courts. Progressivement, j'ai adapté mon style. Maintenant, même quand j'écris pour moi-même quand je prends des notes pour préparer mes émissions, je pense en stories Instagram."

Cette conformité algorithmique opère à plusieurs niveaux. D'abord, le formatage temporel : nous pensons en durées optimisées (15 secondes pour TikTok, 280 caractères pour Twitter/X). Ensuite, le formatage émotionnel : nous privilégions les contenus qui déclenchent des réactions immédiates (indignation, attendrissement, surprise). Enfin, le formatage narratif : nous structurons nos récits selon les templates qui fonctionnent (le "avant/après", le "5 leçons que j'ai apprises", le "thread" dramatisé, "l'écologie du..." que vous retrouvez dans chaque dernière partie de mes articles hehehe).

Bref nous observons une homogénéisation progressive : réduction du vocabulaire utilisé, standardisation des structures syntaxiques, convergence vers des formulations consensuelles. Nous parlons de plus en plus la même langue : celle que les algorithmes comprennent et valorisent.

## La logorrhée marketing : quand le bruit remplace la parole

Face à cette double contrainte - auto-censure et conformité algorithmique - un phénomène compensatoire émerge : la prolifération de contenus marketing standardisés. Puisqu'il devient risqué de s'exprimer authentiquement, l'espace numérique se remplit d'un bavardage stratégique, optimisé pour plaire sans choquer, visible sans être remarquable. Et surtout légalement inattaquable.

Cette "logorrhée marketing" - terme emprunté à la psychopathologie pour désigner un flux verbal excessif et vide de sens, et ici ce que je pense appartenir au domaine du psychopathologique, ce n'est pas une insulte ou exagération c'est un constat vu l'angoisse, l'anxiété, la fatigue, les modalités d'expression imposées que ça génère - caractérise désormais une grande partie du contenu numérique. Posts motivationnels génériques, stories de "gratitude", publications corporate lissées, threads de "growth hacking" : autant de contenus qui parlent sans rien dire.

Les analyses de contenu révèlent des patterns répétitifs. Sur LinkedIn, des milliers de posts commencent par les mêmes platitudes. Sur Instagram, les mêmes citations inspirationnelles circulent en boucle (souvent très probablement générées automatiquement). Sur Twitter/X, les mêmes formats de threads se répètent à l'infini. Cette standardisation n'est pas accidentelle : elle résulte de l'optimisation pour la visibilité algorithmique et la minimisation du risque réputationnel.

Cette logorrhée marketing génère un paradoxe communicationnel : plus nous publions, moins nous communiquons. Le volume de contenu augmente exponentiellement, mais la densité informationnelle et émotionnelle s'effondre. Nous assistons à une inflation du signifiant pour une déflation du signifié (j'ai réussi à la placer celle-là, après m'être abstenu sur le discours courant lacanien).

## Les conséquences psychologiques : l'aliénation expressive

Ces dynamiques - auto-censure, conformité algorithmique, bavardage stratégique - génèrent des conséquences psychologiques profondes, documentées par la recherche clinique (et que je qualifie de psychopathologique mais comme je suis un peu seul pour l'instant je préfère préciser).

D'abord, la perte du sentiment d'authenticité. Il ne faut pas être un génie de la psychologie pour constater que l'écart entre l'expression publique et le vécu intérieur génère une dissonance cognitive douloureuse pour beaucoup. Les individus rapportent un sentiment d'imposture, une impression de "jouer un rôle" en permanence. Cette inauthenticité chronique est corrélée à une augmentation de l'anxiété et de la dépression.

Ensuite, l'isolement paradoxal. Alors que nous sommes plus connectés que jamais, nous nous sentons de plus en plus seuls. L'expression formatée empêche la connexion authentique. Nous interagissons avec des personas, pas des personnes. Les recherches sur la solitude numérique montrent que la quantité de connexions est inversement corrélée à leur qualité perçue. Dis autrement : moins on trouve du sens plus on continue de chercher.

La frustration expressive constitue un autre symptôme. Le besoin humain fondamental de s'exprimer, de partager, de communiquer se heurte aux contraintes du numérique sécurisé. Cette frustration génère une tension psychique qui cherche des voies de décharge : expression sur des forums anonymes, tensions dans les espaces privés, manifestations somatiques du stress.

Les observations suggèrent également une possible érosion des compétences expressives. À force de s'auto-censurer et de se conformer, les individus peuvent perdre progressivement la capacité à formuler des pensées complexes, nuancées, originales (la syntaxe pauvre et la richesse lexicale absente des posts est observables sur toutes les plateformes). Le langage risque de s'appauvrir, la pensée de se simplifier, la créativité de s'atrophier - bien que ces effets à long terme nécessitent encore des études longitudinales pour être confirmés (cependant le constat présent est en soi un signal d'alarme fort).

## La spirale du silence numérique

Ces mécanismes s'auto-renforcent dans ce que les chercheurs appellent la "spirale du silence numérique" - adaptation du concept d'Elisabeth Noelle-Neumann au contexte digital. Plus les voix authentiques se taisent, plus l'espace est occupé par les contenus standardisés. Plus ces contenus dominent, plus il devient risqué de s'en écarter. Plus le risque augmente, plus l'auto-censure se renforce.

Cette spirale crée des "zones mortes" du discours : des sujets, des styles, des perspectives qui disparaissent progressivement de l'espace numérique public. La sexualité, la mort, la souffrance psychologique, les opinions politiques non consensuelles, l'humour noir, la colère légitime : autant de dimensions de l'expérience humaine qui deviennent indicibles dans l'espace numérique protégé.

Un phénomène de "migration expressive" s'observe : ces contenus ne disparaissent pas, ils migrent vers des espaces parallèles. Messageries cryptées, forums obscurs, réseaux alternatifs, autant de zones où s'exprime ce qui ne peut plus se dire dans l'espace numérique mainstream. Cette fragmentation de l'espace expressif crée des bulles hermétiques où les discours se radicalisent, faute de confrontation à l'altérité. Hé oui ça n'est pas nouveau mais j'ai l'impression qu'on doit redécouvrir (enfin nos gouvernants ont à redécouvrir) que l'absence de vrai débat public sur des sujets de fonds qui touchent intimement chaque citoyen ne fait qu'entraîner un manichéisme brut qui crée l'opposition brutale qui s'auto-entretien dans des zones dissimulées ou discrètes (choisissez votre épithète).

## Le coût social : l'appauvrissement du débat public

Au-delà des conséquences individuelles, ce paradoxe de la protection qui étouffe génère un coût social majeur : l'appauvrissement du débat public. Quand l'expression authentique devient risquée, quand la pensée complexe est pénalisée par les algorithmes, quand seuls les contenus consensuels sont visibles, c'est la démocratie elle-même qui s'érode.

Les analyses du discours public numérique montrent une polarisation croissante couplée à une superficialisation (j'utilise l'euphémisme tant il est quasi impossible de scroller sur une plate-forme sociale sans lire essentiellement ce type de post). Les positions se radicalisent dans les espaces privés tandis que l'espace public se vide de substance. Nous assistons à un théâtre d'ombres où les vraies discussions se déroulent ailleurs, dans l'invisible. Avec tous les risques d'événements violents que cela implique.

Quels impacts sur la délibération démocratique tout ceci pourra bien avoir ? Les citoyens expriment publiquement des opinions qu'ils ne pensent pas vraiment, votent différemment de ce qu'ils affichent, dissimulent leurs véritables préoccupations, tout cela pour complaire aux règles des usages d'algorithmes. Cette déconnexion entre expression publique et conviction privée rend impossible la lecture du climat social réel. Là aussi c'est assez simple à vérifier tous les jours. Et là aussi c'est assez inquiétant.

## Les mécanismes de résistance : créativité sous contrainte

Face à ces contraintes, des formes de résistance émergent. Les utilisateurs développent des stratégies créatives pour contourner les limitations sans s'exposer aux sanctions.

Le codage linguistique en est un exemple. Les communautés créent des langages codés, des références partagées, des métaphores complexes pour dire l'indicible. Sur TikTok, les créateurs utilisent des euphémismes créatifs ("unalive" pour suicide, "spicy times" pour sexualité) pour échapper aux algorithmes de modération. Cette créativité linguistique témoigne de la persistance du besoin expressif malgré les contraintes.

L'ironie et le second degré constituent une autre stratégie. En jouant sur l'ambiguïté, en cultivant le flou interprétatif, les utilisateurs parviennent à exprimer des idées subversives sous couvert d'humour. Mais cette stratégie a ses limites : l'ironie permanente érode la possibilité de l'expression sincère.

Les "finstas" (faux comptes Instagram) et autres espaces parallèles permettent une expression plus libre, mais fragmentent l'identité numérique. Les individus gèrent de multiples personas, chacune calibrée pour une audience spécifique. Cette fragmentation génère sa propre charge mentale et ses propres paradoxes.

## Vers une écologie de l'expression numérique *(je vous l'avais dit que je n'échappais pas aux algorithmes)* ?

Comment sortir de ce paradoxe ? Comment créer des espaces numériques qui protègent sans étouffer, sécurisent sans uniformiser ?

Certains proposent de repenser radicalement l'architecture des plateformes. Plutôt que la modération centralisée et algorithmique, ils imaginent des systèmes de gouvernance communautaire, des espaces à géométrie variable où les règles s'adaptent aux contextes et aux publics. Je n'y crois pas un instant.

D'autres plaident pour une "éducation à l'expression numérique" qui développerait les compétences nécessaires pour naviguer dans ces espaces complexes. Apprendre à calibrer son expression selon les contextes, à décoder les contraintes implicites, à préserver des espaces d'authenticité malgré les pressions.

La régulation elle-même doit être repensée. Plutôt que multiplier les interdictions qui génèrent l'auto-censure, il s'agirait de créer des protections qui encouragent l'expression diverse. Des "safe harbors" pour l'expérimentation expressive, des protections contre les représailles disproportionnées, des mécanismes de médiation plutôt que de sanction. Là aussi je suis très sceptique.

## L'urgence de préserver la parole vivante

Nous sommes à un moment critique. La parole humaine, dans sa diversité et sa complexité, semble s'uniformiser sous la pression combinée des dispositifs de protection et des logiques algorithmiques. Cette évolution n'est pas inéluctable mais résulte de choix de conception, de modèles économiques, de visions sociales.

Préserver la possibilité de l'expression authentique reste essentiel. Car nous sommes des êtres de langage, et quand notre expression s'appauvrit, c'est une dimension de notre humanité qui pourrait s'étioler. Les dispositifs de protection, malgré leurs intentions légitimes, peuvent créer des effets paradoxaux - non pas par oppression directe mais par l'incitation à l'auto-normalisation.

Le paradoxe que nous observons - plus de protection juridique pour potentiellement moins d'expression authentique - n'est pas une fatalité technique. D'autres modèles sont théoriquement possibles : des espaces numériques qui accueilleraient la complexité humaine, des protections qui libèrent plutôt qu'elles n'inhibent, des algorithmes qui valoriseraient la diversité plutôt que la conformité. Sortir et aller discuter dans la *vie réelle* avec des personnes en chair et en os physiquement présentes pour nous expliquer clairement quand on abuse ou pas, et à qui on peut retourner le compliment en personne ? Heu j'abuse peut-être là non ? Pfff, au XXIème siècle ? Sortir pour aller discuter avec des inconnus autour d'un café ou autre ? Comment ça s'appelait déjà ces lieux de rencontres ?

Ces alternatives nécessitent une réflexion collective approfondie. La protection de la vie privée et la sécurisation des espaces numériques restent des objectifs nécessaires. Mais ils ne devraient pas se faire au prix de ce qui fait notre humanité : la capacité à dire, à contredire, à créer, à surprendre parfois, à toucher souvent.

Entre protection absolue et expression libre, il existe probablement un espace d'équilibre où pourrait s'épanouir une parole à la fois responsable et vivante. C'est cet espace que nous devons collectivement explorer et définir. Je crois que par le passé ça s'appelait la liberté d'expression mais je peux me tromper vu qu'ici, en France, on a toujours eu tendance à confondre la liberté d'opinion garantie constitutionnellement avec la liberté d'expression garantie tant qu'elle n'enfreint pas ça, pis ça, et puis ça aussi... bref vous aurez compris.

La question dépasse le cadre technique ou juridique. Elle touche au type de société numérique (soyons sérieux un instant : au type de société tout court dans lequel on veut vivre) que nous voulons construire : un monde où chaque parole serait prémâchée et formatée, ou un monde où l'expression humaine, dans sa richesse et ses contradictions, pourrait encore nous surprendre et nous émouvoir ?

Le choix nous appartient collectivement. Mais l'urgence est réelle. Car chaque jour qui passe pourrait voir s'éroder un peu plus notre capacité collective à exprimer le monde dans sa complexité. Et une fois certaines habitudes expressives perdues (et d'autres bien, trop bien, implantées), il pourrait être difficile de les retrouver.