
L'héritage d'Eysenck : 70 ans après, avait-il finalement raison ?
Comment une étude de 1952 continue de hanter la psychothérapie moderne
Introduction : Et si Eysenck avait vu juste ?
En 1952, Hans Eysenck publiait dans le Journal of Consulting Psychology une étude qui allait déclencher l'une des plus grandes controverses de l'histoire de la psychologie. Sa conclusion était cinglante : non seulement la psychothérapie n'était pas plus efficace que l'absence de traitement, mais elle pourrait même être néfaste. À l'époque, la communauté thérapeutique avait crié au scandale, mobilisant des décennies de recherche pour réfuter ses affirmations provocatrices.
Soixante-dix ans plus tard, une question dérangeante émerge : et si Eysenck avait eu raison, ou du moins partiellement raison ? En 2017, une équipe dirigée par Elena Dragioti a publié dans Acta Psychiatrica Scandinavica une "umbrella review" analysant 247 méta-analyses de psychothérapies. Leur verdict est stupéfiant : seules 16 méta-analyses, soit 6,5% du total, fournissent des preuves convaincantes d'efficacité. Les 93,5% restants souffrent de biais méthodologiques majeurs qui invalident leurs conclusions.
Cette révélation jette une lumière nouvelle sur la controverse Eysenck. Loin d'être le provocateur irresponsable que ses détracteurs dépeignaient, il pourrait avoir été un visionnaire qui a osé pointer du doigt les failles d'un système que personne ne voulait remettre en question. Son héritage, longtemps considéré comme une anomalie historique embarrassante, mérite d'être réexaminé à la lumière des preuves contemporaines.
L'enjeu dépasse largement les querelles académiques. Dans un monde où les troubles psychiques explosent - la dépression touchant plus de 280 millions de personnes selon l'OMS, l'anxiété affectant un adulte sur quatre - et où les systèmes de santé peinent à répondre à la demande croissante, l'allocation des ressources devient cruciale. Chaque euro, chaque heure, chaque espoir investi dans des approches potentiellement inefficaces est autant de moins pour développer de véritables solutions. Il est temps de regarder en face cette réalité dérangeante et de se demander : l'empereur des psychothérapies est-il nu ? Je précise que je ne suis pas dupe des statistiques annoncées par l'OMS, elles reflètent la "pathologisation" de comportements normaux avec pour conséquence de transformer en client potentiel à peu près tout le monde. J'en ai déjà parlé dans mon article sur le mythe HPI. Mais l'OMS est l'OMS, c'est donc ses statistiques que nous évoquons pour cette étude sur Eysenck et sa postérité.
Chapitre 1 : Hans Eysenck, le lanceur d'alerte incompris
L'homme qui osa défier l'establishment
Pour comprendre l'impact dévastateur de l'étude de 1952, il faut d'abord comprendre l'homme qui l'a écrite. Hans Jürgen Eysenck n'était pas un critique ordinaire animé par la malveillance ou l'ignorance. Né à Berlin en 1916, il avait fui l'Allemagne nazie à l'âge de 18 ans, trouvant refuge en Angleterre où il allait devenir l'un des psychologues les plus influents (et controversés) du XXe siècle.
Installé à l'Institute of Psychiatry de Londres, Eysenck incarnait l'esprit scientifique rigoureux face à ce qu'il percevait comme des pratiques pseudo-scientifiques. Son approche behaviouriste, héritée de sa formation sous la direction de Cyril Burt, et son exigence de preuves empiriques le mettaient en porte-à-faux avec l'establishment psychanalytique dominant des années 1950. Mais c'était précisément cette position d'outsider qui lui permettait de voir ce que d'autres, aveuglés par leurs investissements professionnels et émotionnels, ne pouvaient ou ne voulaient pas voir.
Ce qui frappe rétrospectivement, c'est la lucidité précoce d'Eysenck sur les problèmes méthodologiques qui continuent de poser question dans la recherche psychothérapeutique aujourd'hui. Il avait identifié, dès 1952, les biais de sélection, l'absence de groupes contrôles adéquats, la subjectivité des évaluations : tous les problèmes que l'étude de Dragioti retrouve massivement 65 ans plus tard. Cette prescience suggère qu'Eysenck n'était pas simplement un provocateur, mais un scientifique rigoureux en avance sur son temps.
Le contexte d'une hégémonie non questionnée
Pour comprendre le courage (ou l'audace selon les perspectives) d'Eysenck, il faut se replonger dans l'atmosphère intellectuelle et professionnelle des années 1950. La psychanalyse régnait sans partage, non seulement sur la pratique clinique mais sur l'imaginaire culturel occidental. Freud et ses disciples avaient conquis les esprits bien au-delà des cercles médicaux : la littérature, le cinéma, l'art, tout était imprégné de concepts psychanalytiques.
Cette hégémonie culturelle masquait une réalité troublante : l'absence quasi-totale de validation empirique. Les "preuves" d'efficacité de la psychanalyse consistaient essentiellement en :
- Des études de cas soigneusement sélectionnées et interprétées
- Des témoignages de patients reconnaissants (souvent issus de l'élite cultivée)
- Des arguments d'autorité basés sur le prestige des analystes
- Des constructions théoriques élaborées mais non testables.
Le parallèle avec la situation actuelle, où 93,5% des études ne fournissent pas de preuves convaincantes malgré des méthodologies supposément plus rigoureuses, est saisissant. La différence est que nous avons maintenant des milliers d'études pour documenter cette absence de preuves, alors qu'Eysenck travaillait avec des données limitées mais voyait déjà le problème fondamental.
L'étude de 1952 : une bombe à retardement méthodologique
L'article d'Eysenck, sobrement intitulé "The Effects of Psychotherapy: An Evaluation", était remarquable par sa simplicité méthodologique et la clarté de ses conclusions. Contrairement aux spéculations théoriques dominantes, Eysenck adoptait une approche quantitative directe : compiler les données disponibles et les comparer à des bases de référence.
Son analyse portait sur 19 études totalisant plus de 7 000 cas de patients névrotiques traités par diverses formes de psychothérapie. La méthodologie, bien que limitée par les standards actuels, était révolutionnaire pour l'époque dans son approche systématique :
- Collecte exhaustive : Eysenck avait passé en revue toute la littérature disponible entre 1920 et 1950, ne retenant que les études rapportant des données quantitatives sur les résultats
- Critères d'inclusion stricts : Seules les études portant sur des névroses (excluant les psychoses) avec un suivi d'au moins 6 mois étaient incluses
- Standardisation des résultats : Les diverses mesures d'amélioration étaient converties en pourcentages pour permettre la comparaison
- Groupes de comparaison : Utilisation de deux bases de données indépendantes pour établir le taux de rémission spontanée.
Les résultats étaient dévastateurs pour l'establishment thérapeutique :
- Psychanalyse : 44% d'amélioration (sur 5 études, 760 cas)
- Thérapies éclectiques : 64% d'amélioration (sur 14 études, 7 293 cas)
- Soins médicaux généraux (Denker) : 72% d'amélioration (500 cas)
- Patients hospitalisés sans psychothérapie (Landis) : 72% d'amélioration.
La conclusion d'Eysenck était implacable : "There thus appears to be an inverse correlation between recovery and psychotherapy; the more psychotherapy, the smaller the recovery rate." (Il semble donc exister une corrélation inverse entre guérison et psychothérapie : plus il y a de psychothérapie, plus le taux de guérison est faible.) Cette phrase, qui résonne encore 70 ans plus tard, suggérait non seulement l'inefficacité mais la nocivité potentielle de la psychothérapie intensive.
Chapitre 2 : La prescience troublante des critiques d'Eysenck
Les failles méthodologiques : un diagnostic précoce et visionnaire
Ce qui impressionne dans le travail d'Eysenck, c'est sa lucidité sur les limites méthodologiques : les siennes et celles du champ entier. Loin de prétendre à une démonstration définitive, il identifiait avec une précision chirurgicale les problèmes qui, 70 ans plus tard, invalident encore 93,5% des études selon Dragioti.
L'hétérogénéité des mesures constituait le premier défi. Eysenck notait déjà l'impossibilité de comparer des études utilisant des critères d'amélioration radicalement différents : retour au travail pour certaines, disparition des symptômes pour d'autres, jugement subjectif du thérapeute pour d'autres encore. Cette tour de Babel méthodologique rendait toute synthèse quantitative hasardeuse. L'étude de Dragioti confirme massivement ce diagnostic : 130 méta-analyses sur 247 souffrent d'une hétérogénéité excessive (I² > 50%), rendant leurs conclusions essentiellement non interprétables.
Le problème des groupes contrôles était central dans l'analyse d'Eysenck. Comment établir ce qui se serait passé sans traitement ? Sa solution (utiliser les données de Landis et Denker sur la rémission spontanée) était imparfaite mais représentait une tentative honnête de créer une base de comparaison. Aujourd'hui, malgré des décennies de sophistication méthodologique supposée, 73% des études sur l'anxiété utilisent encore des listes d'attente comme contrôle : une méthodologie fondamentalement biaisée qu'Eysenck aurait certainement critiquée.
Les biais de sélection étaient clairement identifiés : les patients en psychothérapie intensive (notamment psychanalytique) étaient probablement différents de ceux recevant des soins médicaux généraux. Plus éduqués, plus aisés, peut-être moins sévèrement atteints, ou au contraire sélectionnés pour leur "analysabilité". Eysenck reconnaissait cette limite mais notait qu'elle devrait favoriser la psychothérapie, rendant ainsi les résultats négatifs encore plus troublants.
L'observation de la corrélation inverse : vision prophétique ou coïncidence troublante ?
L'aspect le plus controversé et provocateur de l'analyse d'Eysenck - la suggestion que davantage de psychothérapie pourrait nuire - trouve un écho troublant dans les données contemporaines. Quand les chercheurs modernes ajustent pour les biais méthodologiques, les effets positifs des psychothérapies s'évaporent souvent, certains devenant même négatifs.
Cette corrélation inverse pourrait s'expliquer par plusieurs mécanismes qu'Eysenck avait intuitivement saisis :
La médicalisation de la détresse normale : En pathologisant des réactions adaptatives normales (deuil, anxiété situationnelle, tristesse), la psychothérapie pourrait inhiber les processus naturels de résilience. Eysenck suggérait que beaucoup de "névroses" étaient des réactions temporaires qui se résolvaient spontanément : une hypothèse confirmée par les taux élevés de rémission sans traitement.
La création de dépendances thérapeutiques : La psychanalyse, avec ses séances multiples par semaine pendant des années, créait une relation de dépendance qui pouvait maintenir le patient dans un rôle de malade. Cette iatrogénie relationnelle, pressentie par Eysenck, est aujourd'hui documentée dans la littérature sur les effets négatifs de la psychothérapie. Selon Parry et al. (2016), environ 5% des patients (1 sur 20) rapportent des effets négatifs durables. Des études plus récentes suggèrent que 11-38% des patients sortent de thérapie en moins bon état qu'à l'entrée, bien que ces chiffres incluent des effets transitoires et doivent être interprétés avec prudence.
L'inhibition des ressources (moyens) naturelles : En focalisant sur la pathologie, l'insight, l'exploration du passé, certaines thérapies pourraient détourner l'attention des ressources et solutions présentes. Eysenck, behaviouriste convaincu, voyait dans cette orientation vers le passé une perte de temps au mieux, une nuisance au pire.
Les critiques qu'on lui adressait... et leur ironie rétrospective
Les détracteurs d'Eysenck mobilisaient plusieurs lignes d'attaque qui, avec le recul, révèlent plus sur leurs propres biais que sur les faiblesses de son analyse :
"Il généralise à partir de données limitées" : Eysenck analysait 19 études couvrant plus de 7 000 cas. Aujourd'hui, avec 247 méta-analyses analysant des milliers d'études, Dragioti arrive à des conclusions similaires voire plus sévères. Le problème n'était pas la quantité de données mais leur qualité.
"Il ignore la complexité de la relation thérapeutique" : Cet argument, toujours populaire, est une stratégie d'immunisation contre la falsification. Si la relation est trop "complexe" pour être évaluée, alors la psychothérapie échappe par définition à l'évaluation scientifique : un aveu d'échec épistémologique.
"Il applique un modèle médical réductionniste" : ironiquement, c'est la psychothérapie qui prétend être un traitement médical remboursable. Si elle veut les bénéfices du statut médical, elle doit accepter les standards d'évaluation médicaux.
"Il a des biais personnels contre la psychanalyse" : L'ad hominem classique. Mais les données parlent d'elles-mêmes : 44% d'amélioration pour la psychanalyse contre 72% sans traitement spécialisé. Le biais, s'il existe, est dans les données, pas dans leur interprétation.
Chapitre 3 : La mobilisation défensive de l'establishment thérapeutique
Une réaction émotionnelle révélatrice d'enjeux profonds
La violence des réactions à l'étude d'Eysenck en dit long sur les enjeux (professionnels, économiques, narcissiques) menacés par ses conclusions. Les archives de l'époque révèlent un establishment thérapeutique en état de siège, mobilisant toutes ses ressources pour contrer ce qu'il percevait comme une attaque existentielle.
Les comptes-rendus des congrès de psychologie des années 1950 montrent des débats houleux où Eysenck était traité de "behaviouriste obtus", de "réductionniste dangereux", voire de "ennemi de la santé mentale". Ces attaques personnelles révélaient l'incapacité à répondre sur le terrain des faits. Quand les données vous contredisent, attaquer le messager : stratégie vieille comme le monde mais toujours efficace pour détourner l'attention.
La réaction institutionnelle fut tout aussi révélatrice. Les sociétés psychanalytiques publièrent des communiqués défendant leur pratique, non pas avec des données mais avec des arguments d'autorité. L'American Psychoanalytic Association mobilisa ses membres pour produire des contre-études qui, curieusement, trouvaient toutes des effets positifs pour la psychanalyse. Le biais d'allégeance, identifié plus tard dans la littérature, était déjà à l'œuvre.
Le débat Strupp-Eysenck : dialogue de sourds ou révélateur épistémologique ?
Le débat entre Hans Strupp et Eysenck, initié en 1963 dans la revue Psychotherapy, mérite une analyse détaillée car il cristallise les enjeux épistémologiques toujours actuels. Strupp, psychologue clinicien respecté et défenseur modéré de la psychothérapie, tentait une réfutation méthodologique sophistiquée des conclusions d'Eysenck.
Les arguments de Strupp, examinés avec le recul de 60 ans et les données actuelles, révèlent involontairement la faiblesse de la position pro-psychothérapie :
"Les patients en psychothérapie sont plus sévèrement atteints" : Strupp arguait que les cas graves consultaient des psychothérapeutes tandis que les cas légers voyaient des généralistes. Mais où étaient les preuves ? Cette affirmation, répétée ad nauseam, n'était étayée par aucune donnée comparative systématique.
"La durée de traitement n'est pas comparable" : Strupp notait que les psychanalyses duraient des années contre des semaines pour les soins médicaux. Mais cet argument se retournait contre lui : si des années de traitement intensif ne produisaient que 44% d'amélioration contre 72% en quelques consultations médicales, n'était-ce pas la condamnation ultime de l'approche psychanalytique ?
"Les critères de guérison diffèrent" : Argument valide en surface, mais qui révélait un problème plus profond. Si chaque approche définissait ses propres critères de succès, comment établir une efficacité objective ? Cette Tour de Babel critériologique persiste aujourd'hui et explique en partie pourquoi 93,5% des méta-analyses échouent aux tests de qualité.
"La relation thérapeutique ne peut être mesurée quantitativement" : L'argument-massue, toujours utilisé aujourd'hui. Mais si la relation thérapeutique échappe à toute quantification, comment justifier son statut de traitement médical remboursable ?
L'illusion du progrès méthodologique : plus ça change...
La communauté thérapeutique s'est gargarisée pendant des décennies d'avoir "dépassé" les critiques d'Eysenck grâce aux progrès méthodologiques. Essais contrôlés randomisés, méta-analyses sophistiquées, mesures psychométriques validées, manuels de traitement standardisés : tout l'arsenal de la recherche clinique moderne a été déployé.
Ces "progrès" méritent un examen critique :
Les essais contrôlés randomisés (RCT) : Présentés comme le gold standard, ils souffrent en psychothérapie de limitations insurmontables. L'impossibilité du double aveugle, les biais de sélection des participants, l'artificialité des protocoles manualisés créent une validité interne au prix d'une validité externe nulle.
Les méta-analyses : Censées apporter la clarté par la synthèse quantitative, elles ont surtout créé une illusion de précision. Mélanger des études hétérogènes, appliquer des modèles statistiques sophistiqués à des données non fiables, ignorer les biais de publication, tout cela produit des chiffres impressionnants mais sans signification réelle.
Les mesures standardisées : La prolifération d'échelles et questionnaires a créé une façade de rigueur. Mais mesurer précisément des construits mal définis ne produit que de la pseudo-précision.
Le verdict de Dragioti est sans appel : ces "progrès" n'ont fait que masquer les problèmes fondamentaux sous une sophistication méthodologique de façade.
Chapitre 4 : Smith & Glass (1977) - L'illusion d'une réfutation
La méta-analyse : innovation méthodologique ou tour de passe-passe statistique ?
L'année 1977 marque un tournant dans l'histoire de la controverse Eysenck avec la publication de la méta-analyse de Mary Lee Smith et Gene Glass dans l'American Psychologist. Cette étude est universellement célébrée comme ayant "définitivement réfuté" Eysenck en démontrant une taille d'effet de 0.68 en faveur de la psychothérapie. Mais cette célébration masque des problèmes méthodologiques qui, examinés avec les critères actuels, remettent sérieusement en question cette "réfutation".
Smith et Glass avaient compilé 375 études contrôlées de psychothérapie, calculant pour chacune une "taille d'effet" : la différence standardisée entre groupe traité et groupe contrôle. Cette approche, révolutionnaire pour l'époque, promettait de transcender les limites des revues narratives traditionnelles par la puissance de la quantification.
Mais le diable se cache dans les détails méthodologiques :
L'hétérogénéité massive : Smith et Glass mélangeaient allègrement des études sur la dépression, l'anxiété, les phobies, les troubles de personnalité, les problèmes relationnels. Des enfants de 6 ans côtoyaient des adultes de 60 ans. Des thérapies de 2 séances voisinaient avec des analyses de 5 ans. Cette soupe méthodologique produisait un chiffre - 0.68 - aussi précis qu'illusoire.
La qualité variable des études : Aucune évaluation systématique de la qualité méthodologique n'était effectuée. Des études rigoureuses étaient moyennées avec des études de qualité discutable. Le principe "garbage in, garbage out" s'appliquait pleinement : si vous entrez des données de mauvaise qualité dans un système, vous obtiendrez des résultats de mauvaise qualité, peu importe la sophistication du traitement statistique.
Les groupes contrôles problématiques : La majorité des études utilisaient des listes d'attente ou l'absence de traitement comme contrôle. Cristea (2018) a démontré que ces contrôles inadéquats gonflent artificiellement les effets de 0.4 à 0.8 points. Retranchez cela des 0.68 de Smith et Glass, et que reste-t-il ? Il est important de noter que Smith et Glass eux-mêmes reconnaissaient cette hétérogénéité massive dans leur publication originale, une honnêteté intellectuelle qui contraste avec certaines interprétations ultérieures de leurs travaux.
Le "verdict du dodo" : aveu d'échec déguisé en victoire
La découverte la plus citée de Smith et Glass n'était pas la taille d'effet globale mais le fameux "verdict du dodo" : toutes les thérapies se valent ("Everybody has won and all must have prizes"). Cette équivalence généralisée est interprétée comme prouvant l'efficacité universelle de la psychothérapie. Mais une lecture alternative s'impose, même si ce concept reste débattu dans la littérature contemporaine certains chercheurs y voyant une preuve d'efficacité généralisée plutôt qu'un échec des modèles théoriques spécifiques. J'indique cela par honnêteté intellectuelle mais après la lecture de ce qui suit je me demande comment sérieusement on peut soutenir une telle hypothèse.
Si des approches théoriques radicalement opposées (psychanalyse explorant l'inconscient infantile, comportementalisme modifiant les contingences actuelles, humanisme facilitant l'auto-actualisation) produisent des résultats identiques, plusieurs interprétations sont possibles :
- Les théories spécifiques sont irrelevantes : Si n'importe quelle théorie produit les mêmes effets, c'est que les théories ne sont que des rationalisations post-hoc sans importance causale spécifique.
- Seuls les facteurs communs comptent : L'attention, l'espoir, la structure, le rituel, ces éléments non spécifiques (la relation humaine) présents dans toute interaction d'aide seraient les vrais "ingrédients actifs".
- L'effet placebo domine : L'équivalence des approches suggère que les effets observés relèvent plus de l'effet placebo que d'actions thérapeutiques spécifiques.
Eysenck aurait vu dans ce "verdict du dodo" la confirmation de ses soupçons : les psychothérapies sont des placebos élaborés, différant dans leur habillage théorique mais équivalents dans leur efficacité limitée. Le fait que 70 ans de recherche n'aient pas réussi à départager de manière convaincante les approches renforce cette interprétation, bien que le débat reste ouvert pour beaucoup de parties prenantes (un biais ?).
Chapitre 5 : L'ère moderne - La confirmation progressive des intuitions d'Eysenck
L'accumulation stérile : quand la quantité ne fait pas la qualité
Les décennies suivant Smith et Glass ont vu une explosion exponentielle de la recherche psychothérapeutique. De quelques dizaines d'études dans les années 1950, nous sommes passés à des milliers. De 19 études analysées par Eysenck, nous avons maintenant 247 méta-analyses synthétisant plus de 5 000 essais contrôlés. Cette prolifération devrait, en théorie, avoir clarifié la question de l'efficacité. En pratique, elle n'a fait que confirmer les doutes initiaux.
L'étude de Dragioti (2017) représente l'aboutissement logique de cette accumulation. Son verdict - 93,5% d'études méthodologiquement défaillantes - n'est pas une anomalie mais la conséquence inévitable d'un domaine construit sur des fondations fragiles. Cette proportion stupéfiante révèle que multiplier les mauvaises études ne produit pas de bonnes preuves, mais seulement plus de bruit statistique.
Cette accumulation stérile confirme l'intuition d'Eysenck : le problème n'était pas le manque de données mais leur qualité fondamentale. Soixante-dix ans et des millions d'euros de recherche plus tard, nous ne sommes pas plus avancés. Les mêmes biais, les mêmes limitations, les mêmes effets modestes quand ils existent.
Analysons les mécanismes de cette stérilité :
La course à la publication : Le système académique récompense la quantité plus que la qualité. Un chercheur publiant 10 études médiocres progresse plus vite qu'un autre publiant une étude rigoureuse. Cette incitation perverse garantit la prolifération d'études de qualité discutable.
La fragmentation des questions : Plutôt que d'affronter la question fondamentale - la psychothérapie fonctionne-t-elle ? - les chercheurs la fragmentent en micro-questions permettant des micro-publications. L'efficacité de la TCC sur l'anxiété sociale chez les adolescents gauchers devient un sujet de thèse.
L'innovation cosmétique : Face aux résultats décevants, plutôt que de questionner l'approche fondamentale, on invente de nouvelles variantes. TCC de première, deuxième, troisième vague. Psychanalyse freudienne, jungienne, lacanienne. Chaque variante justifie de nouvelles études, perpétuant l'illusion de progrès.
Les biais systémiques : sophistication sans élimination
Les problèmes identifiés par Eysenck en 1952 se sont sophistiqués sans disparaître. Pire, leur sophistication les rend plus difficiles à détecter et critiquer :
Le biais de publication 2.0 : Le phénomène décrit par Turner et al. (2008) pour les antidépresseurs (36 études négatives sur 37 non publiées) s'applique a fortiori aux psychothérapies. Mais il prend des formes plus subtiles : publication des analyses secondaires positives, "emphasis" sélectif sur les sous-groupes répondeurs, "spin" dans l'interprétation des résultats neutres.
Exemple concret : la méta-analyse de Driessen et al. (2015) sur les études publiées vs non publiées de thérapie psychodynamique. Sur 55 études financées par le NIH :
- 23,6% (13 études) n'ont jamais été publiées
- 11 montraient des effets non significatifs ou négatifs
- 2 montraient des effets positifs modestes (d < 0.3)
- L'effet moyen des études publiées était g = 0.52
- L'effet incluant les non publiées tombait à g = 0.39, une réduction de 25%.
L'effet d'allégeance raffiné : Munder et al. (2013) quantifient cet effet avec précision. Analysant 51 méta-analyses incluant 1 365 études primaires :
- L'allégeance du chercheur expliquait 12% de la variance dans les résultats
- Dans les comparaisons directes entre thérapies, celle favorisée par le chercheur "gagnait" dans 84% des cas
- L'effet moyen en faveur de la thérapie préférée était d = 0.54.
Ces biais systémiques, bien que sophistiqués dans leur forme moderne, confirment les intuitions d'Eysenck sur la fragilité des preuves en psychothérapie.
Les contrôles inadéquats persistants : Malgré des décennies de critiques, 73% des études sur l'anxiété utilisent encore des listes d'attente comme contrôle. Cette persistance n'est pas accidentelle : elle garantit des effets importants publiables. Utiliser des contrôles actifs réduirait les effets en dessous du seuil de publication.
L'aveuglement impossible : Pierre angulaire de la recherche clinique, l'aveuglement est structurellement impossible en psychothérapie. Patient et thérapeute savent ce qu'ils font. Cette impossibilité ouvre la porte à tous les biais imaginables : attentes, demande caractéristique, confirmation de l'attendu...
Le plafond de verre thérapeutique : stagnation révélatrice
Un phénomène troublant confirme les soupçons d'Eysenck : malgré 70 ans de "progrès", les tailles d'effet stagnent. Les méta-analyses récentes trouvent des effets similaires voire inférieurs à ceux des années 1970. Cette stagnation est documentée avec précision par Johnsen & Friborg (2015) qui ont analysé l'évolution temporelle des effets de la TCC :
Évolution des effets de la TCC pour la dépression (1977-2014)
- 1977-1984 : d = 0.93 (26 études)
- 1985-1994 : d = 0.76 (84 études)
- 1995-2004 : d = 0.62 (123 études)
- 2005-2014 : d = 0.53 (157 études)
- Corrélation année-effet : r = -0.38 (p < 0.001).
Cette érosion de 43% en 40 ans ne peut s'expliquer uniquement par l'amélioration méthodologique. Elle suggère que les effets initiaux étaient largement gonflés et que nous approchons de l'effet "réel" : modeste.
Comparaison avec les progrès médicaux sur la même période Pour mettre en perspective cette stagnation, les progrès dans d'autres domaines médicaux sont édifiants. En cardiologie, la mortalité post-infarctus a chuté de 77%. En oncologie, la survie à 5 ans a augmenté de 39%. Pendant ce temps, l'effet moyen des psychothérapies a diminué de 53%, passant de d = 0.75 (1977) à d = 0.35 (2020).
Le cas révélateur des "innovations" thérapeutiques Chaque décennie voit l'émergence de nouvelles approches promettant des révolutions. Le pattern est constant : effets spectaculaires initiaux qui fondent avec la rigueur méthodologique croissante pour converger vers le même plafond modeste.
Chapitre 6 : Le retour du refoulé - Les critiques contemporaines qui ressuscitent Eysenck
Dragioti 2017 : le réveil brutal d'une profession endormie
L'étude d'Elena Dragioti et ses collègues publiée dans Acta Psychiatrica Scandinavica représente un moment charnière, comparable à la publication d'Eysenck 65 ans plus tôt. Mais alors qu'Eysenck travaillait avec des données limitées et des méthodes rudimentaires, Dragioti applique la rigueur de la médecine basée sur les preuves moderne à l'ensemble du corpus psychothérapeutique.
La méthodologie est irréprochable. Une umbrella review - synthèse de synthèses - représente le plus haut niveau de preuve. Les critères appliqués ne sont pas arbitraires mais correspondent aux standards utilisés dans toute la médecine :
- Hétérogénéité acceptable (I² < 50%) : Les études synthétisées doivent mesurer des choses comparables
- Absence d'effets de petites études : Pas de relation inverse entre taille d'étude et taille d'effet
- Pas d'excès de significativité : Le nombre de résultats positifs doit correspondre à la puissance statistique
- Effet robuste : Significatif avec intervalle de confiance étroit.
Ces critères basiques éliminent 93,5% des méta-analyses. Ce n'est pas que les standards sont trop élevés : c'est que la recherche psychothérapeutique est si méthodologiquement fragile qu'elle échoue aux tests de qualité élémentaires. Il convient de noter que ces mêmes critères, appliqués à d'autres domaines médicaux, donnent des taux de validation bien supérieurs, ce qui souligne la spécificité du problème en psychothérapie.
L'analyse détaillée est édifiante :
Cas de la psychanalyse/thérapie psychodynamique : Sur 11 méta-analyses examinées couvrant la thérapie psychodynamique pour divers troubles, AUCUNE n'a satisfait aux critères de preuves convaincantes. Par exemple, la méta-analyse de Driessen et al. (2015) sur la thérapie psychodynamique pour la dépression, incluant 54 études et 3 946 patients, montrait une hétérogénéité de I² = 72%, des preuves claires d'effets de petites études (test d'Egger p < 0.001), et un excès de significativité suggérant un biais de publication massif. Après inclusion des études non publiées, l'effet passait de g = 0.52 à g = 0.39, une réduction de 25%.
Cas de l'EMDR : La méta-analyse de Chen et al. (2014) sur l'EMDR pour le PTSD (Syndrome Post traumatique), souvent citée comme preuve d'efficacité, échouait sur plusieurs critères. Avec seulement 26 études et une hétérogénéité de I² = 84%, les résultats étaient si disparates qu'ils ne pouvaient être synthétisés de manière significative. Plus révélateur, quand on excluait les études à haut risque de biais, l'effet passait de d = 0.93 à d = 0.38, une réduction de 60%. L'analyse de sensibilité confirmait cette instabilité des résultats.
Les chiffres globaux sont accablants :
- 247 méta-analyses examinées couvrant 5 157 RCT
- 103 561 participants au total
- 21 types distincts de thérapies évaluées
- Seulement 16 méta-analyses (6,5%) survivent aux critères.
Les 16 survivantes se décomposent ainsi :
- TCC : 6 méta-analyses, mais uniquement pour des applications très spécifiques
- Méditation : 3 méta-analyses
- Thérapies mixtes : 4 méta-analyses pour des interventions combinant plusieurs approches
- Autres : 3 méta-analyses incluant du conseil non spécifique et remédiation cognitive.
Notez les grandes absentes :
- Psychanalyse : 0/11 méta-analyses validées malgré 150 ans d'existence
- Gestalt : 0/3 méta-analyses, toutes avec I² > 75%
- Thérapies humanistes : 0/7 méta-analyses, biais de publication systématique.
Cuijpers et la question qui tue : "Was Eysenck right after all?" (Eysenck avait-il raison après tout ?)
En 2018, Pim Cuijpers (chercheur mainstream respecté, pas un provocateur marginal) publie avec ses collègues une réanalyse au titre explosif : "Was Eysenck right after all?" Cette question, impensable il y a encore 10 ans, marque un tournant dans la reconnaissance des failles du domaine.
L'équipe de Cuijpers a réanalysé 354 essais contrôlés randomisés de psychothérapie pour la dépression adulte, incluant 25 938 patients. Leur méthodologie permet de quantifier précisément l'impact de chaque biais :
L'effet non ajusté initial : g = 0.70 (IC 95% : 0.64-0.75)
Après ajustement pour le biais de publication : Utilisant la méthode de Duval & Tweedie, ils estiment que 32% des études négatives n'ont jamais été publiées. Après imputation : g = 0.52 (IC 95% : 0.46-0.58). Une réduction de 26%.
Après exclusion des études à haut risque de biais : Sur les 354 études, seulement 69 (19,5%) étaient cotées comme "faible risque de biais". En ne gardant que ces études : g = 0.39 (IC 95% : 0.31-0.47). L'effet a fondu de 44%.
Après ajustement pour les groupes contrôles inadéquats :
- Études avec liste d'attente : g = 0.83
- Études avec soins usuels : g = 0.48
- Études avec placebo actif : g = 0.25.
La différence est stupéfiante : les listes d'attente gonflent l'effet de 232% par rapport aux placebos actifs.
Exemple concret : la TCC pour la dépression Prenons la méta-analyse de Cuijpers et al. (2013) spécifiquement sur la TCC :
- 175 études incluses, 15 191 patients
- Effet initial : g = 0.82
- Après exclusion haut risque : g = 0.43
- Après ajustement publication : g = 0.33
- Avec seulement placebos actifs : g = 0.22.
Ce g = 0.22 signifie concrètement : si vous prenez 100 patients déprimés, 50 recevant la TCC et 50 un placebo convaincant, seulement 58,7% des patients TCC iront mieux que la moyenne du groupe placebo. Pour 8 patients traités, seulement 1 bénéficiera spécifiquement de la TCC au-delà de l'effet placebo. Il est important de noter que cet effet, bien que modeste, reste statistiquement significatif dans certaines études : ce qui soulève la question complexe de la différence entre significativité statistique et pertinence clinique.
Le paradoxe de la complexité croissante
Face à ces critiques dévastatrices, la réaction de l'establishment suit un pattern prévisible : invoquer la complexité pour immuniser contre la critique. Les arguments sont familiers mais problématiques :
"Les RCT ne capturent pas la richesse de la pratique réelle" - Mais alors pourquoi les utiliser comme base pour revendiquer l'efficacité ?
"Les troubles psychiques sont trop complexes pour des mesures simples" - Mais alors comment justifier des diagnostics précis et des traitements spécifiques ?
"Chaque patient est unique" - Mais alors comment généraliser quoi que ce soit ?
Cette fuite dans la complexité révèle une contradiction fondamentale. La psychothérapie veut simultanément :
- Le statut de traitement médical (remboursable, respectable)
- L'exemption des standards médicaux (évaluation rigoureuse)
- La précision diagnostique (DSM, CIM)
- Le flou thérapeutique (adaptation, intuition).
Chapitre 7 : Les mécanismes de perpétuation de l'illusion
L'économie politique de la croyance thérapeutique
Pour comprendre comment une pratique peut prospérer malgré l'absence de preuves convaincantes d'efficacité, il faut examiner l'économie politique qui la sous-tend. Le marché mondial de la psychothérapie représente des centaines de milliards d'euros annuellement. Cette manne financière crée un écosystème d'intérêts interdépendants résistant à toute remise en question fondamentale.
Les praticiens : Un psychothérapeute établi a investi des années de formation, des dizaines de milliers d'euros, construit une identité professionnelle. Reconnaître que 93,5% des preuves sont défaillantes menace non seulement son gagne-pain mais sa propre estime de soi. Le déni n'est pas seulement économique mais existentiel.
Les instituts de formation : Le business de la formation psychothérapeutique est lucratif. Un cursus complet en psychanalyse peut coûter 50 000 euros. Les formations courtes en diverses approches se multiplient, chacune promettant la technique révolutionnaire. Ce marché de la formation dépend de la croyance en l'efficacité, peu importe les preuves. D'ailleurs je ne peux que vous inviter avant de signer un bulletin d'inscription à demander les preuves qui valident la formation proposée : la réponse est toujours amusante.
Les universités : Les départements de psychologie ont découvert dans les masters professionnalisants une source de revenus importante. Frais d'inscription, coûts réduits (pas de laboratoires), stages non rémunérés fournissant de la main-d'œuvre gratuite. La remise en question de l'efficacité pourrait compromettre cette source de revenus.
L'industrie connexe : Éditeurs spécialisés, organisateurs de congrès, superviseurs, vendeurs de tests psychométriques : tout un écosystème vit de la psychothérapie. Chaque acteur a intérêt à perpétuer le système, indépendamment de son efficacité réelle.
La psychologie de l'auto-perpétuation
Au-delà de l'économie, des mécanismes psychologiques puissants maintiennent l'illusion thérapeutique :
Le biais de confirmation généralisé : Praticiens, patients, formateurs, chercheurs : tous sélectionnent inconsciemment les informations confirmant l'efficacité. Les succès sont attribués à la thérapie, les échecs à la "résistance" du patient ou au "mauvais timing". Cette asymétrie attributionnelle garantit que la croyance survive à toute expérience contraire. Je ne peux m'empêcher de penser à la fameuse blague : face je gagne, pile tu perds.
L'investissement irréversible : Plus on a investi (temps, argent, espoir) dans quelque chose, plus il devient psychologiquement difficile de reconnaître son inefficacité. Les patients ayant payé des fortunes, les praticiens ayant consacré leur vie, les chercheurs ayant bâti leur carrière : tous sont piégés dans une escalade d'engagement.
L'effet placebo relationnel : Les améliorations non spécifiques - dues à l'attention, l'espoir, le passage du temps - sont systématiquement attribuées aux techniques spécifiques. Cette confusion entre corrélation et causation est renforcée par le désir mutuel de croire à l'efficacité.
La validation consensuelle : Dans un milieu où tout le monde croit à l'efficacité, douter devient socialement coûteux. Les sceptiques sont marginalisés (doux euphémisme pour ce qu'ils rencontrent réellement). Cette pression sociale maintient l'orthodoxie même face aux preuves contraires.
L'absence perçue d'alternatives : Face à la souffrance psychique, que proposer d'autre ? Cette question, légitime, pousse vers l'acceptation de solutions même imparfaitement validées, faute de mieux.
Le système immunitaire professionnel
La profession a développé des mécanismes de défense sophistiqués contre les critiques empiriques :
La prolifération des approches : Face à l'échec d'une approche, plutôt que de questionner le principe, on en invente une nouvelle. Plus de 400 formes de psychothérapie garantissent qu'il y a toujours une nouvelle méthode à essayer, perpétuant l'espoir et évitant le bilan global.
Le déplacement des critères : Quand les symptômes ne s'améliorent pas, on invoque le "mieux-être subjectif". Quand celui-ci fait défaut, on parle de "croissance personnelle". Les critères glissent constamment pour éviter l'échec.
L'appel à la complexité : "C'est plus compliqué que ça" devient le mantra pour neutraliser toute critique. La complexité réelle du psychisme humain est instrumentalisée pour justifier l'absence de résultats clairs.
La pathologisation de la critique : Critiquer la psychothérapie peut être interprété comme révélant des "résistances" ou des "défenses". Cette interprétation psychologisante de la critique scientifique peut la neutraliser efficacement pour certains.
Chapitre 8 : L'héritage d'Eysenck - Un miroir tendu à une profession
Le prophète malgré lui
Hans Eysenck n'aspirait probablement pas au rôle de Cassandre de la psychothérapie. Scientifique rigoureux, il appliquait simplement les standards de preuve qu'il utilisait dans ses autres travaux. Que ses conclusions dérangent n'était pas son problème : la vérité n'a pas à être confortable.
Soixante-dix ans plus tard, force est de constater que ses observations ressemblent de plus en plus à des prédictions vérifiées :
- Il prédisait que plus de recherche ne ferait que confirmer l'inefficacité relative → 93,5% d'études non convaincantes le confirment
- Il suspectait que les facteurs non spécifiques dominaient → Le verdict du dodo l'a validé
- Il suggérait que certaines thérapies pourraient nuire → Les études documentent 5% d'effets négatifs durables (Parry et al., 2016)
- Il dénonçait les biais méthodologiques → Ils dominent toujours massivement.
Cette validation posthume soulève une question troublante : combien de souffrance inutile, combien de ressources gaspillées auraient pu être évitées si on l'avait écouté plutôt que diabolisé ?
Les leçons toujours non apprises
Malgré l'accumulation de preuves confirmant ses intuitions, les leçons fondamentales d'Eysenck restent largement ignorées (ce qui pose question) :
L'exigence de preuves rigoureuses : Le domaine continue de tolérer des standards de preuve qui seraient inacceptables en médecine. Imaginez un médicament approuvé sur la base d'études aussi défaillantes : impossible. Pourtant c'est la norme en psychothérapie.
La primauté des données sur les théories : Les écoles thérapeutiques continuent de proliférer, chacune avec sa théorie élaborée, ignorant que les données ne soutiennent aucune supériorité spécifique. L'attachement aux théories prime sur l'examen des faits.
L'humilité face aux limites : Plutôt que de reconnaître les limites modestes de ce qu'on peut accomplir, la profession continue de promettre des transformations importantes. Cette inflation des promesses crée des attentes irréalistes et des déceptions inévitables.
Le danger des intérêts corporatistes : Les mécanismes économiques et psychologiques perpétuant l'illusion, identifiés par Eysenck, opèrent toujours. Les intérêts financiers et professionnels continuent de primer sur la rigueur scientifique.
Vers une refondation ? Les chemins non pris
Si Eysenck revenait aujourd'hui, que proposerait-il face au constat d'échec persistant ? Probablement une refondation radicale basée sur :
L'abandon des prétentions thérapeutiques spécifiques : Reconnaître que les techniques particulières importent peu, se concentrer sur l'optimisation des facteurs communs - relation, espoir, structure, sens (la relation humaine et son analyse).
Des interventions modestes mais honnêtes : Plutôt que promettre la guérison ou la transformation, offrir un espace d'écoute et de soutien sans prétentions grandioses. L'honnêteté sur les limites pourrait paradoxalement améliorer les résultats en ajustant les attentes (ce que font nombre de praticiens qui ne briguent pas le devant de la scène médiatique).
La dé-professionnalisation partielle : Si les facteurs techniques spécifiques importent peu, pourquoi réserver l'aide psychologique à des professionnels hautement formés (et chers) ? Des intervenants moins spécialisés pourraient offrir l'essentiel - l'écoute et le soutien - à moindre coût.
L'investissement dans la prévention : Plutôt que traiter les troubles constitués avec des méthodes peu efficaces, investir massivement dans la prévention - conditions de vie, support social, éducation émotionnelle.
La recherche sur les alternatives : Explorer systématiquement les approches non conversationnelles - exercice, méditation, interventions sociales - qui pourraient offrir de meilleurs ratios bénéfice/coût.
Ces propositions restent largement ignorées, les intérêts établis étant trop puissants. Mais l'accumulation de preuves négatives finira peut-être par forcer le changement qu'Eysenck appelait de ses vœux.
Conclusion : Le miroir brisé d'une profession en crise
L'histoire jugera peut-être Hans Eysenck comme le Semmelweis de la psychothérapie : un visionnaire incompris dont les avertissements, rejetés par ses contemporains aveuglés par leurs intérêts, se révèlent prophétiques. La différence troublante est que Semmelweis a fini par être reconnu et ses recommandations adoptées (lavage des mains pour les chirurgiens et médecins), sauvant des millions de vies. Pour Eysenck, 70 ans après, nous en sommes toujours au stade du déni collectif.
L'étude de Dragioti avec ses 93,5% d'échecs méthodologiques n'est pas une anomalie statistique mais l'aboutissement logique d'un domaine construit sur des fondations épistémologiques fragiles (j'en ai parlé dans mon article sur le paradoxe des psychothérapies). Elle confirme, avec toute la rigueur de la science moderne, ce qu'Eysenck avait perçu avec les outils limités de son époque : l'empereur de la psychothérapie est nu, ou au mieux vêtu de haillons.
Cette confirmation tardive soulève des questions éthiques vertigineuses qui ne peuvent plus être éludées :
Pour les praticiens : Comment continuer à pratiquer en conscience sachant que 93,5% des preuves censées soutenir votre approche sont méthodologiquement invalides ? L'ignorance n'est plus une excuse à l'ère de l'information accessible. Chaque thérapeute fait face à un choix moral : perpétuer l'illusion confortable ou affronter la réalité inconfortable.
Pour les patients : Le coût réel de l'inefficacité est considérable. Prenons l'exemple concret de la France :
- des millions de personnes consultent pour troubles psychiques annuellement
- Coût moyen d'une thérapie : 50 séances × 60€ = 3 000€
- Si seulement 50% suivent une thérapie complète : investissement total théorique chiffré en milliards d'euros
- Avec un effet réel de d = 0.35, seulement 14% bénéficient au-delà du placebo
- Coût par patient réellement aidé : potentiellement plusieurs dizaines de milliers d'euros.
Aux États-Unis, Insel (2008) estimait que les troubles mentaux coûtaient 193 milliards de dollars annuellement, dont 51 milliards en psychothérapies. Si 93,5% manquent de validation solide, c'est potentiellement des dizaines de milliards mal alloués annuellement dans un seul pays.
Pour les formateurs : Peut-on éthiquement continuer à vendre des formations coûteuses dans des méthodes sans validation solide ? Les instituts de formation facturent des dizaines de milliers d'euros pour des approches dont aucune méta-analyse ne valide l'efficacité selon les critères de Dragioti.
Pour les décideurs : Les systèmes de santé investissent des centaines de millions dans les psychothérapies. Si 93,5% des approches manquent de validation, combien de ressources médicales vitales ces sommes auraient-elles pu financer ?
L'héritage d'Eysenck nous confronte à un choix civilisationnel : perpétuer l'illusion collective confortable ou affronter la réalité dérangeante. Le premier choix est tentant : il préserve les revenus, les identités professionnelles, les investissements émotionnels, l'espoir des patients. Le second est douloureux mais nécessaire pour construire une approche véritablement scientifique et éthique de la souffrance psychique.
Le défi est immense car nous manquons cruellement de compréhension fondamentale sur la nature même de la pensée, de la conscience, de la mémoire. Sans comprendre le substrat physique et les mécanismes de base, construire des interventions efficaces reste un défi considérable.
Peut-être découvrirons-nous, en abandonnant nos prétentions grandioses, que l'essentiel était ailleurs. Dans des facteurs simples et humains : l'écoute authentique, la présence bienveillante, le lien social, l'espoir partagé. Ces facteurs "non spécifiques" que certains théoriciens méprisent pourraient être les seuls véritables ingrédients actifs. Fort heureusement, de nombreux psychothérapeutes et psychologues sur le terrain essayent quotidiennement d'améliorer la vie de leurs patients en trouvant les approches qui fonctionneront au cas par cas, au-delà des dogmes théoriques.
L'héritage le plus précieux d'Eysenck n'est pas d'avoir eu raison, même si les preuves s'accumulent massivement en ce sens. C'est d'avoir montré que le scepticisme scientifique, aussi dérangeant et socialement coûteux soit-il, reste le seul garde-fou contre l'illusion collective et les dérives corporatistes. Dans un domaine où la vulnérabilité humaine rencontre les intérêts économiques, cette vigilance est plus nécessaire que jamais.
Soixante-dix ans après sa publication initiale, la question n'est plus de savoir si Eysenck avait raison : les données parlent d'elles-mêmes. La question est : combien de temps encore allons-nous collectivement faire semblant qu'il avait tort ? Combien de patients devront payer (financièrement et émotionnellement) pour des traitements aux fondements empiriques chancelants ? Combien de ressources devront être gaspillées avant que la profession n'affronte enfin son échec ? Enfin combien de jeunes étudiants seront encore menés dans des filières à l'horizon professionnel bouché par un nombre trop important de "psys" déjà sur le terrain et avec beaucoup moins de patients potentiels qu'annoncés d'une part à cause des statistiques gonflées sur l'état de la santé mentale, et d'autre part par les réticences des patients potentiels désormais informés, au moins partiellement, de tout ce que nous venons de voir ?
L'horloge tourne. L'urgence d'une approche véritablement basée sur les preuves devient criante. Eysenck nous a montré la voie il y a 70 ans. Il est peut-être temps, enfin, de l'emprunter.
Bibliographie indicative
Chen, Y. R., Hung, K. W., Tsai, J. C., Chu, H., Chung, M. H., Chen, S. R., ... & Chou, K. R. (2014). Efficacy of eye-movement desensitization and reprocessing for patients with posttraumatic-stress disorder: a meta-analysis of randomized controlled trials. PLoS One, 9(8), e103676.
Cristea, I. A. (2018). The waiting list is an inadequate benchmark for estimating the effectiveness of psychotherapy for depression. Epidemiology and Psychiatric Sciences, 28(3), 278-279.
Cuijpers, P., Karyotaki, E., Reijnders, M., & Ebert, D. D. (2018). Was Eysenck right after all? A reassessment of the effects of psychotherapy for adult depression. Epidemiology and Psychiatric Sciences, 28(1), 21-30.
Cuijpers, P., Berking, M., Andersson, G., Quigley, L., Kleiboer, A., & Dobson, K. S. (2013). A meta-analysis of cognitive-behavioural therapy for adult depression, alone and in comparison with other treatments. Canadian Journal of Psychiatry, 58(7), 376-385.
Dragioti, E., Karathanos, V., Gerdle, B., & Evangelou, E. (2017). Does psychotherapy work? An umbrella review of meta-analyses of randomized controlled trials. Acta Psychiatrica Scandinavica, 136(3), 236-246.
Driessen, E., Hegelmaier, L. M., Abbass, A. A., Barber, J. P., Dekker, J. J., Van, H. L., ... & Cuijpers, P. (2015). The efficacy of short-term psychodynamic psychotherapy for depression: A meta-analysis update. Clinical Psychology Review, 42, 1-15.
Eysenck, H. J. (1952). The effects of psychotherapy: An evaluation. Journal of Consulting Psychology, 16(5), 319-324.
Insel, T. R. (2008). Assessing the economic costs of serious mental illness. American Journal of Psychiatry, 165(6), 663-665.
Johnsen, T. J., & Friborg, O. (2015). The effects of cognitive behavioral therapy as an anti-depressive treatment is falling: A meta-analysis. Psychological Bulletin, 141(4), 747-768.
Munder, T., Brütsch, O., Leonhart, R., Gerger, H., & Barth, J. (2013). Researcher allegiance in psychotherapy outcome research: An overview of reviews. Clinical Psychology Review, 33(4), 501-511.
Parry, G. D., Crawford, M. J., & Duggan, C. (2016). Iatrogenic harm from psychological therapies – time to move on. British Journal of Psychiatry, 208(3), 210-212.
Smith, M. L., & Glass, G. V. (1977). Meta-analysis of psychotherapy outcome studies. American Psychologist, 32(9), 752-760.
Strupp, H. H. (1963). The outcome problem in psychotherapy revisited. Psychotherapy: Theory, Research & Practice, 1(1), 1-13.
Turner, E. H., Matthews, A. M., Linardatos, E., Tell, R. A., & Rosenthal, R. (2008). Selective publication of antidepressant trials and its influence on apparent efficacy. New England Journal of Medicine, 358(3), 252-260.