Historia y Humanidades

El regreso de los estadísticos. Sobre el valor de la estadística en neuropsicología clínica

A. Picó [REV NEUROL 2019;68:207-212] PMID: 30805919 DOI: https://doi.org/10.33588/rn.6805.2018318 OPEN ACCESS
Volumen 68 | Número 05 | Nº de lecturas del artículo 14.179 | Nº de descargas del PDF 508 | Fecha de publicación del artículo 01/03/2019
Icono-PDF-OFF Descarga PDF Castellano Citación Buscar en PubMed
Compartir en: Facebook Twitter
RESUMEN Artículo en español English version
Hubo un tiempo en que los clínicos despreciaban cualquier toma de decisiones que no dependiera de su propio juicio. Los estadísticos se reían de tal ingenuidad, conociendo lo falible de los heurísticos que guían las decisiones humanas, incluso en los individuos más entrenados. Tras más de 60 años del inicio del enfrentamiento, ambas posturas aún no se han asimilado en psicología clínica ni en neuropsicología. El presente trabajo respalda la aplicación práctica de la estadística en la toma de decisiones clínica y muestra que incluso el juicio de tipo intuitivo descansa de algún modo en la aplicación del uso básico de conceptos estadísticos, sin obviar que en ocasiones se ha hecho mal uso de las herramientas estadísticas. Para ello contrasta las opiniones ofrecidas por algunos clínicos en forma de frase con la bibliografía consultada, que se extiende desde los primeros trabajos del psicólogo clínico Paul Meehl hasta la actualidad. Lejos de querer imponer una opinión, se comenta la ventaja de asumir un enfoque que aproveche los conocimientos matemáticos como apoyo a la toma de decisiones clínica. Finalmente se comenta la necesidad de equipos multidisciplinares en las unidades especiales de nuestros centros hospitalarios. Palabras claveCualitativoCuantitativoEstadísticaJuicio clínicoNeuropsicologíaPredicción CategoriasNeuropsicología
TEXTO COMPLETO (solo disponible en lengua castellana / Only available in Spanish)

Introducción


Hubo un tiempo en que los clínicos parecían despreciar todo conocimiento que no proviniera del contacto cercano con el paciente. Nada más allá del paciente, las estadísticas representaban la falsedad de quien oculta la realidad entre números sin sentido. Los científicos se reían de tal ingenuidad; jamás se debía confiar en heurísticos ni en el propio juicio, e hicieron de la inferencia estadística el altar en el que sacrificaban todas y cada una de sus hipótesis. Tras más de 60 años del inicio del enfrentamiento entre los herederos de Freud y los de Galton [1], ambas posturas aún no se han asimilado en psicología clínica ni en neuropsicología [2-4]. Aun cuando Meehl [5] pareció mostrar en su seminal obra que las predicciones de variables psicológicas realizadas por modelos matemáticos eran más precisas que las derivadas de la intuición clínica [6,7], durante décadas se ha discutido la existencia de un proceso dual en la toma de decisiones, y la interrelación entre ambas vertientes sigue siendo materia de discusión [8].

En estas líneas me propongo mostrar que incluso el clínico más reacio al método matemático es, sin saberlo, un estadístico aplicado, y esto se hace especialmente patente en el reto único de un sistema nervioso que debe evaluar los posibles déficits cognitivos de otro; la neuropsicología clínica. En neuropsicología, el alumno es aleccionado sobre la noción clásica de que una buena prueba de evaluación deja que el déficit –de existir– emerja, mientras que el paciente sin dicha condición y sin importar su nivel educativo puede superarla sin problemas. El mismo principio rector se aplica para discernir entre la tarea experimental y la condición control a través de la inferencia contrafactual [9]. Con ello en mente podemos decir que la buena metodología saca a la luz la diferencia. Sin embargo, no existe una única aproximación metodológica en neuropsicología clínica, y los diferentes enfoques pueden resumirse a grandes rasgos en dos grandes grupos: el sistemático-cuantitativo aboga por evaluaciones estandarizadas en las que el análisis de patrones es su paladín, frente a un enfoque dinámico y flexible que se autodenomina cualitativo, más preocupado por cómo se llega a un resultado que respecto al resultado en sí mismo. En toda toma de decisiones, sin importar la metodología empleada, es de la creencia del autor que la predicción mecánico-estadística siempre está presente. Para contextualizar dicha opinión nos situaremos en un ejemplo específico cuya invención es del autor: ‘paciente de 57 años, varón, educación universitaria, parece estar bien orientado en las tres esferas. Viene a la consulta por mediación de su neurólogo que pide una evaluación funcional por sospecha de demencia. Tras la entrevista inicial se comienza con una batería de pruebas que arrojan resultados ligeramente inferiores a los encontrados en población normal para alguno de los dominios examinados. Una memoria bastante bien conservada contrasta con una atención alterada. La presencia de al menos dos episodios de alucinaciones notificados por la esposa pone sobre aviso al clínico, que recomienda al neurólogo pedir una tomografía por emisión de positrones fluorada, que da como resultado una imagen de la vía nigroestriada intacta. Tras la evaluación funcional, y bajo el criterio de dos clínicos, se diagnostica demencia por cuerpos de Lewy’.

Bien se deba a que se comparan los resultados del paciente contra los que se puedan hallar en tablas, baremos o la propia experiencia en la aplicación de ciertas pruebas, lo que hacen los clínicos conscientemente o no es contrastar la puntuación que se tiene a mano contra un promedio o, en el caso más extremo, contra otra única puntuación. ¿Qué diferencia esta acción del clínico de una mera suma o producto de factores sacados de una tabla de resultados? Como otros autores han mencionado con anterioridad [5,10], el clínico puede, basándose en su experiencia, dotar de cierto valor o más peso a un factor que a otro, pero haciendo esto también estaría aplicando un principio que en esencia es estadístico. ¿Cuál es la predicción de evolución para este caso? Si la dan, están haciendo una mención indirecta a un promedio. No hay clínico que haga una predicción basándose en el caso anecdótico con el que se enfrentó hace 15 años, sino que trata de emparejar las condiciones reunidas por su paciente con la de otros que pasaron por consulta, o con estudios epidemiológicos que ha leído. En cualquiera de ambos casos, su criterio descansa en gran parte en los datos recogidos por otros clínicos de muchos casos particulares que se reúnen bajo una misma etiqueta diagnóstica, de nuevo otro tema de debate, sobre todo cuando la etiología de un trastorno o síndrome permanece en la sombra de la duda. Como indicaba Sarbin [11], una predicción realizada sobre un caso individual en clínica no es una afirmación inamovible, sino siempre probable, y debe tenerse en cuenta que la noción de probabilidad es inherentemente una noción de frecuencia. Puesto que la frecuencia se refiere a la ocurrencia de eventos en una clase particular, el clínico que lanza predicciones lo hace inadvertidamente con la estadística en la mano.

Teniendo, pues, en mente que tanto la predicción estadística como la clínica son en el fondo de la misma naturaleza, la primera ofrece la ventaja de no dejarse llevar por observaciones subjetivas. Aun cuando los clínicos han escrito sobre la ventaja de su experiencia frente a multitud de casos a la hora de predecir un resultado [12], metaanálisis realizados sobre la comparación entre el método clínico frente al estadístico confieren ventaja al segundo [13,14]. Podemos extraer de las investigaciones de Kahneman et al [15] que nuestra experiencia, en vez de enseñarnos, simplemente confirma nuestros sesgos cognitivos [16].

El objetivo del presente trabajo es conducir a la reflexión sobre la necesidad de un mayor conocimiento estadístico-probabilístico, al igual que una mayor incorporación de profesionales de la bioestadística con sensibilidad y experiencia en el tratamiento de datos provenientes de la clínica médica y psicológica. Para ello se argumentará frente a afirmaciones que ciertos clínicos han referido al autor de este trabajo, en un ambiente amistoso y de debate abierto.
 

Desarrollo


‘Yo, al igual que todos mis colegas, he mejorado como clínico a medida que he ganado experiencia con los años’


El clínico, al igual que sus pacientes y el resto de la gente, raramente aprende de su experiencia, y, sin embargo, no es el mantenimiento de la creencia en un tratamiento o estrategia particular (en ausencia de evidencia) la falta más grave en la que puede incurrir, sino ese mismo mantenimiento cuando la evidencia existente es contraria a él. Esta situación podría deberse a que los efectos de una mala práctica clínica en neuropsicología y otras especialidades no suelen ser inmediatos, como sí sucede en cirugía, donde la hemorragia del paciente sobre una mesa de operaciones da un feedback inmediato, pe­ro puede revertirse con la formación continua adecuada según han mostrado los estudios en campos que adolecían del mismo mal [17,18]. En el caso de la psicoterapia, esta situación fue expuesta con no poca controversia, al describir que ni tan siquiera los psicoterapeutas más experimentados pueden reunir la suficiente evidencia que muestre que su desempeño y sus juicios son superiores a los de un principiante, y en estudios longitudinales donde la experiencia parece venir acompañada de un declive en la efectividad [19].

‘Los científicos llegan a pensar que es mejor pasar pruebas cual robot, sin más fin que el de computar las puntuaciones de dichos tests’


La utilidad de los tests, en según qué casos, y según se utilicen en cualquier caso, sería materia de otro debate. La visión norteamericana de la psicometría y los métodos cuantitativos en neuropsicología co­mo un dispensario de pruebas sin ton ni son con el único fin de comparar los resultados numéricos con los valores de referencia puede desgraciadamente verse en la práctica de algunos profesionales de nuestro país, en los que las recetas y los protocolos previamente establecidos son tomados al pie de la letra, y estas rutinas han venido a sustituir el razonamiento clínico. Esta situación no resulta ajena al estadístico, donde el llamado ‘ritual de la hipótesis nula’ ha absorbido a la comunidad científica y, para vergüenza de los científicos, ha mostrado que el investigador está más interesado en ver sus trabajos publicados que en la toma de decisiones estadísticas correctas [20]. Mientras que el ritual sigue siendo la médula de la investigación en psicología y otros campos [21] como la biomedicina, no son pocos los clínicos que se han levantado ante la sinrazón de usar valores p como santo grial de la toma de decisiones y la selección de tratamientos respaldados por la evidencia. Debe hacerse notar, empero, que el estadístico sensato no se deja arrastrar por su amor a los números mismos. El principal fin de la estadística aplicada a la clínica debe ser la obtención de medidas de efectividad o efecto [22], y no la aplicación de test de significación para los cuales no existe evidencia alguna en cuanto a una mejora de compresión o avance en los estudios en los que se aplican. Ciertos expertos aún van más lejos al argumentar que incluso en el caso de estar bien usados e interpretados, los valores p son una herramienta claramente inferior a las medidas de tamaño de efecto en cuanto a su poder para transmitir información [23]. Una de las principales ventajas de dichas medidas es que resultan útiles incluso en ausencia de los requisitos de los tests clásicos más aplicados en la sección ‘método’ de cualquier artículo. Bien sean estas meras diferencias entre me­dias (estandarizadas o no), medidas de riesgo relativo y absoluto, odds ratios u otras, han sido llamadas ‘significación clínica’ o ‘significación real’ frente a la criticada ‘significación estadística’. Estas medidas nos permiten enraizar en la toma de decisiones sobre lo que puede o no ser mejor como línea de intervención, y son fácilmente interpretadas e incluso calculadas por los clínicos mismos. No es superior el enfoque de los clínicos que pasan las pruebas sin siquiera saber qué es una puntuación escalar. Las pruebas tienen una fundamentación teórica con valores adaptados a la población de referencia y, si no se conocen éstos ni los rudimentos de la conversión de puntuaciones directas, el clínico se ve mermado a la hora de juzgar un caso.

‘En clínica hay problemas únicamente susceptibles a la evaluación cualitativa’


La dicotomía entre evaluación cuantitativa y cualitativa podría extenderse a las diferencias en ciencias sociales entre los dos tipos de metodología. Se emplea la etiqueta cualitativa ante ciertas estrategias de recopilación de datos, como la observación participante, recopilar datos de archivos, entrevistas no estructuradas (o semiestructuradas) y otros métodos etnográficos entre los que un antropólogo se encuentra a gusto. Sin embargo, para algunos expertos no deja de ser una dicotomía absurda en la que el clínico debe decantarse por una facción en una forma de tribalismo metodológico [24], ya que la información recogida por medios a priori cualitativos puede codificarse de modo que sea suscep­tible a la manipulación estadística [25]. Si bien la cuantificación quizás no nos indique cómo comprender lo observado, sí puede ser útil para juzgar la fuerza de la interpretación dependiendo del contexto. Siguiendo la lógica de Cronbach, que parafraseaba a Descartes [26], todo lo que existe se presenta en alguna cantidad, y, por tanto, puede medirse de algún modo. La flexibilidad de la evaluación cualitativa puede verse fácilmente complementada con métodos de cuantificación, mientras que a la inversa llegaría a resultar mucho más difícil aprovechar la ventaja de un enfoque ecléctico.

‘Hay casos únicos cuyas particularidades no son sensibles al análisis estadístico’


Este comentario, al igual que el anterior, viene de una concepción limitada sobre lo que supone el enfoque estadístico. A pesar de que en determinados estudios de tipo encuesta hasta un 90% de los clínicos (en este caso, médicos) consultados comentaron la utilidad de los conocimientos en probabilidad pa­ra su práctica profesional [27], este conocimiento entre profesionales sanitarios ha mostrado ser –en las pocas veces que se ha puesto a prueba– insuficiente incluso para la comprensión de la sección de resultados de artículos publicados en revistas médicas [28], o sencillos cálculos sobre técnicas diagnósticas [29]. También en neuropsicología se ha descrito un mal uso de las técnicas estadísticas en sus artículos [30], aun cuando algunos autores defienden la estadística como un pilar de la práctica neuro­psicológica [31]. La estadística es un conjunto variopinto de herramientas que puede favorecer la toma de decisiones en situaciones complejas, pero no pretende sustituir al clínico por un ordenador de sobremesa ni mencionamos que muchas de las labores de éste sean susceptibles de ser fagocitadas por un programa informático. De igual modo, la estadística como orquesta también precisa ser dirigida por decisiones acertadas, por lo que ninguno de los dos enfoques involucra dejar de pensar de forma racional.

‘El clínico se basta de su sentido común en muchas ocasiones, para eso se ha entrenado’


Se ha dicho que la clínica es una mezcla entre arte y ciencia, si bien es de la creencia de este autor que su parte de ciencia es completamente contraintuitiva. Dicho de otro modo, el llamado ‘sentido común’ es enemigo de la práctica basada en la evidencia, la cual es el exponente último de la clínica con enfoque científico. Para ilustrar este último punto utilizaré dos ejemplos reales [32]:
 
  • El uso de betabloqueantes se evitaba en pacientes con insuficiencia cardíaca, puesto que su acción de bajar la presión sanguínea y disminuir la frecuencia de los latidos se consideraba por los clínicos como potencialmente dañina en un organismo que ya de por sí no bombeaba sangre con eficacia. A pesar de esto, una serie de ensayos clínicos que aplicaban los principios de la estadística demostró una disminución de la mortalidad cercana al 30% en estos pacientes. Tuvo que pasar una década para que la evidencia de estos ensayos se impusiera a la teoría sin sustento que se aplicaba en clínica. La intuición clínica en ausencia de un conocimiento completo de los mecanismos biológicos que subyacen a una condición puede, en su obstinación, negar el mejor recurso terapéutico.
  • La práctica de aplicar grandes dosis de oxígeno a niños nacidos prematuros comenzó en los años cuarenta, como comenta Silverman [33], y en poco tiempo se convirtió en una pauta de cuidado habitual. Aun cuando hubo quien a comienzos de los años cincuenta sospechó de tan altas dosis de oxígeno, la posibilidad de poner a prueba la conveniencia de dicha práctica se vio limitada por la ética, que señalaba que someter a niños prematuros al grupo de baja administración de oxígeno era una abominación. Tal era la creencia en el beneficio de la aplicación de oxígeno que los primeros intentos de testar la seguridad y eficacia del tratamiento se vieron frustrados por la buena voluntad de las enfermeras, que aumentaban la dosis de oxigenoterapia de los niños pertenecientes al grupo de dosis baja. Fue en 1953, con un ensayo clínico aleatorizado y 800 niños prematuros, cuando se alcanzó una firme conclusión. Mientras que un 7% de los niños tratados con baja dosis de oxígeno quedaron ciegos, el porcentaje ascendió hasta un 23% en el grupo de alta dosis. Se estimó que unos 10.000 niños pudieron quedar ciegos debido a la administración de altas dosis de oxígeno en aquel período.

Además, siendo el estudio de la bibliografía y sus resultados el fundamento de la práctica basada en la evidencia, el clínico entrenado en una base de estadística y razonamiento experimental se hace más difícil de engañar. No son pocos los casos de fraude científico que se han dado con el paso de los años, si bien en su aplicación clínica se hacen especialmente notorios por las posibles consecuencias de aplicar tratamientos no validados o que han sido fruto de una campaña erigida en mentiras. De especial importancia respecto a este último punto ha sido la reciente publicación sobre fabricación de datos y muestreo no aleatorizado en estudios médicos [34] sobre más de 5.000 ensayos clínicos, que pone en entredicho los porcentajes de mala conducta en investigación anteriormente calculados a partir de encuestas [35].

‘La clínica debe basarse única y exclusivamente en el paciente; la realidad del individuo desaparece en los promedios manejados por estadísticos’


Este comentario refleja una realidad en muchos estudios clínicos presentados. Desde la práctica de presentar gráficos que ocultan la realidad de la distribución de los datos [36], no describir los efectos individuales sobre cada voluntario o el total desprecio por parte de algunos científicos por ensayos con tamaños muestrales modestos [37], la investigación llevada a cabo en psicología podría sufrir un problema de fiabilidad sin precedentes [38], una crisis de replicabilidad que también afecta a la investigación biomédica, aunque en lo tocante a la replicabilidad en psicología también existen dudas. Un examen exhaustivo del estudio original presenta conclusiones opuestas [39]. De ser fiables los últimos resultados, la replicabilidad de la psicología como ciencia sería bastante alta.

Sin embargo, sería un error creer que el estadístico persigue el conocimiento a través del estudio de datos generados por multitudes. Hay una metodología completamente desarrollada para el estudio exhaustivo de un único sujeto (es decir, estudios de n = 1) que en psicología mostró ser uno de los enfoques más productivos bajo paradigmas conductistas [40]. Con las nuevas técnicas en genómica y el avance tecnológico, voces autorizadas se han alzado prediciendo una medicina individualizada, y la neuropsicología podría encabezar esa adaptación, ya que cuenta con dos puntos fundamentales:
 
  • Pertenece al campo que mayor auge ha experimentado en el último siglo, las neurociencias.
  • En su vertiente dirigida por hipótesis y de índole cualitativa siempre fue eminentemente personalizada a la necesidad específica del paciente.

‘No dispongo de tiempo para formarme en todo lo que quisiera’


Es un comentario que no puede rebatirse. Por esa ra­zón creemos en la importancia de implementar una visión más estadística al conjunto de conocimientos clínicos, construyendo un puente entre profesionales. Debemos recordar que la interpretación última de los resultados es tarea del clínico, y que éste es quien suele haber gestado la idea de la investigación. Cuando dicha investigación es asesorada en todas y cada una de sus diferentes etapas por un estadístico familiarizado con la clínica, los beneficios no solo repercuten en una mejor toma de decisiones, sino también en un menor gasto de recursos. De igual modo, el contacto cercano con el estadístico puede favorecer que el clínico adquiera una visión alternativa en su modo de procesar la información, que podría en última instancia favorecer los resultados con sus pacientes.
 

Conclusión


Tras décadas de discusión entre los defensores del juicio clínico frente a los proponentes de un enfoque matemático-estadístico, la última tendencia en metodología podría definirse como la elaboración de diseños con método mixto que aprovechen las ventajas de la evaluación cualitativa, con la potencia explicativa del método cuantitativo. Con la mejora en software y el uso cada vez más extendido de grandes bases de datos, creo más que nunca en la necesidad de equipos multi y transdisciplinares en sanidad, en los que quepan bioestadísticos, neuro­psicólogos, psicólogos clínicos, médicos y otros profesionales, sin por ello menoscabar la idea de que se debe mejorar en la formación de todos y cada uno de ellos. Una dosis, por pequeña que sea, de razonamiento estadístico puede mejorar mucho la calidad de servicio que se ofrece a los pacientes.

 

Bibliografía
 


 1.  Miller GA, Ramírez CM. Introducción a la psicología. Madrid: Alianza Editorial; 2016.

 2.  Bigler ED. A motion to exclude and the ‘fixed’ versus ‘flexible’ battery in ‘forensic’ neuropsychology: challenges to the practice of clinical neuropsychology. Arch Clin Neuropsychol 2007; 22: 45-51.

 3.  Hom J. Forensic neuropsychology: are we there yet? Arch Clin Neuropsychol 2003; 18: 827-45.

 4.  Russell EW, Russell SL, Hill BD. The fundamental psychometric status of neuropsychological batteries. Arch Clin Neuropsychol 2005; 20: 785-94.

 5.  Meehl PE. Clinical versus statistical prediction. Minneapolis, MN: University of Minnesota Press; 1954.

 6.  Jacinto SB, Lewis CC, Braga JN, Scott K. A conceptual model for generating and validating in-session clinical judgments. Psychother Res 2016; 28: 91-105.

 7.  Dawes RM. The robust beauty of improper linear models in decision making. Am Psychol 1979; 34: 571-82.

 8.  Kruglanski AW, Gigerenzer G. ‘Intuitive and deliberate judgments are based on common principles’: correction to Kruglanski and Gigerenzer (2011). Psychol Rev 2011; 118: 522.

 9.  Shadish WR, Cook TD, Campbell DT. Experimental and quasi-experimental designs for generalized causal inference. Boston: Houghton Mifflin; 2001.

 10.  Stouffer SA. Notes on the case-study and the unique case. Sociometry 1941; 4: 349.

 11.  Sarbin TR. The logic of prediction in psychology. Psychol Rev 1944; 51: 210-28.

 12.  Gigerenzer G. Simply rational: decision making in the real world. In Gigerenzer G, ed.  Heuristic decision making. Oxford: Oxford University Press; 2015. p. 107-39.

 13.  Grove WM, Zald DH, Lebow BS, Snitz BE, Nelson C. Clinical versus mechanical prediction: a meta-analysis. Psychol Assess 2000; 12: 19-30.

 14.  Spengler PM, White MJ, Ægisdóttir S, Maugherman A, Anderson LA, Cook RS, et al. The meta-analysis of clinical judgment project. Effects of experience on judgment accuracy. Couns Psychol 2004; 37: 350-99.

 15.  Kahneman D, Slovic P, Tversky A. Judgment under uncertainty: heuristics and biases. Cambridge: Cambridge University Press; 1982.

 16.  Dawes RM. House of cards: psychology and psychotherapy built on myth. New York: Free; 1997.

 17.  Ericsson KA, Hoffman RR, Kozbelt A, Williams MA. The Cambridge handbook of expertise and expert performance. Cambridge: Cambridge University Press; 2018.

 18.  Ericsson KA, Pool R. Peak secrets from the new science of expertise. New York: Eamon Dolan/Houghton Mifflin Harcourt; 2016.

 19.  Goldberg SB, Rousmaniere T, Miller SD, Whipple J, Nielsen SL, Hoyt WT, et al. Do psychotherapists improve with time and experience? A longitudinal analysis of outcomes in a clinical setting. J Couns Psychol 2016; 63: 1-11.

 20.  Gigerenzer G. Mindless statistics. The Journal of Socio-Economics 2004; 33: 587-606.

 21.  Lambdin C. Significance tests as sorcery: science is empirical –significance tests are not. Theory & Psychology 2012; 22: 67-90.

 22.  Wolman E. Handbook of clinical psychology. New York: McGraw-Hill; 1965.

 23.  Armstrong JS. Statistical significance tests are unnecessary even when properly done and properly interpreted: reply to commentaries. International Journal of Forecasting 2007; 23: 335-6.

 24.  Lamont M, Swidler A. Methodological pluralism and the possibilities and limits of interviewing. Qualitative Sociology 2014; 37: 153-71.

 25.  Aldrich H. Stand up and be counted: why social science should stop using the qualitative/quantitative dichotomy. Working in Progress 2014. URL: https://workinprogress.oowsection.org/2014/11/27/stand-up-and-be-counted-why-social-science-should-stop-using-the-qualitativequantitative- dichotomy-2/. [31.07.2018].

 26.  Cronbach LJ. Essentials of psychological testing. New York: Harper Collins; 1990.

 27.  Swift L, Miles S, Price GM, Shepstone L, Leinster SJ. Do doctors need statistics? Doctors use of and attitudes to probability and statistics. Stat Med 2009; 28: 1969-81.

 28.  Wulff HR, Andersen B, Brandenhoff P, Guttler F. What do doctors know about statistics? Stat Med 1987; 6: 3-10.

 29.  Martyn C. Risky business: doctors understanding of statistics. BMJ 2014; 349: g5619.

 30.  Schatz P, Jay K, Mccomb J, Mclaughlin J. Misuse of statistical tests in publications. Arch Clin Neuropsychol 2005; 20: 1053-9.

 31.  Hilsabeck RC. Psychometrics and statistics: two pillars of neuropsychological practice. Clin Neuropsychol 2017; 31: 995-9.

 32.  Cook TD, DeMets DL. Introduction to statistical methods for clinical trials. Boca Raton, FL: Chapman & Hall/CRC Press; 2008.

 33.  Silverman WA. The lesson of retrolental fibroplasia. Sci Am 1977; 236: 100-7.

 34.  Carlisle JB. Data fabrication and other reasons for non-random sampling in 5087 randomised, controlled trials in anaesthetic and general medical journals. Anesthesia 2017; 72: 944-52.

 35.  Fanelli D. How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PLoS One 2009; 4; e5738.

 36.  Drummond G, Vowler S. Show the data, don’t conceal them. Br J Pharmacol 2011; 163: 208-10.

 37.  Smith PL, Little DR. Small is beautiful: in defense of the small-N design. Psychon Bull Rev 2018; 25: 2083-101.

 38.  Baker M. First results from psychology’s largest reproducibility test. Nature 2015; doi: 10.1038/nature.2015.17433.

 39.  Gilbert DT, King G, Pettigrew S, Wilson TD. Comment on ‘Estimating the reproducibility of psychological science’. Science 2016; 351: 1037a-b.

 40.  Sidman M. Tácticas de investigación científica: evaluación de datos experimentales en psicología. Barcelona: Fontanella; 1978.

 

The return of the statisticians. On the value of statistics in clinical neuropsychology

Summary. There was a time when clinicians looked down on any decision-making that did not depend on their own judgement. Statisticians laughed at such naivety, as they were fully aware of the extent to which the heuristics that guide human decisions are capable of error, even in the most highly trained individuals. More than 60 years after the beginning of this conflict, the two standpoints have still not been adopted in clinical psychology or in neuropsychology. This work defends the practical application of statistics in clinical decision-making and shows that even intuitive-type judgement is somehow based on applying the basic use of statistical concepts, without neglecting the fact that statistical instruments have sometimes been misused. To this end, this study compares the opinions offered by some clinicians in sentence form with the bibliography consulted, which spans the period from the earliest works by the clinical psychologist Paul Meehl to the present day. We have no intention whatsoever of imposing an opinion, but instead of discussing the advantage of adopting an approach that uses mathematical knowledge to support clinical decision-making. Attention is also drawn to the need for multidisciplinary teams in the special units of our hospitals.

Key words. Clinical judgement. Neuropsychology. Prediction. Qualitative. Quantitative. Statistics.

 

© 2019 Revista de Neurología

Si ya es un usuario registrado en Neurologia, introduzca sus datos de inicio de sesión.


Rellene los campos para registrarse en Neurologia.com y acceder a todos nuestros artículos de forma gratuita
Datos básicos
He leído y acepto la política de privacidad y el aviso legal
Seleccione la casilla si desea recibir el número quincenal de Revista de Neurología por correo electrónico. De forma quincenal se le mandará un correo con los títulos de los artículos publicados en Revista de Neurología.
Seleccione la casilla si desea recibir el boletín semanal de Revista de Neurología por correo electrónico. El boletín semanal es una selección de las noticias publicadas diariamente en Revista de Neurología.
Seleccione la casilla si desea recibir información general de neurologia.com (Entrevistas, nuevos cursos de formación, eventos, etc.)
Datos complementarios

Se os solicita los datos de redes para dar repercusión por estos medios a las publicaciones en las que usted participe.



Estimado usuario de Revista de Neurología,

Debido a la reciente fusión por absorción de VIGUERA EDITORES, S.L.U., la entidad gestora de las publicaciones de Viguera Editores, entre ellas, Revista de Neurología, por EVIDENZE HEALTH ESPAÑA, S.L.U., una de las sociedades también pertenecientes al Grupo Evidenze, y con la finalidad de que Usted pueda seguir disfrutando de los contenidos y distintos boletines a los que está suscrito en la página web de neurologia.com, es imprescindible que revise la nueva política de privacidad y nos confirme la autorización de la cesión de sus datos.

Lamentamos informarle que en caso de no disponer de su consentimiento, a partir del día 28 de octubre no podrá acceder a la web de neurologia.com

Para dar su consentimiento a seguir recibiendo la revista y los boletines de neurologia.com vía correo electrónico y confirmar la aceptación de la nueva política de privacidad, así como la cesión de sus datos a Evidenze Health España S.L.U., el resto de las entidades del Grupo Evidenze y sus partners y colaboradores comerciales, incluyendo la posibilidad de llevar a cabo transferencias internacionales a colaboradores extranjeros, pulse en el siguiente enlace:

ACEPTAR

Cancelar

Atentamente

El equipo de Revista de Neurología