Aprende a analizar estudios científicos

Como ya he comentado alguna vez, en mi universidad me encontré con el problema de entrar a un máster y realizar un doctorado en el que se exige mucha investigación, pero apenas dan formación. Además, preguntando me he dado cuenta que es (o era hasta hace 10 años) la tónica general en España independientemente de la facultad.
Supongo que en otras carreras no pasará esto, pero por si le sirve de ayuda a alguien y aprovechando que me he creado un Word de consulta para no tener que redescubrir ciertos conceptos cuando preparo mis clases, lo cuelgo aquí también. Lo hago porque en este foro suele haber interés en los estudios, pero es frecuente encontrar errores de bulto al interpretarlos y con esto se puede limitar algo.
Por deformación profesional me voy a centrar en medicina, pero en general se puede aplicar a prácticamente todo. Empezamos.

El método científico
El método científico, o los métodos científicos, como se ha puesto de moda llamarlos ahora por algunos divulgadores (aunque nadie me ha conseguido decir un método científico diferente a otro) consiste dicho muy pronto y mal, en plantear una hipótesis y probar si es cierta o no, básicamente probar lo que dices. Algo tan básico supone el corazón de cualquier artículo científico y lo que nos permitirá obtener conocimiento cierto sobre un tema. En ello se basa el contraste de hipótesis -debido a la imposibilidad de comprobar todos los casos posibles del universo o la población, la ciencia se basa en encontrar la anomalía, pues cuando la encuentras no es necesario ya comprobar todos los casos del universo. Por ello decimos que la ciencia niega, más que afirmar.
Pero claro, a nosotros normalmente nos interesa afirmar, por lo tanto ¿qué hacemos? Utilizar la hipótesis nula, que vendría a ser “no existen diferencias entre los grupos por el hecho de administrar tal medicamento”. Si la negamos, no quiere decir que el medicamento o tratamiento realmente funcione, pero si hemos controlado el resto de factores, sí lo es de facto. Por ello los estudios deben orientarse a negar la hipótesis nula, los que intentan afirmarla suelen ser de calidad metodológica bastante peor.

Ejemplo, si quiero probar que mi nuevo tratamiento Panaceum es efectivo, mi hipótesis nula sería: "En el grupo de pacientes X (diabéticos, hipertensos...), el uso del medicamento Panaceum no muestra diferencias significativas respecto al grupo control (placebo o el mejor tratamiento existente hasta la fecha) en cuanto a índice glicémico/tensión arterial...".
Si la conseguimos negar, supone la aceptación de la hipótesis alternativa, que es que sí existen diferencias por la administración del tratamiento.

Diseños de estudio
Todos hemos oído hablar del ensayo clínico y sabemos que es la mejor forma de probar la efectividad de un tratamiento, ¿pero por qué es así? Vamos a ver los distintos tipos de diseños principales:
- Ensayo clínico controlado aleatorizado: es junto al estudio de cohortes, el único diseño que permite establecer relaciones de causalidad. El motivo es porque son los únicos con período de seguimiento. Es el de mayor calidad metodológica porque utiliza un grupo control. El grupo control nos permite evitar situaciones como “el agua es mala porque el 100% de las personas que la beben se mueren”, al tener algo con lo que comparar. Otra ventaja de este diseño es que se aleatoriza el tratamiento. Esto es lo que le convierte en el mejor diseño de estudio, ya que aleatorizar, si la muestra es lo suficientemente grande, nos asegura controlar todas las variables que puedan modificar la respuesta al tratamiento (incluidas las que desconocemos). Por último, se realiza siempre en humanos enfermos, a los que se les administra un tratamiento. Ejemplo: cogemos a enfermos de cáncer y establecemos dos grupos, uno al que se le aplicará la intervención y otro de control y serán asignados a uno u otro de forma aleatoria.

- Estudio de cohortes: se parte de dos o más grupos (cohortes) de pacientes sanos. Los grupos se crean según la exposición a un factor (fumadores y no fumadores por ejemplo) que queremos estudiar y se les sigue durante un tiempo largo. Como tenemos que esperar a que enfermen, normalmente necesitaremos muestras mucho más grandes para que aparezca algún caso y seguimientos largos. Son los estudios de elección para buscar las causas de las enfermedades, así como el ensayo clínico era el mejor para establecer relaciones de causa-efecto entre tratamiento y sanación. Ejemplo: cogemos a un grupo de miles de personas sanas representativo de la sociedad y los dividimos en según si fuman o no. Los controlamos en el tiempo y vemos cuantos enferman tanto en el grupo de fumadores como en los que no, y comparamos.

- Estudio de casos y controles: como el anterior necesita de mucha muestra y tiempo de seguimiento, es mucho más barato y rápido agrupar todos los enfermos que tengas en un grupo (en lugar de esperar a que los sanos enfermen) de casos y buscar otro control con características similares. Por desgracia este diseño ya no permite establecer relaciones de causalidad, si no sólo factores de riesgo. Ejemplo: aquí el grupo de casos serán pacientes que ya han enfermado, por ejemplo de cáncer y el control personas sanas con características similares. Se investiga cuantos fumaban y cuantos no en cada uno de los grupos y se compara.

- Estudio transversal: similar al anterior pero en vez de organizar por aparición de enfermedad, organizas por exposición. Ejemplo: coges las historias clínicas de los pacientes que has tenido en el pasado y buscas la situación que había en ese momento, tanto de enfermos como de factores de riesgo.

- Series de casos: aquí ya no hay grupo control, por lo tanto sólo sirven para informar de la aparición de enfermedades nuevas que no existían (o no se conocían) y describir un poco la enfermedad y los síntomas. O contestando a Gurlukovich, también sirve para indicar nuevas alternativas de tratamiento. Ejemplo: el que pone Gurlu, infectar a un niño y ver como evoluciona XD.

- Estudios en animales: guste o no guste, los comités de ética exigen un mínimo de evidencia antes de poder probar un medicamento en humanos. Para ello se eligen ciertas especies según lo que se vaya a administrar, pues cada una es más similar al humano en algún aspecto. Están muy controlados pues cómo normalmente acaban con la vida del animal, no se permiten muestras grandes y se debe contratar a una persona adrede para asegurar el bienestar de los animales mientras dure el estudio. Ejemplo: prácticamente idéntico al ensayo clínico, pero con animales en vez de humanos.

- Estudios in vitro: los famosos estudios in vitro no incluyen humanos, por lo tanto la relevancia de los resultados es muy limitada. El motivo, mejor que lo explique xkcd:
Imagen

Traducción para quien no sepa inglés: cada vez que veas una noticia de que algo mata células cancerígenas en un estudio in vitro, ten en cuenta que también lo hace una pistola.

Los comités de ética
Es evidente que no podemos exigir un ensayo clínico para cualquier cosa, pues iría contra la salud de los participantes en el estudio. Los comités de ética se aseguran que el diseño del estudio se adhiere a las declaraciones de derechos de los participantes en los estudios, normalmente la de Helsinki. Hoy en día no te permiten publicar en ninguna revista si no ha pasado por el comité de ética y ha recibido su aprobación.
Por lo tanto no hay que ser talibanes de los ensayos clínicos, a veces un estudio de cohortes o incluso varios de caso-control nos puede aportar información suficiente.
Esto fue parodiado por un artículo de revisión que decía que no tenemos evidencia médica de que saltar con paracaídas sea más sano que hacerlo sin paracaídas e invitaban a los talibanes de los ensayos clínicos a participar en un ensayo clínico controlado por placebo (sin paracaídas), aleatorizado, a doble ciego (sin saber si te va a tocar paracaídas) y cruzado (es decir, primero te administran un tratamiento y luego el otro... si sobreviviste).
https://www.ncbi.nlm.nih.gov/pubmed/14684649

Por supuesto siempre hay quien quiere continuar la broma y publicaron una contestación diciendo que habían hecho un "ensayo clínico" para zanjar el tema. Lo pongo entre comillas porque como dije, el ensayo clínico siempre es en humanos, y este estudio es con muñecos por cuestiones del comité de ética, por lo tanto este estudio realmente no es un ensayo clínico y la cuestión sigue abierta XD:
https://www.ncbi.nlm.nih.gov/pubmed/26769034


Validez interna y externa
Si nos gustan tanto los ensayos clínicos es porque tienen mucha validez interna. Esto es que la calidad metodológica es muy buena, por lo tanto, los resultados tienen muchas probabilidades de ser ciertos. Ejemplo: si yo controlo muy bien la gente que entra al estudio de forma que no entre nadie con problemas independientes a lo que estoy estudiando, será más difícil que me alteren los datos.

El problema es que la mayor parte suelen tener unos criterios de inclusión demasiado estrictos, buscando controlar el mayor número de variables. Esto puede aumentar la validez interna, pero reduce la externa, que es la posibilidad de generalizar los resultados a toda la población. La población general suele tener varios problemas, no son pacientes ideales, por lo tanto si eres muy estricto seleccionando, tu muestra no se parecerá a la población general.
Por ello en los últimos tiempos se han puesto de moda los ensayos clínicos llamados “pragmáticos”, con criterios de inclusión laxos, donde es más difícil encontrar diferencias entre grupos, pero sus conclusiones son mucho más generalizables.

Contraste de hipótesis
Decíamos que una gran parte del método científico se basaba en el contraste de hipótesis. Por desgracia somos incapaces de verificar todos los casos de la población, pero un teorema matemático conocido como Teorema del límite central nos dice que, en presencia de muchas variables independientes aleatoriamente distribuidas, los datos tienden a asemejarse a una distribución normal (o campana de Gauss) cuando la muestra es lo bastante grande. Esto quiere decir que cuando llegamos a un determinado tamaño de muestra, aumentarlo no nos va a aportar apenas beneficios y por ello con datos de miles o unos cientos de personas se pueden extrapolar a toda la población.

El problema es que trabajar sobre esto supone saber de estadística, pues cada test tiene sus condiciones de aplicación. En general se dividen en dos grandes grupos: paramétricos o no paramétricos. Los primeros son mucho más potentes, pero exigen que la distribución de datos siga una normal (u otra forma). Si en un estudio con menos de 100 personas veis que utilizan un test paramétrico sin realizar primero tests de normalidad (como Kolmogorov-Smirnov o Shapiro-Wilk), casi con seguridad lo está aplicando cuando no debe. Un ejemplo sería la media, y por ello no es correcto aplicarla por ejemplo a la distribución de salarios, pues no sigue una normal. Los no paramétricos son menos potentes pero se pueden aplicar a cualquier situación.

La famosa p
Estos test lo que nos suelen arrojar es un valor de probabilidad entre 0 y 1 que llamamos p. Básicamente consiste en la probabilidad de que las diferencias entre grupos se deban a puro azar. Por convenio, por el tamaño de muestra que se utiliza en medicina, se establece que si es inferior a 0.05 las diferencias son estadísticamente significativas. Es decir, que si nos dicen que las diferencias entre grupos son significativas, quiere decir que la probabilidad de que se deban a puro azar son inferiores al 5%.
Un problema frecuente parodiado por xkcd en esta viñeta es que, si hacemos test repetidos de una misma variable, obviamente esa probabilidad aumentará, por lo que habrá que ser más estrictos y aplicar una corrección. La corrección más típica es la de Bonferroni, pero hay muchísimas más.
Imagen

Traducción para quien no sepa inglés:
- He oído que las gominolas (no son gominolas, pero parecido) producen acné.
- Científicos ¡investigad!
- Pero estamos jugando al Minecraft... bueno vale.

- No encontramos relación entre las gominolas y el acné.
- ¡He oído que sólo lo provocan las de un determinado color!
- Científicos, investigad.
- Pero el Minecraft...
- No hay relación con 19 de los colores, pero se encuentra una relación en el verde.
- En las noticias: las gominolas verdes provocan acné con un 95% de confianza. Sólo un 5% de probabilidades de estar equivocado.

Otra cosa que debemos tener en cuenta es que aumentar la muestra nos reduce las probabilidades de apoyar la hipótesis nula cuando realmente es falsa, pero nos aumenta la probabilidad de negarla cuando es verdadera. En otras palabras, una muestra grande aumenta las posibilidades de encontrar diferencias cuando realmente no existen. Por lo tanto, hay que desconfiar de efectos pequeños, aunque sean estadísticamente significativos, si la muestra es enorme.

Significatividad vs relevancia clínica
Que las diferencias sean significativas simplemente quiere decir que existen. Pero muchas veces son tan pequeñas no merecen ni ser tenidas en cuenta, por ello no sólo hay que mirar por la significancia, si no también por la relevancia clínica. Ejemplo, sin un medicamento me reduce la tensión arterial en un punto de forma consistente, será estadísticamente significativo, pero no tendrá relevancia clínica alguna, pues no valdrá la pena el gasto para un resultado tan pobre, aunque exista.
Para ello hay algo mucho más potente que la p, que es lo que llamamos intervalos de confianza. El intervalo de confianza nos indica con un 95% de confianza donde se encontrará la media real de la población, no sólo la de nuestro estudio, ofreciéndonos un valor superior e inferior tope que conforman el intervalo. Por un lado, también nos indican sin las diferencias son significativas o no, si no incluyen el 0 al comparar medias o no incluyen el 1 al utilizar variables de asociación como la odds ratio, quiere decir que las diferencias son estadísticamente significativas.
Por otro lado, el valor superior nos indica cómo de grande es ese efecto, cuanto más grande, más efecto. Además, si el valor inferior supera el valor que se considera como clínicamente relevante, el efecto medido también será clínicamente relevante.
Por último, si el intervalo es estrecho, será mucho más preciso que si es más amplio.

Ejemplo con valores inventados: digamos que estamos estudiando un medicamento que analiza la hemoglobina glicosilada, que es lo que se utiliza para medir los niveles de azúcar a largo plazo. Imaginemos que nuestro estudio nos da un intervalo de confianza de [-3, -2.1] de diferencia para las medias. Esto quiere decir que:
- Con una confianza del 95%, la media en la población real se encuentra entre 3 y 2,1 puntos por debajo del control al utilizar mi medicamento.
- Las diferencias entre grupos son significativas, porque no se incluye el 0, que sería la ausencia de diferencias.
- El efecto es tirando a grande, porque el valor inferior (en este caso utilizamos el valor inferior, porque cuanto más bajo, más efecto en cuanto a control de diabetes) está bastante por debajo del control.
- Además no hay mucha discrepancia en los resultados porque el intervalo es medianamente estrecho.
- Si en vez de la diferencia de medias vemos simplemente el intervalo del grupo test, que es [4.1, 5] diríamos que es clínicamente relevante, porque el umbral para la diabetes es 6,5 y el intervalo no lo incluye.

Como véis, mucha más información que la p, pero también podemos obtener intervalos sobre el riesgo relativo. Pongamos un ejemplo con riesgo de cáncer y tabaco y supongamos que obtenemos como intervalo del riesgo relativo [3, 3.5]. Esto se leería:
- Con un 95% de confianza, el tabaco aumenta entre 3 y 3,5 veces la probabilidad de cáncer respecto a los no fumadores.
- Esto es estadísticamente significativo, porque el intervalo no incluye el 1. Aquí como utilizamos una proporción (dividir riesgo en expuestos vs riesgo en no expuestos) el valor nulo ya no es el 0, es el 1.
- No se si hay un límite que se considere clínicamente relevante en este caso pero como utilizamos valores inventados, pongamos que lo es a partir de un 10%, que traducido a tanto por 1 sería 1,1. Como el valor inferior es 3 y no incluye al 1,1, concluímos que aparte de estadísticamente significativo es clínicamente relevante.
- Como el intervalo es estrecho, el efecto es bastante uniforme, no hay grandes diferencias entre sujetos.

El problema de la odds ratio
En algunos estudios de utiliza de forma incorrecta el estadístico conocido como odds ratio para analizar el riesgo en lugar de utilizar el riesgo relativo. Esto es correcto si la incidencia del suceso a estudiar es inferior al 10%, pues ahí la odds coincide bastante bien con el riesgo. Pero a partir de ahí, la odds aumenta muchísimo más rápido, por lo tanto sólo tiene sentido utilizarla si el estudio no tiene seguimiento (pues en ese caso no es posible calcular el riesgo).
En un artículo de uno de los grupos más potentes de investigación del mundo en mi profesión cometieron este error, diciendo que la odds ratio de 4 indica que hay 4 veces más riesgo de efectos no deseados que en el grupo control. Sin embargo, si calculabas el riesgo ya no era 4, era 1,4, es decir, sólo un 40% más de riesgo.

El problema del riesgo relativo
Habíamos visto en el punto anterior que utilizar Riesgos Relativos es mucho más fiable que utilizar odds ratio, pues estas son bastante complicadas de interpretar y el riesgo relativo se acerca mucho más a lo que entendemos por riesgo. Pero este también tiene limitaciones, pues cuando pensamos en riesgos, normalmente no pensamos en cuanto riesgo tenemos por haber sido expuesto vs no haber sido expuesto, sino al riesgo total. Un ejemplo que desarrollo mucho más en la parte de estadística bayesiana son los test.

Un ejemplo: si miras cuanta gente ha muerto por violencia de género según los reportes oficiales, el riesgo relativo es de 5, es decir, los muertos por violencia de género tienen una probabilidad de ser mujer 5 veces superior a ser hombre. Pero estando muerto, ya no te importa el sexo, tu lo que quieres saber realmente es, estando vivo, qué probabilidad tienes de morir por violencia de género. Y ahí la diferencia entre sexos es inferior a 0,001%, el motivo es que hay muy pocas muertes por violencia de género en comparación con la población total, más del 99,99% de la gente no va a morir por violencia de género. Esto es lo que llamamos "riesgo absoluto".

El cálculo del tamaño muestral y la potencia
Decíamos que el tamaño de la muestra es importante, tanto por si nos quedamos cortos como por si nos pasamos, pero ¿cómo calcularlo? Cohen en su día creó unas fórmulas que nos permiten a partir de unos datos conocidos, sacados de artículos científicos previos o si no los hay porque estamos investigando algo nuevo, sacados de un estudio pequeño previo que hagamos; poder calcular el tamaño muestral.
Como necesitamos esos datos previos para hacer el cálculo, todo estudio debe tener una variable principal, que será sobre la que se hará el cálculo. Por ello se intenta que los estudio tengan el menor número de variables respuesta posible (idealmente una), porque para el resto de variables el tamaño muestral puede ser insuficiente. La variable principal debe ser una muy importante (normalmente mortalidad), no vale coger una totalmente secundaria, pero con la que sepas que apenas vas a necesitar personas para realizar el estudio. Si no hay cálculo del tamaño muestral o utilizan una variable extraña en vez de una mucho más importante, desconfiad.
Para calcularlo necesitamos:
- Tamaño del efecto: es decir, media y desviación estándar de test y control
- Error alfa: en medicina por defecto 0.05. En física de partículas por ejemplo es muy inferior.
- Error beta: el cual lo elegimos nosotros. Se calcula restando a 1 la potencia en tanto por 1. El mínimo aceptable es 0.2, de ahí para abajo podemos elegir el valor que queramos, teniendo en cuenta que cuanto menos error, más pacientes necesitaremos.
Yo utilizo el programa G*Power para calcularlo, que es gratis pero hay un montón. Para ello primero seleccionas el tipo de test que utilizarás y seleccionas que vas a calcular "a priori". Si en vez del tamaño muestral quieres calcular la potencia, seleccionarás "power" en vez de a priori.
La potencia es básicamente la capacidad de encontrar diferencias significativas del estudio, y se puede calcular una vez ya lo has terminado. Normalmente deberá tener una potencia superior al 80% para ser aceptable.

Sesgos
Los sesgos son errores metodológicos que nos pueden llevar a conclusiones erróneas y que hay que evitar. Los más típicos son:
- No realizar aleatorización o realizarla con métodos inadecuados, como por ejemplo por orden de llegada, día de la semana…
- Mala ocultación de la asignación: no se ha utilizado un placebo en el grupo control que impida conocer qué tratamiento se ha realizado al paciente.
- Sesgo de desgaste: perder pacientes durante el estudio disminuye la potencia y puede romper la aleatorización. Por ello se suele incluir un 20% extra sobre lo que te dijo el cálculo muestral para evitarlo.
- Ofrecer datos incompletos: a veces se callan los resultados de alguna variable por conveniencia.
- Otros tipos de sesgo

Cegamiento
Hemos visto que uno de los sesgos más frecuentes es el hecho de conocer qué tratamiento ha recibido el paciente. Para evitarlo podemos enmascararlo, por ejemplo utilizando un placebo, es decir, algo que es indistinguible del tratamiento a realizar, pero que realmente no hace nada.
Si el paciente es el único que no conoce el tratamiento que le van a realizar, se denomina cegamiento-simple.
Pero claro, aunque es cierto que el efecto placebo hace que el paciente mejore, al menos en los síntomas, la mayor parte del error suele venir por parte del profesional que hace las mediciones. Las mediciones clínicas no son tan precisas como las que las metes en la maquinita y te da un valor, y el médico, con sus ganas de encontrar un nuevo tratamiento que funciona, puede sobreestimar el éxito. Cuando el médico que hace las mediciones tampoco sabe qué tratamiento se ha realizado se llama doble ciego.
Pero aquí no termina la cosa, normalmente el estadístico que calcula los datos o va a cobrar por el trabajo hecho o va a ser el propio investigador, por lo que también va a estar sesgado a sobreestimar el efecto, pues como hemos visto, hay formas para "torturar los datos" hasta que te digan lo que quieres oír. Si desconoce qué tratamiento recibió cada grupo, se denomina triple-ciego.
Por último, a la hora de escribir el artículo, el investigador puede elegir quedarse con unas variables y desechar otras o utilizar los modelos que más le convengan a lo que quiere decir. Por ello, a veces (casi nunca) no se le desvela qué grupo es cual hasta que está escrito casi por completo el artículo (la discusión a veces es imposible hacerla desconociendo los grupos). Esto se denomina cuádruple-ciego y creo que ya no hay más a partir de aquí.

Metanálisis y la colaboración Cochrane
La colaboración cochrane es una de las organizaciones que más ha insistido en la necesidad de la medicina basada en la evidencia, influida por el desastre de la Talidomida y la falta de ensayos clínicos en la época. Este es su logo:
Imagen


El logo simboliza un diagrama de bosque, muy utilizado como resumen de los metanálisis. Básicamente, la línea vertical simboliza la falta de efecto, y cada una de las barras horizontales son los resultados de un estudio. Si midieramos los resultados al peso, concluiríamos que de 7 artículos, sólo 2 muestran efectividad del tratamiento (no tocan la línea), por lo que deberíamos concluir que el tratamiento no es efectivo.

Pero el metanálisis va mucho más allá, creando como un estudio nuevo con la suma de las muestras de cada estudio. Los resultados del metanálisis son el rombo, que claramente se aleja de la línea vertical e indica un efecto fuerte. Pues bien, este metanálisis trataba sobre la administración de corticoides a niños prematuros y medía la supervivencia. La conclusión final es que sin realizar ningun ensayo clínico extra, simplemente con trabajo de despacho, se pudo concluir fuera de toda duda que la esperanza de vida aumentaba un 30% con la administración de corticoides y que decenas de miles de niños prematuros habían muerto sin motivo.

Con esto queda claro por qué un metanálisis bien hecho es el top del conocimiento científico, al compensar los sesgos de cada uno de los estudios. La clave está en lo de bien hecho, no son nada fáciles de hacer.

Aparte de los en diagramas de bosque nos podemos fijar en la heterogeneidad, normalmente medida con la I2. Si supera el 25% quiere decir que los estudios realmente están midiendo cosas distintas y las conclusiones del metanálisis no son fiables. Normalmente ocurre cuando los controles no son los mismos en cada uno de los estudios analizados.

Hay muchas más cosas que analizar metodológicamente en un metanálisis, pero eso no cabe en un post (de hecho son más de 600 páginasXD)


Teoría bayesiana

He repasado mis apuntes sobre teoría bayesiana, así que vamos a analizar un test. Supongamos que tenemos un test con una sensibilidad del 99% y una especificidad del 99%. Normalmente no son tan buenos, pero pongámonos en un caso extremo. ¿Cuál es la probabilidad de que si sale positivo el test realmente estemos enfermos? 99% o algo cercano ¿no? Vamos a calcularlo.

Según descubrió Bayes hace ya casi dos siglos, esta probabilidad viene determinada por P(H|E) = P(H) * P(E|H) / P(E), donde P significa probabilidad, H la hipótesis (en este caso estar enfermo), y la E sería la evidencia, es decir, nuestra prueba. P(H|E) sería la probabilidad de estar enfermo cuando la evidencia da positivo, P(H) la probabilidad de que nuestra hipótesis sea cierta independientemente de que realicemos o no la prueba (en otras palabras, la prevalencia de la enfermedad en la población), P(E|H) la probabilidad de que la prueba de positivo cuando realmente estemos enfermos y P(E) la probabilidad de que el test de positivo independientemente de que tengas o no cáncer.

Pues bien, calculemos. Lo que queremos obtener es P(H|E), que es la probabilidad de realmente estar enfermos cuando de positivo. Pues bien, lo primero sería sustituir P(H), que sería la prevalencia de la enfermedad. Pongamos 1%, o lo que es lo mismo, 0.01 (estoy siendo muy generoso, pues esa es la prevalencia del cáncer más frecuente, la media es mucho más baja). P(E|H) sería 0.99, pues es la eficacia del test. Por lo tanto en el numerador tenemos 0.01*0.99 = 0.0099. Estos son los verdaderos positivos.

Vamos al denomidador: P(E) es la probabilidad de dar positivo estés enfermo o no, o lo que es lo mismo, el porcentaje de verdaderos positivos (0.0099) + los falsos positivos. Pues bien, los falsos positivos se calculan multiplicando la probabilidad de falsos positivos (0.01, pues el test tiene una eficacia de 0.99) por el porcentaje de gente que no tiene cáncer (0.99, porque la prevalencia es del 1%). ¿Resultado? 0.0099. Vaya, resulta que tenemos el mismo porcentaje de verdaderos positivos que de falsos positivos, pese a que el test tiene una eficacia del 99%. Pero terminemos de calcular el denominador, decíamos que se componía de la suma de verdaderos positivos (0.0099) + falsos positivos (0.0099) = 0.198.

Por lo tanto, verdaderos positivos (0.0099) / probabilidad de dar positivo (0.198) = 0.5. Vaya, al final resulta que la probabilidad de estar realmente enfermo tras dar positivo en el test con 99% de eficacia es del 50%. Pero bueno, esto tiene solución fácil, aplicar un segundo test con otro 99% de eficacia, en cuyo caso ya sí que tendríamos una probabilidad del 99% de estar enfermos tras dar positivo en los dos.

Pero queda un problema, los test no son tan buenos ni de lejos, y la cosa es peor en las enfermedades más raras. Por ejemplo, los test para el cáncer de próstata tienen una eficacia del 60% como mucho. Una eficacia tan baja hace que incluso tras dar positivo en 4 test diferentes, la probabilidad de estar enfermo seguiría estando por debajo del 50%. Incluso las biopsias fallan, como muestra esta imagen:

Imagen

El screening ha aumentado exponencialmente los diagnósticos por cáncer de mama, sin embargo la mortalidad se mantiene constante.

Por eso las pruebas son necesarias, pero sólo en los grupos de riesgo, porque de lo contrario estás sobretratando a montones de personas, ya que la probabilidad de dar positivo puede ser muy superior a la de estar enfermo, si analizas a gente de forma indiscriminada.

Amada y odiada p
Ya hemos comentado el uso de la p como umbral para las diferencias estadísticamente significativas. El problema es el valor de ese umbral. Ese umbral fue establecido por Ronald Fisher (quién la creó) en 0,05, un valor arbitrario que consideraba adecuado. El problema es que los requisitos y la forma de interpretarlo que estableció se han diluido y se ha pasado a utilizar de forma maniquea, sólo existe lo significativo y lo que no.

Uno de estos requisitos es que el estudio tenga potencia estadística suficiente, es decir, suficiente muestra. Gran parte de los estudios no la tienen, por razones de recursos económicos o humanos. Si se combina con un valor de p de 0,05, el resultado es un aumento grande de los falsos positivos. Por este motivo han surgido varias voces para cambiar este umbral a un valor más conservador, como 0,005. Por ejemplo en este artículo de Nature del año pasado:
https://www.nature.com/articles/s41562%20017%200189%20z

Yo le veo varios problemas. Primero, veo más sencillo que la gente adopte cosas nuevas (intervalos de confianza) que cambiarle un hábito con el que lleva trabajando toda su vida. Segundo y principal, como comenté con los intervalos de confianza, un nuevo umbral sigue sin aportarte información del tamaño del efecto, su precisión y su relevancia clínica, cosa que puedes tener con los intervalos de confianza y el valor de p antiguo. El tercero es que disminuir el valor de p, disminuye el error de tipo I (falso positivo), pero aumenta el tipo II (falso negativo). En medicina se considera preferible invertir en un campo que después se muestre como callejón sin salida, que dejar de explorarlo por un resultado negativo inicial.

Resumiendo, aún con lo que dice Nature, considero preferible utilizar intervalos de confianza y cálculo del tamaño muestral, que variar el valor de p.

Perdón por el tochaco. tl;dr, ni con tus ojos a partir de esta línea.
Mola. A nosotros estas cosas en ciencias naturales no nos las suelen explicar (tampoco las solemos aplicar mucho en general, en mi campo).

Pero me temo que poniendo esto en EOL predicas en el desierto.

No acabo de entender muy bien lo de la p.
Moki_X escribió:Mola. A nosotros estas cosas en ciencias naturales no nos las suelen explicar (tampoco las solemos aplicar mucho en general).

Pero me temo que poniendo esto en EOL predicas en el desierto.

De vez en cuando algún usuario me pide que analice algún estudio y cada vez va a más, igual algo de interés hay XD. Además, es la única forma de tener conocimiento con base sobre algo y con la tontería de modas que han llegado últimamente pues...

No acabo de entender muy bien lo de la p.

Ejemplos inventados, te puedo decir que tengo dos medias de cada uno de los grupos de mi estudio, una es 5,7 y otra 6,3. Pero claro, eso es la media, luego hay valores tanto por arriba como por debajo, por lo tanto ¿esa diferencia de medias es real o por simple fluctuación estadística aleatoria ha aparecido? Porque lo que es coincidir, prácticamente nunca van a coincidir por puro error aleatorio, por lo tanto alguna forma habrá de determinar si esa diferencia es real.

Y es la p, que básicamente consiste en la probabilidad de que la diferencia se deba al azar. Si la probabilidad es muy baja, (es decir, hay poca probabilidad de que se deba al azar) se considera que la diferencia es real. Se considera por convenio que por debajo de 0.05 de valor de p, la probabilidad es tan baja que no es razonable pensar que se deba al azar. Sin embargo, si la p está por encima de 0.05, aunque los valores de las dos medias difieran, no puedes decir que sean diferentes.
dark_hunter escribió:
Moki_X escribió:Mola. A nosotros estas cosas en ciencias naturales no nos las suelen explicar (tampoco las solemos aplicar mucho en general).

Pero me temo que poniendo esto en EOL predicas en el desierto.

De vez en cuando algún usuario me pide que analice algún estudio y cada vez va a más, igual algo de interés hay XD. Además, es la única forma de tener conocimiento con base sobre algo y con la tontería de modas que han llegado últimamente pues...

No acabo de entender muy bien lo de la p.

Ejemplos inventados, te puedo decir que tengo dos medias de cada uno de los grupos de mi estudio, una es 5,7 y otra 6,3. Pero claro, eso es la media, luego hay valores tanto por arriba como por debajo, por lo tanto ¿esa diferencia de medias es real o por simple fluctuación estadística aleatoria ha aparecido? Porque lo que es coincidir, prácticamente nunca van a coincidir por puro error aleatorio, por lo tanto alguna forma habrá de determinar si esa diferencia es real.

Y es la p, que básicamente consiste en la probabilidad de que la diferencia se deba al azar. Si la probabilidad es muy baja, (es decir, hay poca probabilidad de que se deba al azar) se considera que la diferencia es real. Se considera por convenio que por debajo de 0.05 de valor de p, la probabilidad es tan baja que no es razonable pensar que se deba al azar. Sin embargo, si la p está por encima de 0.05, aunque los valores de las dos medias difieran, no puedes decir que sean diferentes.



Masuno al ejemplo! [beer]
Gracias por ponerlo, aunque para los que no tenemos ninguna formación en el campo científico o estadístico sigue siendo complicadillo de entender. Aunque está bien saber que no todos los estudios son igual de fiables, yo soy mucho de creérmelos
Yo solo vengo a aplaudir a quien se toma la molestia de poner contenido de calidad. Muchas gracias por el esfuerzo, es bueno subir el nivel de conversación. Un abrazo.
Ashdown está baneado por "faltas de respeto"
Imagen
xkcd deberia ser obligatorio para ilustrar textos cientificos
Buenísimo aporte de calidad. Felicidades.

Para mí, en los años que llevo en este foro, puedo decir, que he llegado a un punto que si entro en un hilo desconociendo el tema del que se está hablando, si @dark_hunter está participando en el mismo y viendo sus respuestas puedo saber por donde va el tema.

Creo que es uno de los foreros más coherentes y objetivos que hay, en cualquier tema del foro.
El grupo control nos permite evitar situaciones como “el agua es mala porque el 100% de las personas que la beben se mueren”, al tener algo con lo que comparar.

Dudo que puedas encontrar un grupo control que no tome nada de agua para comprobar eso. [hallow]

PD: ¿Cómo de potente te parece el estudio de este señor? http://www.dciencia.es/edward-jenner-vacuna-historia/ [sati]
Gracias por el apoyo, veo que al final sí había interés. Cualquier duda o cosa que no quede clara preguntad. He hecho algunas modificaciones.
Gurlukovich escribió:
El grupo control nos permite evitar situaciones como “el agua es mala porque el 100% de las personas que la beben se mueren”, al tener algo con lo que comparar.

Dudo que puedas encontrar un grupo control que no tome nada de agua para comprobar eso. [hallow]

Bueno, con ensayos clínicos no, pero esta mañana he añadido el disclaimer de que no es ético exigir ensayos clínicos para todo si otros diseños nos permiten acumular información suficiente (sección de comités de ética). Con un diseño caso-control o incluso uno de cohorte claro que vas a conseguir controles.
El ejemplo paradigmático es el tabaco, los estudios caso-control eran tan abrumadores que no hizo falta esperar a los de cohorte para establecer recomendaciones.

Pero bueno, todo esto viene dado en los grados de recomendación GRADE: un estudio observacional, si cumple ciertas condiciones como un tamaño del efecto grande, control de los factores de confusión mediante regresión y un tamaño de la muestra amplio puede llegar a valer como un ensayo clínico. Igual que un ensayo clínico mal hecho puede valer menos que un caso-control. Pero me parecía que era liar demasiado las cosas para empezar.

PD: ¿Cómo de potente te parece el estudio de este señor? http://www.dciencia.es/edward-jenner-vacuna-historia/ [sati]

Ahora le hecho un ojo y edito para que te llegue notificación.
Pues es un a propósito de un caso, el escalón más bajo de la evidencia porque está sujeto a fuertes sesgos, como por ejemplo ¿se inmunizó o simplemente no desarrolló la enfermedad? Imposible de saber con este estudio, pero luego vinieron más.

Como dije antes, este tipo de estudio es el que se suele utilizar cuando se está en un territorio por explorar, no se puede empezar con un ensayo clínico ni por coste, ni por recursos humanos, ni por cuestiones de ética.
Lo leí ayer y mis dieses. Eso sí, con unos cuantos ejemplos prácticos creo que puede quedar bastante más claro.
Ya de paso. ¿Algún libro recomendado para neófitos si se quiere profundizar en el tema? Pillé hace unos meses OpenIntro Statistics --tengo pendiente retomarlo-- pero buscaba algo menos "libro de texto" y más práctico.
Imagen

Bueno, yo hago una pequeña aportación:

Mapa conceptual (es trabajo propio, no hay problema con derechos de autor) que hice y utilicé en su día para preparar "Introducción al análisis de datos" de 1º de Psicología (UNED). Está basado en el libro correspondiente a la asignatura. Yo ya tenía conocimientos (teóricos) sobre paradigmas en investigación previamente, pero casi nada práctico. El mapa, está desarrollado por y para que lo pueda entender una persona desde el desconocimiento en estadística, para novatos.

Sirve de introducción a la asignatura. Si a alguien le pica más, puedo ir pasando los siguientes.

@dark_hunter si ves que sobra en el hilo, lo quito [beer]. ¡Y gracias por el currele!
Moki_X escribió:Mola. A nosotros estas cosas en ciencias naturales no nos las suelen explicar (tampoco las solemos aplicar mucho en general, en mi campo).

Pero me temo que poniendo esto en EOL predicas en el desierto.

Me suena que te dedicas a la física, ¿no?

En verdad es parecido, sólo que el grupo test sería el exceso de señal sobre el ruido de fondo según el modelo que estás utilizando y el control pues la señal si no existiera esa partícula, por ejemplo.

Como normalmente se utilizan muestras enormes, la p debe ser mucho más baja para considerarse descubrimiento, en concreto 0.0000003 o las famosas 5-sigmas, que es lo mismo.

Eso en física de partículas, en otras áreas donde las muestras son de cientos o unos pocos miles también se utiliza el umbral de 0.05 como en medicina.
Korso10 escribió:Lo leí ayer y mis dieses. Eso sí, con unos cuantos ejemplos prácticos creo que puede quedar bastante más claro.

Te he hecho caso y he añadido unos cuantos.

Ya de paso. ¿Algún libro recomendado para neófitos si se quiere profundizar en el tema? Pillé hace unos meses OpenIntro Statistics --tengo pendiente retomarlo-- pero buscaba algo menos "libro de texto" y más práctico.

Yo conseguí una beca para hacer un curso de un año sobre el tema y casi todo lo he sacado de ahí. Cosas más específicas que prácticamente no he explicado las saqué de este blog:
http://www.cienciasinseso.com/

No te sabría decir libros, sorry.

@supermuto que va, sin problema.
2pac4ever escribió:Para mí, en los años que llevo en este foro, puedo decir, que he llegado a un punto que si entro en un hilo desconociendo el tema del que se está hablando, si @dark_hunter está participando en el mismo y viendo sus respuestas puedo saber por donde va el tema.

Creo que es uno de los foreros más coherentes y objetivos que hay, en cualquier tema del foro.

He de apoyar esta opinion

Pf en el doctorado que hago (quimica), como que lo que comentas da un poco de igual. La busqueda bibliografica que hay que hacer es:
1) Compuestos de "moda" hoy en dia / que puedan tener algun interes en tu campo (o departamento), hacer una lista.
2) Contrastar la lista con lo hecho en tu grupo o que este acorde con los objetivos de los proyectos otorgados al grupo de investigacion
3) De lo resultante, comprobar que metodos de caracterizacion son necesarios y si los puedes aplicar o no para hacerlo mediante colaboraciones.
4) Ya entrar al trapo

Yo como estudiante de doctorado me han dado eso ya hecho, pero bueno. Lo unico que he de hacer es a partir del paso 3). Es decir, sabiendo que es lo que se hace en el proyecto del grupo en el que estoy y sus objetivos, buscar informacion de compuestos, para buscar compuestos no descritos pero parecidos a otros, y tirar a partir de ahi, haciendote tu propia "historia de doctorado"


PD: en que uni das clase?
Gracias [beer] me viene bien para estudiar Epidemiología y repasar, que a mi esto sí me toca estudiarlo.
mi formacion cientifica es inexistente, y me ha parecido interesante, enhorabuena
¡Muchas gracias por este trabajazo que te has pegado! Yo había estudiado inferencia estadística desde el punto de vista más abstracto, pero no tenía ni idea de cuál era la metodología en la práctica (y concretamente en el caso de ensayos clínicos) así que me ha molado leer esto. De paso me ha servido para repasar alguna cosilla, que lo de la estadística lo tengo muy olvidado.

¡Muchas gracias por esta pedazo aportación!
la informacion es muy interesante.

yo el pero que le veo a los estudios, sobre todo los que se orientan a comportamientos, fisiologia o interacciones humanas o con humanos, es que el objetivo final del estudio suele ser explicar/demostrar algo e inferirlo a todos los humanos que cumplan los condicionantes. y ese endosamiento muchas veces no encaja del todo.

en mi opinion no hay que olvidar que los grupos se forman pseudo-aleatoriamente, cumpliendo con mas o menos exigencia las condiciones del estudio. con la formacion de un grupo diferente los resultados pueden variar. tal vez no de una manera estadisticamente concluyente pero si de manera concluyente para un sujeto individual.

por eso soy muy reacio a toda la "grupificacion" y endosamiento de condicionantes derivado en estudios que nos suelen encajar a los humanos particulares para des/aconsejarnos algo, tratarnos una enfermedad, etc.

eso por no mencionar la cuestion de que quien paga los estudios paga por los resultados. estoy convencido de que hay estudios que no llegan a terminarse o no se publican porque a quien paga no le convienen los resultados.

si he dicho alguna burrada me corriges @dark_hunter
El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.
josem138 escribió:PD: en que uni das clase?

UV aunque lo de dar clase es un poco relativo. Doy clase dos días al año, uno de metodología y búsqueda bibliográfica y otro de fotografía dental (aunque lo de fotografía dental ya lo he ampliado a varias universidades).

[PeneDeGoma] escribió:mi formacion cientifica es inexistente, y me ha parecido interesante, enhorabuena

Hombre pues gracias, eso es lo que me daba miedo porque a veces estás tan metido en un campo que no sabes si aún simplificando estás llegando a la gente o no.

davidnintendo escribió:¡Muchas gracias por este trabajazo que te has pegado! Yo había estudiado inferencia estadística desde el punto de vista más abstracto, pero no tenía ni idea de cuál era la metodología en la práctica (y concretamente en el caso de ensayos clínicos) así que me ha molado leer esto. De paso me ha servido para repasar alguna cosilla, que lo de la estadística lo tengo muy olvidado.

¡Muchas gracias por esta pedazo aportación!

Yo he hecho justamente el camino contrario, al principio simplemente sabía de metodología y aplicación práctica de la estadística y luego ya fui introduciéndome en el tema teórico.

GXY escribió:la informacion es muy interesante.

yo el pero que le veo a los estudios, sobre todo los que se orientan a comportamientos, fisiologia o interacciones humanas o con humanos, es que el objetivo final del estudio suele ser explicar/demostrar algo e inferirlo a todos los humanos que cumplan los condicionantes. y ese endosamiento muchas veces no encaja del todo.

en mi opinion no hay que olvidar que los grupos se forman pseudo-aleatoriamente, cumpliendo con mas o menos exigencia las condiciones del estudio. con la formacion de un grupo diferente los resultados pueden variar. tal vez no de una manera estadisticamente concluyente pero si de manera concluyente para un sujeto individual.

por eso soy muy reacio a toda la "grupificacion" y endosamiento de condicionantes derivado en estudios que nos suelen encajar a los humanos particulares para des/aconsejarnos algo, tratarnos una enfermedad, etc.

eso por no mencionar la cuestion de que quien paga los estudios paga por los resultados. estoy convencido de que hay estudios que no llegan a terminarse o no se publican porque a quien paga no le convienen los resultados.

si he dicho alguna burrada me corriges @dark_hunter

Bueno, hay que tener en cuenta que los estudios se crean para tratar poblaciones, no personas. La medicina basada en la evidencia se tiene que basar en la experiencia para saber cuándo aplicar lo que dice un estudio y cuando lo de otro, no ser cerril e insistir en algo que no está funcionando.

En mi campo por ejemplo para tratar recesiones (que se suba la encía) se ha visto que hay dos tipos de técnicas muy efectivas. Pues bien, a mí una se me da muy bien y la otra bastante regular. No tiene sentido que me empeñe en realizar la otra si la que se me da bien es la primera, por mucho que los estudios digan que no hay diferencias en los resultados entre una técnica y otra. La experiencia y la habilidad del operador son tan importantes como los estudios.

Lo que sí que no tiene sentido es empeñarse en realizar técnicas que se ha visto que no funcionan.

Sobre los grupos, son absolutamente necesarios, hay muchas técnicas que dependen de la buena selección del paciente, pues se ha visto que pacientes con ciertas características responden mucho mejor que otros ante la misma técnica.

Sobre los estudios pagados, pues es cierto, pero hay formas de detectarlo. Eso que tu dices se llama sesgo de publicación y es la tendencia a sólo publicar resultados significativos y favorables al grupo test (al final las revistas científicas no dejan de ser revistas, y siempre es más interesante un resultado significativo). Pues bien, para controlar este sesgo existen unos diagramas llamados funnel plot o diagrama de embudo, algo así:
Imagen
Si pasa como en este, que los estudios se amontonan en una de las dos mitades del embudo, quiere decir que existe sesgo de publicación, pues por puro azar deberían seguir la forma del embudo. También hay test para comprobar si existe sesgo de publicación. Es otra más de las razones por las que el metanálisis es importante, permite corregir en parte los intereses personales de cada grupo.

Manint escribió:El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.

Bueno, aunque importante no hace falta que sea cuantitativo. La mayor parte de los estudios de hecho suelen utilizar tablas de contigencia y estadísticos como el X2, que son cualitativos.

La estadística lo bueno que tiene es que si se hacen bien las cosas no miente (realmente no miente nunca, otra cosa es que tenga significado real lo que dice), aunque como ya habéis visto, no es tan sencillo hacer las cosas bien.

Si algo reamente funciona, tiene que ser medible, pues está teniendo un efecto.
Manint escribió:El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.


¿Desde cuándo eso es un problema?
Moki_X escribió:
Manint escribió:El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.


¿Desde cuándo eso es un problema?


Entiéndelo como un obstáculo para entender la ciencia. Te estás quitando un 65% de la ciencia de un plumazo. Desconozco el porcentaje exacto, pero no me extrañaría que fuera similar.
Manint escribió:
Moki_X escribió:
Manint escribió:El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.


¿Desde cuándo eso es un problema?


Entiéndelo como un obstáculo para entender la ciencia. Te estás quitando un 65% de la ciencia de un plumazo. Desconozco el porcentaje exacto, pero no me extrañaría que fuera similar.


No se trata de un sesgo o un obstáculo. El hilo simplemente describe una parte importante del método científico. Llamándolo sesgo parece como que le estás restando importancia.

Si lo que describe @dark_hunter el 35%, según tú, ¿en qué consiste ese 65% restante?
Manint escribió:
Moki_X escribió:
Manint escribió:El problema del hilo es el sesgo hacia la metodología cuantitativa y su visión de la ciencia, comprensible dado el autor y su campo.


¿Desde cuándo eso es un problema?


Entiéndelo como un obstáculo para entender la ciencia. Te estás quitando un 65% de la ciencia de un plumazo. Desconozco el porcentaje exacto, pero no me extrañaría que fuera similar.

Si eres más específico igual resulta que no opinamos tan distinto.

Por ejemplo, ya hemos visto que en física no hay ensayos clínicos, pero la metodología es muy parecida.
Moki_X escribió:No se trata de un sesgo o un obstáculo. El hilo simplemente describe una parte importante del método científico. Llamándolo sesgo parece como que le estás restando importancia.

Si esto es el 65%, según tú, ¿en qué consiste ese 65% restante?


Ojo, que te estás yendo por donde yo no voy. No he entrado a desprestigiar lo que ha puesto el compañero, vamos, faltaría más. Me considero otro apasionado lector de sus posts.

Solo comento que reducir la ciencia a una cuestión de hipótesis es arcaico y desactualizado. Pero que es comprensible por la visión de su campo.

No voy a generar un debate que no buscaba, solo me voy a limitar a recomendar teclear "Google académico" o "Dialnet" (sobre todo) y animar a los interesados a aprovechar los recursos de libre acceso que pueden encontrar. Pudiendo probar por "qué es ciencia" y bichear en las ciencias sociales.

--------------

@dark_hunter Lo mismo es una cuestión de lenguaje y empleas lenguaje cuantitativo para todos los "métodos científicos". Por ejemplo: hipótesis/problema de investigación.
Manint escribió:
Moki_X escribió:No se trata de un sesgo o un obstáculo. El hilo simplemente describe una parte importante del método científico. Llamándolo sesgo parece como que le estás restando importancia.

Si esto es el 65%, según tú, ¿en qué consiste ese 65% restante?


Ojo, que te estás yendo por donde yo no voy. No he entrado a desprestigiar lo que ha puesto el compañero, vamos, faltaría más. Me considero otro apasionado lector de sus posts.

Solo comento que reducir la ciencia a una cuestión de hipótesis es arcaico y desactualizado. Pero que es comprensible por la visión de su campo.

No voy a generar un debate que no buscaba, solo me voy a limitar a recomendar teclear "Google académico" o "Dialnet" (sobre todo) y animar a los interesados a aprovechar los recursos de libre acceso que pueden encontrar. Pudiendo probar por "qué es ciencia" y bichear en las ciencias sociales.

Bueno, no eres el primero al que se lo leo como ya indico en la sección de método científico (o métodos). El problema es que nunca obtengo respuesta cuando pregunto en qué se diferencia del método clásico, por eso me gustaría tener una guía para ponerme al día.

Artículos de ese estilo he leído unos cuantos (en Naukas por ejemplo raro es el mes que no ponen uno) pero en cuanto cuestionas un poco vienen las evasivas. No digo que lleve yo razón, si tanta gente bien formada insiste por algo será, pero gente que de normal es capaz de explicar cosas hiper complejas a gente sin formación en el tema después es incapaz de explicar algo tan sencillo, lo cual me hace sospechar.
Realmente el debate de paradigmas es denso y difícil de entender para profanos (y no tan profanos) de la materia. Yo mismo me he visto en esta situación hace algunos años, porque crecemos en una visión de la ciencia muy particular, y tampoco me considero en posición de dar lecciones magistrales del tema cuando aún sigo aprendiendo. Mi intención va más hacia introducir un "eh, que esto no es todo".


El método clásico se limita a una perspectiva positivista: cojo la hipótesis A, aplico X y según los números A se cumple o no. Mientras que han surgido varias corrientes con un enfoque "interpretativo de la experiencia", refiriéndome a una observación sistemática seguida de una interpretación rigurosa, por ejemplo. No ahora, sino hace bastantes años, yéndonos casi a un clásico Platón vs Aristóteles. No estoy hablando de una nueva visión que se come a la anterior sino que busca convivir y ampliar la visión tradicional de ciencia. La investigación desde esta visión busca ser una solución a problemas de índole social, por ejemplo.

Me tomo la libertad de añadir una cita de un texto que me ha llamado la atención en una búsqueda de Google Académico:

Habermas considera que:
a) No hay conocimiento sin interés, es decir, que todo conocimiento esta regido por unos intereses que le dan sentido y que se constituyen en sus impulsores profundos.
b) Las Ciencias de la Naturaleza están impulsadas por el saber técnico o instrumental.
c) Las Ciencias Humanas están orientadas por el interés comunicativo.
d) Estos conocimientos son parciales.
e) El conocimiento o la razón tienen que ser crítica dialéctica de los aspectos negativos que aparecen en nuestros conocimientos y en nuestros comportamientos establecidos.
f) La función esencial de la razón es la búsqueda constante en la sociedad y en la naturaleza de aquellos elementos negativos que deben ser superados para un mayor acercamiento a la realización del interés emancipador.


http://repositorio.minedu.gob.pe/bitstr ... sAllowed=y
Yo es que sigo sin entender qué es lo que quieres decir.

La cita que has extraído de un libraco de casi 300 páginas se refiere a que las motivaciones de las ciencias de la naturaleza son diferentes a las motivaciones de las ciencias humanas, y creo que nadie discute eso.

Manint escribió:Mi intención va más hacia introducir un "eh, que esto no es todo".


Bien, pero de nuevo... ¿En qué consiste ese ~65% que, según tus propias palabras, complementa a la ciencia tradicional?
Moki_X escribió:Yo es que sigo sin entender qué es lo que quieres decir.

La cita que has extraído de un libraco de casi 300 páginas se refiere a que las motivaciones de las ciencias de la naturaleza son diferentes a las motivaciones de las ciencias humanas, y creo que nadie discute eso.

Manint escribió:Mi intención va más hacia introducir un "eh, que esto no es todo".


Bien, pero de nuevo... ¿En qué consiste ese ~65% que, según tus propias palabras, complementa a la ciencia tradicional?


No quería reducir la cuestión a un tema de metodologías, pero qué te parece la ciencia que surge con la observación, la entrevista y entrevista en profundidad, los grupos de discusión, los estudios descriptivos, etc. y no con un contraste de hipótesis. La ciencia centrada en los fenómenos y su comprensión, exploratoria, inductiva, descriptiva, no generalizable (o menos generalizable), en una realidad dinámica, etc. Vamos, las Ciencias Sociales, que sí, que también son ciencia.
Manint escribió:
Moki_X escribió:Yo es que sigo sin entender qué es lo que quieres decir.

La cita que has extraído de un libraco de casi 300 páginas se refiere a que las motivaciones de las ciencias de la naturaleza son diferentes a las motivaciones de las ciencias humanas, y creo que nadie discute eso.

Manint escribió:Mi intención va más hacia introducir un "eh, que esto no es todo".


Bien, pero de nuevo... ¿En qué consiste ese ~65% que, según tus propias palabras, complementa a la ciencia tradicional?


No quería reducir la cuestión a un tema de metodologías, pero qué te parece la ciencia que surge con la observación, la entrevista y entrevista en profundidad, los grupos de discusión, los estudios descriptivos, etc. y no con un contraste de hipótesis. La ciencia centrada en los fenómenos y su comprensión, exploratoria, inductiva, descriptiva, no generalizable (o menos generalizable), en una realidad dinámica, etc. Vamos, las Ciencias Sociales, que sí, que también son ciencia.

Pues me parecen opiniones, que no tiene por qué ser malo, pero no es ciencia.

Las ciencias sociales carecen de uno de los pilares fundamentales de la ciencia en muchos aspectos (la reproducibilidad), por mucho que se hagan llamar ciencias. Se puede hayar conocimiento con estas prácticas, pero no sera científico, pues en las mismas condiciones no tiene por qué repetirse ni es predecible en muchas otras. Por eso muchas veces se dedican más a explicar el pasado ya ocurrido que a otra cosa (lo cual insisto, no es malo).

No se, lo de que el método científico es una actitud me parece más verborrea postmodernista que un enfoque serio del tema. Porque entonces muchas pseudociencias también entrarían en el tema. Me parece conformista, por ejemplo ahí tienes la psicología, madre del 90% de lo que he dicho y al mismo tiempo apartada de ello durante mucho tiempo. En los últimos años está volviendo a utilizar este método y está haciendo avances importantes (no todas las ramas, en general el ¿conductismo?). Si se hubiese acomodado en "hay otras visiones" pues seguiría estancada como hace décadas y esta actitud me la han criticado hasta psicólogas (pero claro, ellas eran partidarias de esta corriente), que se cabreaban por la poca seriedad de algunas ramas.

PD: recalco que no digo que en todo aspecto las ciencias sociales no sean ciencia, en muchos aspectos lo son, el lenguaje por ejemplo utiliza mucho el método científico, la historia también, entre otras muchas. E incluso en las partes que no son científicas, tampoco digo que no tenga valor.
Manint escribió:
Moki_X escribió:Yo es que sigo sin entender qué es lo que quieres decir.

La cita que has extraído de un libraco de casi 300 páginas se refiere a que las motivaciones de las ciencias de la naturaleza son diferentes a las motivaciones de las ciencias humanas, y creo que nadie discute eso.

Manint escribió:Mi intención va más hacia introducir un "eh, que esto no es todo".


Bien, pero de nuevo... ¿En qué consiste ese ~65% que, según tus propias palabras, complementa a la ciencia tradicional?


No quería reducir la cuestión a un tema de metodologías, pero qué te parece la ciencia que surge con la observación, la entrevista y entrevista en profundidad, los grupos de discusión, los estudios descriptivos, etc. y no con un contraste de hipótesis. La ciencia centrada en los fenómenos y su comprensión, exploratoria, inductiva, descriptiva, no generalizable (o menos generalizable), en una realidad dinámica, etc. Vamos, las Ciencias Sociales, que sí, que también son ciencia.


Tienes un ejemplo estupendo en este mismo hilo, donde alguien puso antes un Mapa Mental. Se habla muchísimo de estos esquemas y, en el campo de las ciencias de la educación, se han puesto de moda por algún motivo. Pero... ¿Incrementan el aprendizaje? ¿Se consigue mejora significativa con respecto a, por ejemplo, subrayar apuntes? La única forma posible de hallar una respuesta a esa pregunta es emplear el método científico y contrastar las dos hipótesis a través de un estudio bien diseñado. Y ahí lo tienes: el método científico empleado en una ciencia social.

Todo lo demás, del tipo "yo creo que los niños se sienten más motivados" o "mi experiencia es que los mapas mentales favorecen el aprendizaje", son opiniones, pero no ciencia.

Todo lo demás serán opiniones.
dark_hunter escribió:Gracias por el apoyo, veo que al final sí había interés. Cualquier duda o cosa que no quede clara preguntad. He hecho algunas modificaciones.
Gurlukovich escribió:
El grupo control nos permite evitar situaciones como “el agua es mala porque el 100% de las personas que la beben se mueren”, al tener algo con lo que comparar.

Dudo que puedas encontrar un grupo control que no tome nada de agua para comprobar eso. [hallow]

Bueno, con ensayos clínicos no, pero esta mañana he añadido el disclaimer de que no es ético exigir ensayos clínicos para todo si otros diseños nos permiten acumular información suficiente (sección de comités de ética). Con un diseño caso-control o incluso uno de cohorte claro que vas a conseguir controles.
El ejemplo paradigmático es el tabaco, los estudios caso-control eran tan abrumadores que no hizo falta esperar a los de cohorte para establecer recomendaciones.

Pero bueno, todo esto viene dado en los grados de recomendación GRADE: un estudio observacional, si cumple ciertas condiciones como un tamaño del efecto grande, control de los factores de confusión mediante regresión y un tamaño de la muestra amplio puede llegar a valer como un ensayo clínico. Igual que un ensayo clínico mal hecho puede valer menos que un caso-control. Pero me parecía que era liar demasiado las cosas para empezar.

PD: ¿Cómo de potente te parece el estudio de este señor? http://www.dciencia.es/edward-jenner-vacuna-historia/ [sati]

Ahora le hecho un ojo y edito para que te llegue notificación.
Pues es un a propósito de un caso, el escalón más bajo de la evidencia porque está sujeto a fuertes sesgos, como por ejemplo ¿se inmunizó o simplemente no desarrolló la enfermedad? Imposible de saber con este estudio, pero luego vinieron más.

Como dije antes, este tipo de estudio es el que se suele utilizar cuando se está en un territorio por explorar, no se puede empezar con un ensayo clínico ni por coste, ni por recursos humanos, ni por cuestiones de ética.

Si, es un churro científicamente hablando, pero mira, el tipo tiro para adelante y acabó salvando millones de vidas, acabó siendo evidente que el método estaba funcionando.

Iba a preguntarte para dejarte tranquilo qué opinabas de aplicar el método científico a las ciencias sociales, economía, historia y esos temas, pero creo que ya ha quedado claro, no es científico en absoluto, es un completo abuso de el método, no vale para ello.

Tampoco sirve la ciencia para decirte si debes hacer algo, si es bueno o malo, sólo si algo es posible llevarlo a cabo o no, pero hacerlo depende de tus fines. Dejó un vídeo sobre el tema.
https://newmedia.ufm.edu/video/filosofi ... parte-iii/
@Moki_X Dudo que con ese método consigas aislar todas y cada una de las variables extrañas hasta conseguir unos resultados extrapolables a poblaciones amplias, sin llegar a un punto que desnaturalices tanto el contexto que los resultados sean utópicos o irreales. Por no hablar de las implicaciones éticas de según que metodologías al trabajar con alumnado.

Pd.: que no digo que no se pueda usar, sino que todo tiene sus pegas.
Manint escribió:@Moki_X Dudo que con ese método consigas aislar todas y cada una de las variables extrañas hasta conseguir unos resultados extrapolables a poblaciones amplias, sin llegar a un punto que desnaturalices tanto el contexto que los resultados sean utópicos o irreales. Por no hablar de las implicaciones éticas de según que metodologías al trabajar con alumnado.

Pd.: que no digo que no se pueda usar, sino que todo tiene sus pegas.

Si se aleatoriza la exposición, las variables se controlan solas, incluso aquellas que desconoces.

Gurlukovich escribió:
dark_hunter escribió:Gracias por el apoyo, veo que al final sí había interés. Cualquier duda o cosa que no quede clara preguntad. He hecho algunas modificaciones.
Gurlukovich escribió:Dudo que puedas encontrar un grupo control que no tome nada de agua para comprobar eso. [hallow]

Bueno, con ensayos clínicos no, pero esta mañana he añadido el disclaimer de que no es ético exigir ensayos clínicos para todo si otros diseños nos permiten acumular información suficiente (sección de comités de ética). Con un diseño caso-control o incluso uno de cohorte claro que vas a conseguir controles.
El ejemplo paradigmático es el tabaco, los estudios caso-control eran tan abrumadores que no hizo falta esperar a los de cohorte para establecer recomendaciones.

Pero bueno, todo esto viene dado en los grados de recomendación GRADE: un estudio observacional, si cumple ciertas condiciones como un tamaño del efecto grande, control de los factores de confusión mediante regresión y un tamaño de la muestra amplio puede llegar a valer como un ensayo clínico. Igual que un ensayo clínico mal hecho puede valer menos que un caso-control. Pero me parecía que era liar demasiado las cosas para empezar.

PD: ¿Cómo de potente te parece el estudio de este señor? http://www.dciencia.es/edward-jenner-vacuna-historia/ [sati]

Ahora le hecho un ojo y edito para que te llegue notificación.
Pues es un a propósito de un caso, el escalón más bajo de la evidencia porque está sujeto a fuertes sesgos, como por ejemplo ¿se inmunizó o simplemente no desarrolló la enfermedad? Imposible de saber con este estudio, pero luego vinieron más.

Como dije antes, este tipo de estudio es el que se suele utilizar cuando se está en un territorio por explorar, no se puede empezar con un ensayo clínico ni por coste, ni por recursos humanos, ni por cuestiones de ética.

Si, es un churro científicamente hablando, pero mira, el tipo tiro para adelante y acabó salvando millones de vidas, acabó siendo evidente que el método estaba funcionando.

Iba a preguntarte para dejarte tranquilo qué opinabas de aplicar el método científico a las ciencias sociales, economía, historia y esos temas, pero creo que ya ha quedado claro, no es científico en absoluto, es un completo abuso de el método, no vale para ello.

Tampoco sirve la ciencia para decirte si debes hacer algo, si es bueno o malo, sólo si algo es posible llevarlo a cabo o no, pero hacerlo depende de tus fines. Dejó un vídeo sobre el tema.
https://newmedia.ufm.edu/video/filosofi ... parte-iii/

Es que luego vinieron más estudios también. La verdad, no se a donde quieres llegar.

Sobre lo último, por supuesto. Aunque en medicina sí es así, por ley XD

Sobre las ciencias sociales, no he dicho que no apliquen el método científico, pero en ocasiones sí es cierto que no lo hacen.
Siempre que hay un debate entre ciencias de la naturaleza y ciencias sociales, con el posmodernismo mediante, recuerdo el escándalo Sokal y se me pasa.
dark_hunter escribió:.
Gurlukovich escribió:
dark_hunter escribió:Gracias por el apoyo, veo que al final sí había interés. Cualquier duda o cosa que no quede clara preguntad. He hecho algunas modificaciones.

Bueno, con ensayos clínicos no, pero esta mañana he añadido el disclaimer de que no es ético exigir ensayos clínicos para todo si otros diseños nos permiten acumular información suficiente (sección de comités de ética). Con un diseño caso-control o incluso uno de cohorte claro que vas a conseguir controles.
El ejemplo paradigmático es el tabaco, los estudios caso-control eran tan abrumadores que no hizo falta esperar a los de cohorte para establecer recomendaciones.

Pero bueno, todo esto viene dado en los grados de recomendación GRADE: un estudio observacional, si cumple ciertas condiciones como un tamaño del efecto grande, control de los factores de confusión mediante regresión y un tamaño de la muestra amplio puede llegar a valer como un ensayo clínico. Igual que un ensayo clínico mal hecho puede valer menos que un caso-control. Pero me parecía que era liar demasiado las cosas para empezar.


Ahora le hecho un ojo y edito para que te llegue notificación.
Pues es un a propósito de un caso, el escalón más bajo de la evidencia porque está sujeto a fuertes sesgos, como por ejemplo ¿se inmunizó o simplemente no desarrolló la enfermedad? Imposible de saber con este estudio, pero luego vinieron más.

Como dije antes, este tipo de estudio es el que se suele utilizar cuando se está en un territorio por explorar, no se puede empezar con un ensayo clínico ni por coste, ni por recursos humanos, ni por cuestiones de ética.

Si, es un churro científicamente hablando, pero mira, el tipo tiro para adelante y acabó salvando millones de vidas, acabó siendo evidente que el método estaba funcionando.

Iba a preguntarte para dejarte tranquilo qué opinabas de aplicar el método científico a las ciencias sociales, economía, historia y esos temas, pero creo que ya ha quedado claro, no es científico en absoluto, es un completo abuso de el método, no vale para ello.

Tampoco sirve la ciencia para decirte si debes hacer algo, si es bueno o malo, sólo si algo es posible llevarlo a cabo o no, pero hacerlo depende de tus fines. Dejó un vídeo sobre el tema.
https://newmedia.ufm.edu/video/filosofi ... parte-iii/

Es que luego vinieron más estudios también. La verdad, no se a donde quieres llegar.

Que hubieran llevado esos estudios como poco 10 años a día de hoy, probablemente más, además de miles de millones,si es que se hubiera podido llevar adelante, para entonces ya había llegado la vacuna a Filipinas y China.. La medicina basada en evidencia es estupenda, lo mejor que tenemos, pero es un exceso de celo esperar a los resultados por precaución en cualquier caso, más bien el de prevención, y el principio de precaución debería aplicarse a la legislación sobre el principio de precaución [sati]

Sobre las ciencias sociales, no he dicho que no apliquen el método científico, pero en ocasiones sí es cierto que no lo hacen.

No es que lo apliquen o no lo apliquen, es que es inaplicable en prácticamente todos los contextos.
Yo me quedo con la visión de Tim Minchin sobre el tema: https://youtu.be/HhGuXCuDb1U
Ashdown está baneado por "faltas de respeto"
Luego está también el tema psicólogos. Afirman usar el método científico pero todavía está por nacer el estudio psicológico que no cometa cherry picking. Hay debate ahora de si la psicología debería ser considerada ciencia o no. En mi opinión están lejos de conseguirlo mientras no se deshagan de esa bonita costumbre para charlatanes.
Gurlukovich escribió:
dark_hunter escribió:.
Gurlukovich escribió:Si, es un churro científicamente hablando, pero mira, el tipo tiro para adelante y acabó salvando millones de vidas, acabó siendo evidente que el método estaba funcionando.

Iba a preguntarte para dejarte tranquilo qué opinabas de aplicar el método científico a las ciencias sociales, economía, historia y esos temas, pero creo que ya ha quedado claro, no es científico en absoluto, es un completo abuso de el método, no vale para ello.

Tampoco sirve la ciencia para decirte si debes hacer algo, si es bueno o malo, sólo si algo es posible llevarlo a cabo o no, pero hacerlo depende de tus fines. Dejó un vídeo sobre el tema.
https://newmedia.ufm.edu/video/filosofi ... parte-iii/

Es que luego vinieron más estudios también. La verdad, no se a donde quieres llegar.

Que hubieran llevado esos estudios como poco 10 años a día de hoy, probablemente más, además de miles de millones,si es que se hubiera podido llevar adelante, para entonces ya había llegado la vacuna a Filipinas y China.. La medicina basada en evidencia es estupenda, lo mejor que tenemos, pero es un exceso de celo esperar a los resultados por precaución en cualquier caso, más bien el de prevención, y el principio de precaución debería aplicarse a la legislación sobre el principio de precaución [sati]

Sobre las ciencias sociales, no he dicho que no apliquen el método científico, pero en ocasiones sí es cierto que no lo hacen.

No es que lo apliquen o no lo apliquen, es que es inaplicable en prácticamente todos los contextos.

Como supongo sabrás, los ensayos clínicos se detienen mucho antes de lo calculado previamente si el efecto es grande, por temas éticos.

Como dije, el tamaño necesario de la muestra depende en gran medida del tamaño del efecto. Si este resulta ser muy grande, al pasar de cierto valor umbral se detiene el estudio y se administra el tratamiento a todo el mundo.

Si tarda 10 años es porque el efecto no es espectacular y la toxicidad es alta y necesita refinamiento. En cuyo caso no hay urgencia alguna en que salga.

Por otro lado, si no lo estudias, no puedes saber si funciona XD podrías hasta empeorar la situación. Tampoco es que esté en contra pero se debería indicar que se desconoce si funciona. Pero claro, no venderían tanto...

Lo de que sea inaplicable, es tu opinión, los estudios descriptivos también son ciencia.

Ashdown escribió:Luego está también el tema psicólogos. Afirman usar el método científico pero todavía está por nacer el estudio psicológico que no cometa cherry picking. Hay debate ahora de si la psicología debería ser considerada ciencia o no. En mi opinión están lejos de conseguirlo mientras no se deshagan de esa bonita costumbre para charlatanes.

Hay ramas de la psicología que sí han vuelto a usarlo y están teniendo éxito. Pero las décadas de mala metodología hace que avancen despacio todavía.
dark_hunter escribió:
Gurlukovich escribió:
dark_hunter escribió:.

Es que luego vinieron más estudios también. La verdad, no se a donde quieres llegar.

Que hubieran llevado esos estudios como poco 10 años a día de hoy, probablemente más, además de miles de millones,si es que se hubiera podido llevar adelante, para entonces ya había llegado la vacuna a Filipinas y China.. La medicina basada en evidencia es estupenda, lo mejor que tenemos, pero es un exceso de celo esperar a los resultados por precaución en cualquier caso, más bien el de prevención, y el principio de precaución debería aplicarse a la legislación sobre el principio de precaución [sati]

Sobre las ciencias sociales, no he dicho que no apliquen el método científico, pero en ocasiones sí es cierto que no lo hacen.

No es que lo apliquen o no lo apliquen, es que es inaplicable en prácticamente todos los contextos.

Como supongo sabrás, los ensayos clínicos se detienen mucho antes de lo calculado previamente si el efecto es grande, por temas éticos.

Como dije, el tamaño necesario de la muestra depende en gran medida del tamaño del efecto. Si este resulta ser muy grande, al pasar de cierto valor umbral se detiene el estudio y se administra el tratamiento a todo el mundo.

Si tarda 10 años es porque el efecto no es espectacular y la toxicidad es alta y necesita refinamiento. En cuyo caso no hay urgencia alguna en que salga.

Por otro lado, si no lo estudias, no puedes saber si funciona XD podrías hasta empeorar la situación. Tampoco es que esté en contra pero se debería indicar que se desconoce si funciona. Pero claro, no venderían tanto...

Lo de que sea inaplicable, es tu opinión, los estudios descriptivos también son ciencia.

Pues no lo sabía. ¿Pero cómo sabes que tiene un gran efecto sin romper el doble ciego? :p

Sobre lo segundo, puedes describir los sucesos históricos, pero no derivar unas leyes históricas de ellos.
Gurlukovich escribió:
dark_hunter escribió:
Gurlukovich escribió:Que hubieran llevado esos estudios como poco 10 años a día de hoy, probablemente más, además de miles de millones,si es que se hubiera podido llevar adelante, para entonces ya había llegado la vacuna a Filipinas y China.. La medicina basada en evidencia es estupenda, lo mejor que tenemos, pero es un exceso de celo esperar a los resultados por precaución en cualquier caso, más bien el de prevención, y el principio de precaución debería aplicarse a la legislación sobre el principio de precaución [sati]


No es que lo apliquen o no lo apliquen, es que es inaplicable en prácticamente todos los contextos.

Como supongo sabrás, los ensayos clínicos se detienen mucho antes de lo calculado previamente si el efecto es grande, por temas éticos.

Como dije, el tamaño necesario de la muestra depende en gran medida del tamaño del efecto. Si este resulta ser muy grande, al pasar de cierto valor umbral se detiene el estudio y se administra el tratamiento a todo el mundo.

Si tarda 10 años es porque el efecto no es espectacular y la toxicidad es alta y necesita refinamiento. En cuyo caso no hay urgencia alguna en que salga.

Por otro lado, si no lo estudias, no puedes saber si funciona XD podrías hasta empeorar la situación. Tampoco es que esté en contra pero se debería indicar que se desconoce si funciona. Pero claro, no venderían tanto...

Lo de que sea inaplicable, es tu opinión, los estudios descriptivos también son ciencia.

Pues no lo sabía. ¿Pero cómo sabes que tiene un gran efecto sin romper el doble ciego? :p

Pues calculando cada cierto tiempo, el único que supondría un problema sería el cuádruple ciego. E incluso así podrías hacerlo, desconocer qué grupo es cuál no te impide hacer cálculos y ver si el efecto es tan grande que no necesitas más personas para alcanzar potencia estadística.

Lo que pasa es que hasta el triple ciego, si paras el estudio sabrías que siempre sería por ser muy efectivo el tratamiento sometido a test. En el cuádruple ciego te podrías llevar la sorpresa de que igual te ha tocado detenerlo porque es muy perjudicial.

Esto es lo que se conoce como ensayos clínicos secuenciales, utilizados cuando la mortalidad o los efectos sobre los pacientes son muy altos.

Sobre lo segundo, puedes describir los sucesos históricos, pero no derivar unas leyes históricas de ellos.

Exacto, pero como he dicho los estudios descriptivos también son ciencia. No de tanto nivel (son el escalón más bajo) , por ello no puedes obtener sentencias tan categóricas como en otras áreas. Pero ciencia al fin y al cabo, siempre que hayas probado tus palabras. Si es porque yo lo valgo pues no.
Actualizo con teoría bayesiana para pruebas de diagnóstico tras un debate en otro hilo. Atención, que vienen curvas, este apartado es más complicado de entender que los que he puesto hasta ahora. Pero con quedarse con que un test con un 99% de sensibilidad (capacidad de discernir enfermos de sanos) y un 99% de especificidad (capacidad de discernir sanos de enfermos) no implica que si das positivo la posibilidad de realmente estar enfermo sea cercana al 99%, es suficiente. De hecho, con que la enfermedad tenga una prevalencia del 1% en la población (lo cual es bastante alto), la probabilidad de estar enfermo realmente baja al 50%.

Aquí el post:
He repasado mis apuntes sobre teoría bayesiana, así que vamos a analizar un test. Supongamos que tenemos un test con una sensibilidad del 99% y una especificidad del 99%. Normalmente no son tan buenos, pero pongámonos en un caso extremo. ¿Cuál es la probabilidad de que si sale positivo el test realmente estemos enfermos? 99% o algo cercano ¿no? Vamos a calcularlo.

Según descubrió Bayes hace ya casi dos siglos, esta probabilidad viene determinada por P(H|E) = P(H) * P(E|H) / P(E), donde P significa probabilidad, H la hipótesis (en este caso estar enfermo), y la E sería la evidencia, es decir, nuestra prueba. P(H|E) sería la probabilidad de estar enfermo cuando la evidencia da positivo, P(H) la probabilidad de que nuestra hipótesis sea cierta independientemente de que realicemos o no la prueba (en otras palabras, la prevalencia de la enfermedad en la población), P(E|H) la probabilidad de que la prueba de positivo cuando realmente estemos enfermos y P(E) la probabilidad de que el test de positivo independientemente de que tengas o no cáncer.

Pues bien, calculemos. Lo que queremos obtener es P(H|E), que es la probabilidad de realmente estar enfermos cuando de positivo. Pues bien, lo primero sería sustituir P(H), que sería la prevalencia de la enfermedad. Pongamos 1%, o lo que es lo mismo, 0.01 (estoy siendo muy generoso, pues esa es la prevalencia del cáncer más frecuente, la media es mucho más baja). P(E|H) sería 0.99, pues es la eficacia del test. Por lo tanto en el numerador tenemos 0.01*0.99 = 0.0099. Estos son los verdaderos positivos.

Vamos al denomidador: P(E) es la probabilidad de dar positivo estés enfermo o no, o lo que es lo mismo, el porcentaje de verdaderos positivos (0.0099) + los falsos positivos. Pues bien, los falsos positivos se calculan multiplicando la probabilidad de falsos positivos (0.01, pues el test tiene una eficacia de 0.99) por el porcentaje de gente que no tiene cáncer (0.99, porque la prevalencia es del 1%). ¿Resultado? 0.0099. Vaya, resulta que tenemos el mismo porcentaje de verdaderos positivos que de falsos positivos, pese a que el test tiene una eficacia del 99%. Pero terminemos de calcular el denominador, decíamos que se componía de la suma de verdaderos positivos (0.0099) + falsos positivos (0.0099) = 0.198.

Por lo tanto, verdaderos positivos (0.0099) / probabilidad de dar positivo (0.198) = 0.5. Vaya, al final resulta que la probabilidad de estar realmente enfermo tras dar positivo en el test con 99% de eficacia es del 50%. Pero bueno, esto tiene solución fácil, aplicar un segundo test con otro 99% de eficacia, en cuyo caso ya sí que tendríamos una probabilidad del 99% de estar enfermos tras dar positivo en los dos.

Pero queda un problema, los test no son tan buenos ni de lejos, y la cosa es peor en las enfermedades más raras. Por ejemplo, los test para el cáncer de próstata tienen una eficacia del 60% como mucho. Una eficacia tan baja hace que incluso tras dar positivo en 4 test diferentes, la probabilidad de estar enfermo seguiría estando por debajo del 50%. Incluso las biopsias fallan, como muestra esta imagen:

Imagen

El screening ha aumentado exponencialmente los diagnósticos por cáncer de mama, sin embargo la mortalidad se mantiene constante.

Por eso las pruebas son necesarias, pero sólo en los grupos de riesgo, porque de lo contrario estás sobretratando a montones de personas, ya que la probabilidad de dar positivo puede ser muy superior a la de estar enfermo, si analizas a gente de forma indiscriminada.
42 respuestas