No me olvido de mi compromiso de daros la turra con cada paper que sacamos.
Este lo publicaron el martes pasado, y trata sobre la tendencia a sacar conclusiones precipitadas.
Abro hilo y #TuiteoMiPaper
En el marco de la psicopatología, llevan tiempo proponiendo que algunas distorsiones cognitivas pueden servir de puente para entender cómo funcionan trastornos como la psicosis.
Por ejemplo, un sesgo cognitivo que podría explicar cómo se mantienen algunos estados delirantes es el sesgo de “saltar a la conclusión” (“jumping to conclusions”), o JtC para los amigos).
La gente que tiene este sesgo tiende a sacar conclusiones precipitadas tras ver muy poca información. Por ejemplo, les basta presenciar un par de episodios acerca de un fenómeno para tomar decisiones sobre su naturaleza, y no suelen esperar a tener más información.
Las personas sanas, pero con formas subclínicas de psicosis, tienden a mostrar el sesgo de JtC con mucha frecuencia. Le pasa lo mismo a las personas que creen en fenómenos paranormales (tienden a formarse creencias en base a información escasa).
Y en general, lo podemos encontrar (en menor grado) en muchas personas de nuestro entorno, o en nosotros mismos.
¿Nunca te ha pasado que lees un par de noticias y ya te formas una opinión, sin contrastar más? Pues imagina eso mismo, pero exagerado.
Desde nuestro punto de vista, otro sesgo cognitivo que hemos investigado a fondo, la ilusión causal, podría también contribuir de manera similar. Se trata de una tendencia a interpretar las coincidencias en términos de causa-efecto.
O sea, que las personas vemos relaciones de causa-efecto allí donde no hay nada salvo azar y coincidencias.
Es más, pensamos que la ilusión causal podría estar conectada con el sesgo de JtC de una forma más directa. Algunas teorías del aprendizaje (las asociativas) predicen ilusiones causales cuando la información es escasa.
Por lo tanto, si la persona que tiene el sesgo JtC recaba poca información, será más propensa a la ilusión causal y a desarrollar creencias extrañas.
Para comprobarlo, nuestros participantes realizaron dos tareas.
1⃣ En la primera de ellas medimos la ilusión causal, pero modificando el procedimiento habitual.
Habitualmente, los participantes se exponen a una secuencia de fichas o ensayos en los que ven cómo suceden la causa potencial (en este caso, si el paciente toma o no un medicamento) y el resultado (el paciente que están viendo se cura o no se cura).
Tras ver la secuencia completa, los participantes emiten un juicio de efectividad percibida de la medicina. Generalmente, la gente muestra una ilusión causal más o menos marcada: a pesar de que la medicina no funciona, manifiestan con su juicio que sí es efectiva en cierto grado.
❗️❗️Aquí viene un cambio importante.
En el procedimiento tradicional, todo el mundo emite su veredicto sobre la medicina tras ver exactamente la misma cantidad de información.
Sin embargo, nuestra tarea actual está modificada para que pudieran abandonar el entrenamiento en cuanto quisieran, bajo el siguiente razonamiento: Una persona con tendencia a saltar a la conclusión tomaría la decisión tras ver unos pocos ensayos.
2⃣En la segunda tarea, empleamos la “tarea de las canicas”, un procedimiento estándar para medir el sesgo de JtC. Esta caja contiene un 60% de canicas de un color y un 40% de otro color.
La pregunta es: ¿hay en la caja más canicas rojas que azules, o más azules que rojas?
Para comprobarlo sólo puedes ir sacando canicas de una en una, y devolverlas a la caja tras examinarlas.
La idea tras esta tarea es que cuantas más canicas extraes de la caja antes de dar tu veredicto, menos sesgo de “saltar a la conclusión” (JtC) tienes.
¡Las personas con más sesgo JtC se deciden tras ver una o dos canicas! 😯
Resumiendo, la idea de los experimentos era:
1⃣ Probar si las personas con mayor tendencia a saltar a la conclusión (menos canicas extraídas) también tenían mayor ilusión causal.
2⃣ Comprobar el mecanismo propuesto por las teorías del aprendizaje asociativo, es decir, si las personas con más sesgo JtC recaban menos ensayos en la tarea de aprendizaje, y *esto* es lo que produce la ilusión.
Hicimos dos experimentos con procedimiento similar al aquí descrito. Los resultados indican que, efectivamente, cuanto más sesgo de saltar a la conclusión tienes, más propensión a mostrar la ilusión causal.
Por otro lado, en ninguno de los dos estudios encontramos evidencia de que esta relación se pueda explicar como proponen las teorías del aprendizaje asociativo. Es decir, parece que la ilusión causal no depende tanto de la cantidad de información recibida.
Por supuesto, es posible que este resultado nulo se deba a factores que tienen que ver con el procedimiento (que no sea bastante sensible, etc.). Habrá que seguir investigando.
...Pero en cualquier caso hemos documentado la relación entre el sesgo JtC y la ilusión causal.
Y lo hemos hecho con una muestra de personas sanas (internautas anónimos en el Experimento 1, y estudiantes de psicología en el Experimento 2).
O sea, que no hace falta tener un grado apreciable de deterioro cognitivo para que estas distorsionen afecten.
En cuanto a qué mecanismo pensamos que puede “conectar” esos dos sesgos, proponemos procesos de ponderación de la información.
Es decir: como le damos más peso a cierta información, en cuanto la vemos unas pocas veces nos parece suficiente.
De alguna manera este mecanismo (¡hipotético!) reconcilia el resultado con las teorías del aprendizaje que explican la ilusión causal, y prepara el terreno para investigaciones futuras.
En resumen, el paper demuestra que las personas que tienden a sacar conclusiones precipitadas también desarrollan con más frecuencia ilusiones causales, es decir, creen que hay relación entre dos cosas que realmente están desconectadas.
¿Qué os parece? nature.com/articles/s4159…
• • •
Missing some Tweet in this thread? You can try to
force a refresh
I did. The trickiest part is the balance between scepticism/critical stance and trust. We want to build solid walls for our discipline, not to make the whole thing collapse.
Para mi paisanos: hace un par de años empecé a introducir ingredientes de meta-psicología y ciencia abierta en varias asignaturas, allí donde pegaba bien.
Generalmente les despertaba bastante interés, pero...
El tema más complicado es no dar el mensaje equivocado. No se trata de desconfiar de todo lo que se publica. Al fin y al cabo a este nivel no manejan papers. Se trata de saber que lo que hay publicado hoy puede cambiar mañana, y entender que eso es bueno.
Bueno, pues aunque al principio me daba miedo meterme en el fregao, voy a dedicar un hilo a hablar de este tuit que ha sido tan criticado. Aviso: voy a hablar de estadística (frecuentista y Bayesiana ❤️) y de psicología. No me meto para nada en economía.
Parece que una serie de personas han tomado la figura que aparece en ese tuit y han decidido que un ajuste de R^2 = 0.14 es “una birria”, y que quien sostenga lo contrario “no sabe nada de estadística”. Esto sí que me parece un error y es lo que voy a comentar.
Empiezo con aclaraciones, y que se os meta bien en la mollera. 1. Vamos a ver, en ningún momento voy a entrar *en el contenido* de ese análisis: no tengo ni pajolera idea de economía. Solo voy a hablar de lo que sé un poco más: estadística y psicología.
¿Por qué tengo que aplicar los modelos "prefabricados" que vienen con el SPSS tras comprobar supuestos que ni siquiera entiendo?
¿Por qué no construir desde cero un modelo que capture el proceso que genera los datos en mi experimento?
¿Por qué no aprovechar la flexibilidad para incorporar los supuestos que tengan que ver con mi estudio, de forma transparente?
Está claro que con las nuevas herramientas y conocimientos lo tenemos más fácil que nunca para hacer ciencia creíble, reproducible.
Pero no es menos cierto que algunos "hábitos arraigados" que se transmiten entre generaciones son terribles bajo ese punto de vista.
"Con n=30 ya vale para ver el efecto".
"Uuuy, ese efecto está a puntito de salir, métele 5 sujetos más".
"Vaya, parece que no sale. Probemos con este otro análisis, o metiendo X como covariable".
"Mete todas las variables en una matriz y a ver qué sale. Que hablen los datos".
Y puedo seguir:
"Este dato está más de tres desviaciones típicas por encima de la media, lo quitamos".
"El efecto no era el esperado pero podemos contarlo así para que parezca buscado".
¡Hola locos de la estadística!
¿Cómo decidir el tamaño muestral de tu estudio?
¿Cómo saber si un artículo que estás leyendo, en el que examinan 20 participantes, tiene una muestra suficiente?
¡Quédate en este hilo, que te lo cuento! ⬇️⬇️⬇️
Por si acaso, aquí tienes la información en el blog, como parte del curso de estadesteca MAL.
En este hilo me voy a limitar a resumir los puntos clave, así que visita el link para ampliar información. fernandoblancopsy.com/2021/01/04/cur…
Antes de empezar hay que refrescar tres conceptos súper importantes en estadística: tamaño muestral, tamaño del efecto, y potencia estadística.
¿Te suenan? ¿Los tienes controlados?
Está hablándose estos días de si realmente es buena idea que las cuentas de divulgadores comenten burradas como el terraplanismo, los peligros del 5G o las bondades de inyectarse lejía. El argumento es: “si hablas de ello, lo estás difundiendo”. 1/n
...Y yo estaba pensando en si entro en el jardín o no, y como estoy de vacaciones y hace calor he decidido que por qué no meter los pies en un buen charco. Así que aquí va mi opinión. 2/n
Como opinión que es, no pretendo elevarla a la categoría de verdad revelada. La cuento porque me da la gana y entiendo que otros no la compartan. Ni siquiera pretendo tener razón, así que ahorraos los debates. Y aviso de que últimamente tengo el block fácil. 3/n