Crédito:Lucky Raccoon / Shutterstock
La historia tiene mucho que recomendar:el psicólogo Dan Ariely, el autor de un libro superventas sobre la ciencia del comportamiento de la deshonestidad, se retracta de su estudio porque los datos eran falsos. No es de extrañar que haya sido recogido por los medios de comunicación del mundo. Buzzfeed declaró que esto era "el último golpe al bullicioso campo de la economía del comportamiento". Psicólogo Stuart Ritchie, él mismo un científico, escribió sobre el caso bajo el título:"Nunca confíes en un científico".
Me preocupan estas interpretaciones. Y no porque enseñe en un programa de maestría en ciencias del comportamiento. Me preocupa porque titulares como este corren el riesgo de avivar el sentimiento anticientífico en un momento en que la fe en los expertos es baja. cuando la gente reflexiva repite como loros que vivimos en un "mundo posterior a la verdad" y donde la desconfianza en la ciencia está causando muertes.
Pero sobretodo, Me preocupan estas interpretaciones porque saco la conclusión opuesta de esta historia. En este caso, la lección es que el proceso científico realmente funcionó bien.
Arrojando dudas sobre la ciencia
Un detalle importante y pasado por alto es que el proceso científico reveló hace años que los resultados del artículo no se cumplieron. Utilizando datos proporcionados por una compañía de seguros, El estudio de Ariely afirmó que las personas son más honestas en sus informes si firman una declaración de veracidad al principio de un documento que al final. El método fue adoptado por el IRS, la agencia de recaudación de impuestos de EE. UU., y al menos una gran compañía de seguros.
Si bien nadie expresó su preocupación por el fraude deliberado, muchos equipos de investigación habían informado de sus intentos fallidos de replicar los estudios iniciales. La replicación es importante. Debido a que la ciencia tiene sus raíces en la probabilidad, La observación del mismo resultado en dos ocasiones independientes hace que sea mucho menos probable que el resultado sea una casualidad.
En 2020, Ariely y sus coautores publicaron un artículo en el que ellos mismos intentaron y no pudieron replicar los resultados iniciales. En ese momento, aún no se sabía que los datos iniciales habían sido falsificados. Los autores concluyeron que los resultados iniciales fueron una casualidad y titularon el artículo de seguimiento:"Firmar al principio versus al final no disminuye la deshonestidad".
Otra característica sorprendente es que las réplicas fallidas se publicaron en una de las principales revistas científicas generales. Es un hecho reciente que los científicos dedicarían su tiempo a los estudios de replicación, y que las principales revistas dedicarían preciosos centímetros de columna a publicarlos, y sigue una serie de estudios estadísticos que ponen en duda el rigor de la ciencia publicada.
Primero fue el provocativo estudio de simulación de datos que sugirió que más de la mitad de los resultados publicados de la investigación científica son falsos. Este hallazgo se deriva de las siguientes tres características:
Luego estaba el proyecto de replicación de Many Labs. Descubrió que más de la mitad de los resultados publicados en las principales revistas de psicología no se podían replicar.
Exponer resultados falsos
Algunas contribuciones interesantes provienen de la ciencia del comportamiento, que comprende varias disciplinas que analizan el comportamiento y la interacción humanos, y trabaja en la intersección de las estadísticas, economía y psicología. Una de esas ideas fue que los científicos pueden publicar resultados falsos incluso sin saberlo.
Para tener una idea de esto, primero debe saber que la comunidad científica considera que un resultado proporciona evidencia si el resultado supera un umbral. Ese umbral se mide como un valor p, con p de probabilidad. Los valores p más bajos indican resultados más confiables. Un resultado pasa el umbral a evidencia confiable o, en el lenguaje de la ciencia, es estadísticamente significativo, si su valor p está por debajo de algún umbral, por ejemplo, pag <0,05.
Intencionalmente o de otra manera, los investigadores aumentan las posibilidades de obtener resultados estadísticamente significativos al participar en prácticas de investigación cuestionables. En una encuesta publicada en 2012, la mayoría de los psicólogos informaron que prueban su teoría midiendo más de un resultado y luego informan los resultados solo sobre el resultado que alcanza significación estadística. Presumiblemente admitieron este comportamiento porque no reconocieron que aumenta la posibilidad de sacar una conclusión incorrecta.
Uri Simonsohn, Leif Nelson y Joe Simmons, un trío de científicos del comportamiento que se describen habitualmente como "detectives de datos, "ideó una prueba para determinar si es probable que una conclusión se haya derivado de prácticas de investigación cuestionables. La prueba examina si la evidencia que respalda una afirmación está agrupada sospechosamente justo por debajo del umbral de significación estadística.
Fue esta prueba la que desmintió la idea de "poses de poder", la afirmación ampliamente publicitada de que puede desempeñarse mejor en situaciones estresantes si adopta una postura física asertiva. como las manos en las caderas.
Ahora los tres detectives de datos lo han vuelto a hacer. Fue en su blog donde se expusieron los hechos crudos y sensacionales del estudio de la deshonestidad de Ariely. Contrariamente a la afirmación de Buzzfeed de que este caso constituye un golpe para la economía del comportamiento, De hecho, demuestra cómo la ciencia del comportamiento nos ha llevado a erradicar resultados falsos. Exponiendo esa manzana podrida y las fascinantes técnicas empleadas para hacerlo, en realidad constituye una victoria para los científicos del comportamiento.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.