Las tendencias psicópatas ayudan a ser considerado un buen jefe, pero solo si eres hombre. Según...

Fuente (en inglés): https://www.ua.edu/news/2018/10/men-in- ... -punished/

Si el estudio estuviera en lo cierto, quizás sea éste otro ejemplo de que el concepto de masculinidad que la sociedad premia, es un tanto tóxica?
A ver, hagamos un análisis:

Dicen
psychopatic tendencies were positive associated with leathership emergence (p= 0.07).

However, given the large number of samples that used HDS MIS scale, we also calculated results separately for samples that used MIS (p=0.06) and samples that did not (p=0.1).

Cualquiera que sepa de metodología le estarán chirriando estos resultados, pues una p superior a 0.05 significa que las diferencias NO son significativas.

Sigamos, en cuanto a psycopathic effectiveness, encuentran una diferencia significativa ligera (p=0.04). Sin embargo en la siguiente frase dicen: an analysis using multi-source ratings of leadership effectiveness found a weak and non significant association (p= 0.06).

Además dice que: all three metanalysis were characterized by credibility intervals that indicated the likely presence of moderators (en cristiano, que podría deberse a otra cosa).

Pero pasemos al género. Para leadership emergence no hay diferencias p=0.24. Para effectiveness perjudica ligeramente a las mujeres y beneficia ligeramente a los hombres. Ojo que si luego miras el intervalo de confianza, ves que incluye valores positivos y negativos, por lo tanto incluye el 0, por lo tanto no puede ser significativo (ver mi firma donde explico como interpretar intervalos de confianza). Así que o se equivocaron al poner la p, o al poner el intervalo de confianza (o "se equivocaron"). Para transformational leadership, no se encontraron diferencias (p=0.31).

Por otro lado, el 90% de las definiciones de psicopatía se basan en auto reportes, no en diagnósticos ni en reportes de los compañeros.

Si utilizamos AMSTAR para analizar la calidad metodológica tenemos que:
Shall we serve the dark lords? A meta-analytic review of psychopathy and le is a Critially Low quality review

1. Did the research questions and inclusion criteria for the review include the components of PICO? No
Yes




2. Did the report of the review contain an explicit statement that the review methods were established prior to the conduct of the review and did the report justify any significant deviations from the protocol? No
3. Did the review authors explain their selection of the study designs for inclusion in the review? No



4. Did the review authors use a comprehensive literature search strategy? Partial Yes
Yes
Yes
Yes


Yes
Yes

5. Did the review authors perform study selection in duplicate? Yes
Yes

6. Did the review authors perform data extraction in duplicate? Yes
Yes

7. Did the review authors provide a list of excluded studies and justify the exclusions? Yes
Yes
Yes
8. Did the review authors describe the included studies in adequate detail? No

Yes
Yes
Yes
Yes


9. Did the review authors use a satisfactory technique for assessing the risk of bias (RoB) in individual studies that were included in the review?
RCT 0

NRSI No









10. Did the review authors report on the sources of funding for the studies included in the review? Yes
Yes
11. If meta-analysis was performed did the review authors use appropriate methods for statistical combination of results?
RCT

NRSI No




Yes



12. If meta-analysis was performed, did the review authors assess the potential impact of RoB in individual studies on the results of the meta-analysis or other evidence synthesis? No



13. Did the review authors account for RoB in individual studies when interpreting/ discussing the results of the review? No


14. Did the review authors provide a satisfactory explanation for, and discussion of, any heterogeneity observed in the results of the review? No


15. If they performed quantitative synthesis did the review authors carry out an adequate investigation of publication bias (small study bias) and discuss its likely impact on the results of the review? No


16. Did the review authors report any potential sources of conflict of interest, including any funding they received for conducting the review? Yes

No se ha copiado bien, aquí podeís ver las respuestas que se ajustan al análisis que he hecho:
https://amstar.ca/Amstar_Checklist.php

Básicamente fallaron en lo más importante, no realizaron análisis del sesgo y no estudiaron la heterogeneidad. No se siquiera como consiguieron que les publicaran, pues sin alguno de los dos no hay publicación que valga en mi profesión, pues no hay forma de saber si lo que están diciendo tiene sentido.

Además, pese a utilizar NRSI (non randomized studies of interventions) en vez de ensayos clínicos, no realizaron ajustes por factores de confusión en el metanálisis.

Por último, no realizaron correcciones por test repetidos, algo así:
Imagen

Si lo hubiesen hecho, la significativad se daría por debajo de p=0.0025 si hicieran los análisis, por lo que incluso a los propios autores les habría salido como no significativo. Pero es que encima no realizaron dos análisis repetidos, realizaron 3, por lo que habría que penalizar todavía más la p.
@Elelegido que otros ejemplos de masculinidad toxica premia la sociedad?
@dark_hunter Gracias por el análisis!

Creo que el estudio está publicado precisamente por ser de psicología social, y no de medicina. Dejando al margen otros posibles fallos del estudio, en los que no me meto, entiendo que sea normal que los parámetros estadísticos se interpreten de diferentes maneras en diferentes disciplinas. Sin ser un entendido en ambas materias, me da a mi que la medicina es una ciencia bastante más exacta que la psicología social. Curiosamente, he encontrado noticias de una revista de psicología social aplicada que ha baneado estudios en base a 'p' por ser demasiado maleables.

Con esto no digo estar invalidando tu argumento. Pero mantengo cierto escepticismo que parte de la forma en la que sacas conclusiones bastante categóricas de esos datos, y por el hecho de que he visto ciertos investigadores verificados comentando este estudio en reddit/r/science desde una perspectiva bastante menos crítica. También reconozco, que yo tengo el sesgo de que siempre he pensado que el enlace entre la psicopatía y la alta jerarquía existe. Y tampoco me extraña que haya asimetría entre géneros.

En cualquier caso, espero que salgan más estudios sobre este área.
En este hilo sólo veo una cosa tóxica, y me callo. Ahora son dos.
Elelegido escribió:@dark_hunter Gracias por el análisis!

Creo que el estudio está publicado precisamente por ser de psicología social, y no de medicina. Dejando al margen otros posibles fallos del estudio, en los que no me meto, entiendo que sea normal que los parámetros estadísticos se interpreten de diferentes maneras en diferentes disciplinas.

En verdad no, cuando se estudia metodología, dentro de un mismo diseño de estudio, se aplican los mismos análisis en cualquier disciplina, esa es la gracia. El motivo es que la metodología la diseñaron por un lado psicólogos (sí, la mayor parte de diseños de estudio utilizados en medicina se inventaron para psicología, incluido el metanálisis) pero principalmente estadistas, y a los estadistas les da igual con lo que estés trabajando.

Lo que cambia entre disciplinas son las variables (en este caso psicopatía y liderazgo). De hecho si no fuera así no habría podido leer el artículo porque no lo habría entendido, pero los test que utilizan son los mismos que con los que estoy familiarizado.

Sin ser un entendido en ambas materias, me da a mi que la medicina es una ciencia bastante más exacta que la psicología social. Curiosamente, he encontrado noticias de una revista de psicología social aplicada que ha baneado estudios en base a 'p' por ser demasiado maleables.

Exacto, por eso la crítica que hacía de xkcd y el comentario a las correcciones de la p y los intervalos de confianza, que son mucho más robustos que la p.

EDIT: por cierto, lo de esa revista es como decir "los antrirretrovirales no curan el VIH, eliminemos los antiretrovirales". El contraste de hipótesis funciona, lo que pasa es que hacer ciencia de forma correcta no es fácil y durante décadas se ha metido gente a investigar sin tener ni idea. Los primeros catedráticos que vivieron la MBE se metieron a investigar sin apenas formación sobre el tema, era jugar a ser científicos. Que las cátedras se hereden y que haya que recurrir a cursos privados para recibir una formación correcta sobre el tema, no ayuda.

Pero para eso están los revisores, para comprobar que el análisis estadístico utilizado es correcto. Otra cosa es que los revisores tampoco tuvieran ni idea, que vista la exposición de motivos para retirar la p por completo, parece que así sea.

Con esto no digo estar invalidando tu argumento. Pero mantengo cierto escepticismo que parte de la forma en la que sacas conclusiones bastante categóricas de esos datos, y por el hecho de que he visto ciertos investigadores verificados comentando este estudio en reddit/r/science desde una perspectiva bastante menos crítica. También reconozco, que yo tengo el sesgo de que siempre he pensado que el enlace entre la psicopatía y la alta jerarquía existe. Y tampoco me extraña que haya asimetría entre géneros.

Yo también pienso que ese enlace existe, si utilizas el buscador verás que lo he comentado varias veces por este foro. Pero si somos objetivos, este estudio no vale para confirmarlo, en ciertos apartados incluso valdría para desmentirlo.

Sobre lo otro, por desgracia la formación en metodología es un bien escaso, también entre gente investigadora, pues no te piden en ningún lado que sepas de metodología para investigar, mientras cuele el artículo...

Igual he sido demasiado lacónico, te explico a qué me refiero e igual así coincidimos en que es importante estudiarlo:
- Análisis del sesgo: es una de las partes más importantes de una revisión junto con la recomendación de la evidencia. Verás que cada conclusión en una revisión decente comienza por: "existe evidencia de alto/bajo riesgo de sesgo que ofrece una recomendación de la evidencia alta/moderada/baja" precisamente para contrarrestar lo de que siempre vas a encontrar que un estudio dice lo contrario o que los estudios sean de muy mala metodología. Aquí tienes las dos herramientas más desarrolladas que existen, RoB para ensayos clínicos, ROBINS-I para todos los demás excepto revisiones y metanálisis:
https://sites.google.com/site/riskofbiastool/

Se analiza si la aleatorización fue correcta, si se ocultó la asignación, si los pacientes o los que realizaron las mediciones eran conscientes del tratamiento recibido (cegamiento), si las variables que se midieron se correspondían con lo que se está analizando, si se perdieron pacientes y se hizo algún análisis para contrarrestarlo, si se realizó cherry picking entre los análisis o forma de medir los datos... cosas que por sí solas pueden explicar las diferencias encontradas en el estudio.

Para el caso de los metanálisis existe este otro:
https://amstar.ca/index.php

Que es el que utilicé más arriba.

- Hablaba también de la heterogeneidad: la heterogeneidad se mide con el I2 (hay muchos otros estadísticos, pero este es el más efectivo). Básicamente consiste en analizar si los datos entre distintos estudios son consistentes entre sí, porque de lo contrario, lo que indica es que se estaban midiendo cosas diferentes, por lo tanto no deberías haber realizado un metanálisis. Se considera que existe heterogeneidad a partir de un valor del 25% de I2, pero es que en este metanálisis simplemente no analizaron la heterogeneidad, por lo tanto cualquier estudio díscolo les pudo alterar los datos, especialmente cuando las diferencias eran tan pequeñas.

https://www.cienciasinseso.com/tag/i2/

En cualquier caso, espero que salgan más estudios sobre este área

Yo también y ojo, no estoy diciendo que lo que dice este estudio no sea verdad, sólo digo que es una patata, por lo tanto estamos casi igual que antes de que existiera (incluso peor, por el alto riesgo de sesgo). Pero por poder, podría haber acertado de chiripa.
Ya no sólo es que los resultados no son consistentes (como bien apunta el compañero dark_hunter) sino que si combinamos el hecho de que los resultados (o la forma de presentarlos) de un estudio pueden ser manipulados para intentar dar cierto mensaje y el hecho de que la psicología también es muy manipulable cuando conviene... bueno, yo tomaría con pinzas la gran mayoría de los estudios que involucren comportamiento, sociedad o psicología en general, como psicólogo me frustra bastante que cualquier estudio sirva de base para que lobbies intenten legitimar su mensaje con datos sesgados.
MistGun escribió:@Elelegido que otros ejemplos de masculinidad toxica premia la sociedad?


Ya decía yo.
7 respuestas