Evaluación de la intervención que puede haber tenido el azar en las pruebas imparciales

La intervención del azar puede llevarnos a cometer dos tipos de errores al interpretar los resultados de las comparaciones imparciales de los tratamientos: es posible que concluyamos erróneamente que existen diferencias reales en los resultados de los tratamientos cuando no las hay, o que no existen diferencias cuando las hay. Cuanto más grande sea el número de resultados del tratamiento de interés observados, menor será la probabilidad de que se llegue a conclusiones erróneas de esta manera.

Debido a que las comparaciones de tratamientos no pueden incluir a todas las personas que han padecido o padecerán la enfermedad en cuestión, nunca será definitivamente posible encontrar «las verdaderas diferencias» entre los tratamientos. En cambio, los estudios deben realizar las mejores estimaciones de cuáles serán probablemente las verdaderas diferencias.

La fiabilidad de las diferencias estimadas generalmente se indicará mediante los «intervalos de confianza (IC)». Estos dan el margen dentro del cual probablemente residen las diferencias verdaderas. La mayoría de las personas ya debe estar familiarizada con el concepto de intervalos de confianza, aunque no sea por ese nombre.

El intervalo de confianza (IC) del 95 % para la diferencia entre los partidos A y B se estrecha a medida que el número de personas encuestadas aumenta

El intervalo de confianza (IC) del 95 % para la diferencia entre los partidos A y B se estrecha a medida que el número de personas encuestadas aumenta (presiona para agrandar)

Por ejemplo, en las vísperas a una elección, una encuesta de opinión puede informar que el partido A está 10 puntos porcentuales por encima del partido B; pero, a menudo, el informe destacará que la diferencia entre los partidos podría ser tan solo de 5 puntos o hasta de 15 puntos. Este «intervalo de confianza» indica que la diferencia verdadera entre los partidos probablemente se encuentra en algún lugar entre 5 y 15 puntos porcentuales

Cuanto más grande sea el número de personas encuestadas, menor será la incertidumbre sobre los resultados y, por lo tanto, más estrecho será el intervalo de confianza asociado con la estimación de la diferencia.

Del mismo modo en que se puede evaluar el grado de incertidumbre en torno a una diferencia estimada en las proporciones de votantes que apoyan a dos partidos políticos, también se puede evaluar el grado de incertidumbre en torno a una diferencia estimada en las proporciones de pacientes que mejoran o empeoran después de dos tratamientos.

Y nuevamente, cuanto más grande sea el número de resultados del tratamiento observados, por ejemplo, la recuperación después de un ataque cardíaco, en una comparación de dos tratamientos, más estrechos serán los intervalos de confianza relativos a las estimaciones de las diferencias de los tratamientos. Cuando se trata de intervalos de confianza, «cuanto más estrechos, mejor».

Por lo general, un intervalo de confianza está acompañado por una indicación de qué tan seguros se puede estar de que el valor verdadero se encuentra dentro del margen de estimaciones presentadas. Por ejemplo, un «intervalo de confianza del 95 %» significa que se puede estar un 95 % seguro de que el valor verdadero de lo que sea que se esté calculando se encuentra dentro del margen del intervalo de confianza. Es decir que hay una probabilidad de 5 en 100 (5 %) de que, en efecto, el valor «verdadero» esté fuera del intervalo.

  • Steve George

    Overall this is a superb book and website. However, the stated meaning of ‘confidence interval’ is not correct. Maybe this is an intentional simplification because the book and website are intended for a broad audience. However, it makes one suspicious about other claims made by the authors if one of the important aspects is wrong. The correct meaning of a 95% confidence interval is that 95 out of 100 confidence intervals obtained in the same way (same population and same sample size) will include the true mean. To say that there’s a 95% chance that the true mean lies within the confidence interval would mean that there many different true means, and 95 out of 100 of them fall within this particular confidence interval. Of course there is only one true mean, and it will lie within 95 out of 100 similarly-obtained confidence intervals.

    • Anonymous

      Many thanks for your kind words Steve, and I am sure that the team will want to make sure that everything is as accurate as it can be.

      You are right, in that the intention is to explain confidence intervals for an informed lay reader. I know from experience that this is not easy, and that sometimes an approximation is easier to understand.

      Stay tuned and I will see what they say.

    • Paul Glasziou

      Thanks for your complimentary remarks about the book. We might have used a different approach in our effort to explain confidence intervals, and we discussed this when writing the section. The deliberate simplification we used reflected our experience of trying to explain the precise frequentist interpretation of confidence intervals to lay audiences: this approach either seems to confuse them or goes over their heads. We could also have used Credible Interval and a uniform prior to match our more Bayesian explanation (http://en.wikipedia.org/wiki/Credible_interval), but that is not the term people are likely to come across.
      We are currently searching systematically for formal comparisons of the extent to which among alternative wording to explain research methods most helps lay people to get the right end of the stick. This is one of several issues that we would like to see addressed empirically to improve the evidence base needed to support better understanding of health research. Please let us know if you would like to be involved, and we would also encourage you and readers to become involved in http://www.nsuhr.net – An international Network to Support Understanding of Health Research.

  • Robert42

    Confidence intervals represent the uncertainty of an estimate attributable to sampling error. Small sample, bigger error, broader confidence interval. Big sample, smaller error, narrower confidence interval. If the sample encompasses all of the sample frame the uncertainty falls to zero and the confidence intervals disappear.

    A 95% confidence interval means that if we were to repeat our test 100 times, the calculated confidence intervals would encompass the mean arrived at through full and complete coverage of the sample frame roughly 95 times. This mean is not a ‘true’ value. Confidence intervals only represent the uncertainty from sampling. There will be other errors in the measurement system that will forever keep us from knowing the ‘truth’. This is why Deming insists that there is no truth in measurement and the idea there is, is so destructive to understanding statistical analysis.

    To conclude say, a difference between a treatment and control group is statistically significant at the 95% level, only means our experiment would come to similar estimates 95% of the time. It doesn’t mean the difference is real or true. (After all, we already knew the two groups were different.) All manners of statistical significance are comments on the measurement system used, not the reality being measured.