Utilizamos cookies propias y de terceros para mejorar nuestros servicios, analizar y personalizar tu navegación, mostrar publicidad y facilitarte publicidad relacionada con tus preferencias. Si sigues navegando por nuestra web, consideramos que aceptas su uso. Puedes cambiar la configuración u obtener más información aquí.

David Cox y Bradley Efron, Premio Fundación BBVA Fronteras del Conocimiento por sus "métodos estadísticos pioneros"

Los matemáticos David Cox y Bradley Efron han sido los ganadores de la novena edición del premio Fundación BBVA Fronteras del Conocimiento en la categoría de Ciencias Básicas por desarrollar métodos estadísticos "pioneros y enormemente influyentes", que han resultado "imprescindibles para obtener resultados fiables en un amplísimo rango de áreas", desde la medicina a la astrofísica, la genómica o la física de partículas.
"Los métodos de Cox y Efron se usan diariamente en la práctica de la ciencia estadística, y han tenido un gran impacto en todas las ciencias que dependen del análisis de datos", señala el acta del jurado. Para el matemático Trevor Hastie, miembro del jurado, "son los dos estadísticos vivos más influyentes hoy en día y han revolucionado este campo".
En concreto, la contribución de Cox, llamada precisamente 'regresión de Cox' en homenaje a su creador, es una herramienta que se usa para explicar la duración de un intervalo temporal entre dos eventos de interés, que depende de factores identificables y no del mero azar (por ejemplo, la mortalidad de un grupo de personas por una determinada enfermedad, o como consecuencia de un factor de riesgo como la contaminación ambiental).
Se usa en multitud de áreas, por ejemplo, en investigación del cáncer, en epidemiología, economía, psicología, sociología e incluso en los ensayos que analizan la resistencia y durabilidad de productos industriales. Como muestra de un resultado médico obtenido gracias a esta técnica estadística, el acta cita la conclusión de que, al cabo de un año de haber dejado de fumar, ya se detecta un descenso de la mortalidad.
Efron, por su parte, inventó un método "engañosamente simple", según el acta, denominado 'bootstrap' (literalmente, lengüeta de bota) para determinar el margen de error de una medida, un dato esencial en ciencia, porque sin él, el resultado carece de valor, según informa la Fundación BBVA.
Tras conocer el fallo del jurado, David Cox (Birmingham, Reino Unido, 1924), de la Universidad de Oxford, se ha declarado "enormemente sorprendido y satisfecho" por la variedad de los problemas científicos en que su contribución ha resultado ser de utilidad, y ha puesto de ejemplo que "sirve para estudios de pacientes con cáncer, para determinar qué peso tiene el tratamiento en su evolución; hay muchos factores que influyen en la supervivencia del sujeto, como su entorno social, su sexo, su edad... ¿cuál es importante?". Su técnica, publicada en 1972, es actualmente el segundo trabajo en estadística más citado en la moderna literatura científica.
"Han sido cientos de miles de trabajos", ha añadido por su parte Bradley Efron (Minnesota, EEUU, 1938), profesor de Estadística de la Universidad de Stanford que creó el 'bootstrap' en 1979. Reconoce que el papel de la estadística en la ciencia es "menos divertido" que la investigación que genera los datos objeto de análisis, pero al mismo tiempo reivindica su necesidad pues "los científicos recogen los datos" y ellos "los analizan".
"Por ejemplo, en la búsqueda del bosón de Higgs: lo que haces es recolectar un montón de datos que en última instancia te generan un pico en una gráfica. Pero, ¿cómo estás seguro de que ese pico es real y no un artefacto? El bootstrap te lo dice", indica.
LOS ORIGENES
Cox --que se define como investigador teórico-- empezó a investigar en estadística por la demanda de esta ciencia en aeronáutica para aplicaciones militares, en la Segunda Guerra Mundial. Era ya una figura internacional en su área cuando coincidió en Londres con Efron en 1972, que completaba una estancia de un año en el país.
El estadounidense, a quien la afición de su padre por las matemáticas y el deporte había llevado a escoger estadística, dice que parte de la inspiración para desarrollar la técnica del 'bootstrap' proviene de una conversación con Cox en esa época, relativa a otro método de análisis estadístico.
Efron se planteó recurrir a las computadoras, entonces en su infancia, para analizar los datos. Hasta entonces la determinación del margen de error se llevaba a cabo mediante aproximaciones matemáticas "que podían ser muy complejas y no siempre acertaban", explica.
"Con el bootstrap lo que haces es delegar ese trabajo complejo de 'pensar' en las computadoras; no es que piensen nada, por supuesto, sino que obedecen el algoritmo que has diseñado", indica. La técnica resultaba en apariencia tan simple que inicialmente fue acogida con desconfianza por la comunidad: "Parecía como hacer trampa, dejar el trabajo duro en manos de un algoritmo, y no era obvio que funcionara", cuenta Efron. Al poco de publicarse la técnica, aparecieron miles de trabajos evaluando su utilidad.
"El bootstrap es un método que aprovecha la potencia computacional de los ordenadores para comprobar la exactitud o precisión de un análisis estadístico", explica Efron. "En cualquier investigación, el papel protagonista lo tiene el algoritmo que pretende responder a la pregunta que se hace el investigador, y el papel secundario es averiguar el grado de precisión de la respuesta que se obtiene. Así que el bootstrap casi nunca es la estrella, pero se ha convertido en el mejor actor secundario de la estadística".
El nombre 'bootstrap' surge de los cuentos del Barón de Münchhausen, del siglo XVIII, a los que Efron es aficionado, y hace referencia al funcionamiento de la técnica en sí. En uno de los cuentos el barón se salva a sí mismo de ahogarse en un lago "tirando de la lengüeta de sus propias botas", explica Efron; la técnica 'bootstrap' se basa en que los datos de la muestra que debe ser analizada se muestrean de nuevo aleatoriamente una y otra vez, de forma que son esos mismos datos, y no otros adicionales, los que acaban proporcionando el margen de error.
Ambos coinciden igualmente en que sus métodos, y en general las herramientas estadísticas, serán cada vez más necesarias en la ciencia actual, basada más y más en el análisis de grandes cantidades de datos. El área de Big Data plantea sin duda "problemas estadísticos", afirma Cox.
Mientras, Efron ha hecho alusión a la genómica, en la que por ejemplo se busca comprender el papel de una mutación poco frecuente en tal o cual enfermedad o en la respuesta a un fármaco concreto. "Hace siglos, la ciencia abordaba problemas concretos, como el movimiento de los planetas. Ahora los problemas implican trabajar con muchos más datos, lo que genera mucho ruido. Los humanos somos mucho más ruidosos que los átomos. Ahora tenemos situaciones en las que tenemos que eliminar mucho ruido, y la estadística es lo que te permite hacerlo", apostilla.