iBulli Health Research: Executable research papers, executable research journals


Imagínense que tengo unos ingredientes inmejorables. Me pongo a pensar detenidamente el plato que voy a preparar. Consulto experiencias de otros cocineros más avezados. Leo sus libros de cocina, sus recetas. Experimento con la mía. Pruebo. Añado algo más que no tenían otras recetas. Y obtengo, vamos a imaginar, un plato delicioso que decido compartir.

Pero vamos a imaginar que la experiencia en comunicar “mi resultado” no se limite solamente a compartir el plato. Voy a compartir también los ingredientes que son inmejorables. Voy a dejar que otros cocineros prueben y cocinen con esos ingredientes. Platos similares o platos muy diferentes.

Foto por eriotropus

Platos muy cercanos porque tenemos escuelas similares o platos con perspectivas diferentes. Sabores aproximados o divergentes que sacien nuestro apetito. Porque no lo olvidemos, aunque el proceso sea en sí un proceso creativo lo importante es saciar el apetito.

Imagínense que no hablamos de ingredientes sino de datos. Que no hablamos de presentar sólo el plato/investigación que nosotros hemos “cocinado” con nuestros datos sino de dejar flexibles esos datos a otros investigadores y todo ello en un concepto dinámico y abierto de procesos editoriales totalmente distintos tal como lo hemos entendido hasta ahora.

Imaginense un futuro en investigación donde la investigación sea “ejecutable” (aplicable, flexible, plástica). En palabras de Dr. Peter Sloot (Editor Jefe de The Journal of Computational Science) “the vision is a future where research is executable on all levels, including data, results, and methodology.”
Y esa es la hipótesis que desarrolla David de Roure en el post Towards executable Journals

“Regular readers will know that I believe data is important but it’s what we do with it that counts. Thus my advocacy for the primacy of method, that process and provenance are also essential citizens in the digital research ecosystem. In a world where we tend to nail down data and throw methods at it, we should also think of nailing down the method and letting the data flow – not just reproducible research but reusable process. My favourite example of this is the “executable” PhD thesis which sits on the (digital) library shelf and reruns analyses to generate new results as new data becomes available – or even generates new papers (thesis becomes paper factory!)”

Pero ¿y si no nos referimos sólo a unos pocos ingredientes? ¿Que ocurriría si lo que se consigue es un laboratorio con los mejores ingredientes y los más arriesgados “cocineros” del mundo linkeados, compartiendo meseta e ingredientes? ¿Se imaginan un iBulli Health Research™? O en palabras del propio de Roure:

“But now let’s take the executable paper a step further. Consider now the executable journal. This is a world where there are multiple executable papers, managed, ‘intertwingled’ and accumulating – a rich platform of enactable scientific knowledge, with journal submissions running on and adding to to the platform. In an intriguing way the platform is a kind ofappstore of and for experiments (like Nature Publishing Group’s Workbench, where scientists and developers can create their own widgets, but with executable papers)”.

Referencias interesantes:

3 comentarios en “iBulli Health Research: Executable research papers, executable research journals

  1. Enhorabuena Rafa, por centrar el tema.

    Esto es algo que ya está pasando con BBDD abiertas como el PDB, o de manera más acertada Oncomine o GeneExpressionOmnibus.

    En el Protein Data Bank, el investigador estructural volcaba sus datos y coordenadas de sus proteínas para generar un repositorio accesible de estructuras.

    En Oncomine o en el GEO, la cosa es diferente, aquí hablamos de datos clínicos a gran escala (proteomics, transcriptomics…) con los que me encuentro todos los días.

    A parte de su paper, los investigadores vuelcan su panel de resultados de sus ensayos: los biomarcadores analizan, el tamaño muestral y la composicion de los casos/controles (tipico diseño en el biomarker discovery)

    Y la verdad, mirar 1000 datos de proteínas es como mirar 1000 pacientes en lo que a la investigación se refiere.

    Por otra parte cada vez es más habitual que los jovenes profesionales en Health Sciences, cuenten con conocmientos suficientes de estadística y epidemiología que les permita, ya no valorar o evaluar el paper en cuestión, si no realizar todas las pruebas estadísticas con los datos disponibles para sacar sus propias conclusiones.

    Se han muerto entonces las revisiones sistemáticas y meta-análisis? Por mi, aleluya. Hace poco, leyendo sobre un artículo de Nature Cancer Reviews (Etzioni 2003, box 3) hablaba sobre como dos estimaciones sobre la coste efectividad de la mamografía de screening indicaba grandes diferencias, y como ajustando las mismas pruebas estadisticas y asunciones, se igualaban.

    Gracias por la selección de la literatura, le echaremos un ojo!

    Me gusta

  2. Ojo con las megalomanías estadísticas y la fascinación tecnológica.

    En el campo de la investigación en genómica se da mucho.

    El peligro está en creer que hacer investigación consiste en tener miles (cientos de miles) de datos sobre pacientes, proteinas o lo que sea.

    Cuando trabajaba en bioinformática veía una deriva peligrosa hacia un estilo de investigación que consiste en “pescar a ver que sale”. Como obtener datos cada vez es más barato (por las tecnologías de secuenciación y demás) la gente se dedica a aplicar test estadísticos cada vez más complejos a enormes repositorios de datos y publicar artículos de asociaciones que han encontrado.

    Luego la mayoría de las asociaciones publicadas son basura (no hay sino que ver el continuo bombardeo de noticias tipo “descubierto el gen de la homosexualidad” o el más reciente “el 70% de los europeos desciende de Tutankamon”), y no hay manera de replicarlas.

    La investigación basada en la observación, la generación de hipótesis, y el diseño cuidadoso (y creativo) de experimentos para contrastar la hipótesis es cada vez más rara porque se ha adoptado un modelo de trabajo industrial basado en los modelos económicos del Venture Capital.

    La lógica del capital riesgo dice que hay un 1% de que un negocio/proyecto salga adelante y de una rentabilidad del 120% y un 99% de que no de nada, así que si invierto en 100 proyectos de este tipo y tendré una rentabilidad del 20%.

    Es este modelo de financiación el que impregna el estilo del investigador, y en mi opinión explica el tipo de resultados (mucho mee too y poca investigación revolucionaria) que obtenemos.

    Me gusta

  3. Interesentísimo post Rafa,
    Podríamos aprovechar los nuevos métodos de obtención de datos para mejorar la investigación?
    Creo que esa es la valoración que hay que hacer, porque bazofia la hubo la hay y la habrá siempre aunque no todo lo que se hace en investigación lo es. Saludos a todos.

    Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s