JESÚS MARCO DE LUCAS

Entrevista a JESÚS MARCO DE LUCAS

Profesor de Investigación en el Instituto de Física de Cantabria (IFCA), centro mixto del CSIC y la Universidad de Cantabria. Ha sido director de IFCA (2004-2007) y coordinador del área de Físicas en el CSIC (2008-2010). Actualmente trabaja en dos líneas de investigación en IFCA: Experimental Particle Physics y Advanced Computing y e-Science. Doctor en Física de partículas experimental en 1989, ha colaborado en el experimento DELPHI en el “Large Electron Positron Collider” (LEP) en  CERN hasta el año 2000, en la búsqueda del bosón de Higgs, y es miembro del CMS  en el Large Hadron Collider (LHC), donde contribuye en el Tier2 computing center en IFCA y en tareas de Data Preservation y Open Access. Promotor del European Grid Initiative (EGI), está involucrado en el European Open Science Cloud, como coordinador del nuevo proyecto DEEP Hybrid DataCloud financiado por H2020, y en el EOSC-Hub stakeholder analysis, consecuencia de su actual trabajo en el proyecto INDIGO. Ha coordinado la instalación y operatividad de infraestructura de computación en IFCA, incluyendo recursos GRIDCSIC, y el supercomputador  ALTAMIRA. También trabaja en la iniciativa  LifeWatch de ESFRI, contribuyendo a modelar su “e-infrastructure”, como coordinador del LifeWatch Competence Center. Ha colaborado con varias  empresas  (CIC, Ecohydros, BSH and ENSA) en diferentes proyectos de investigación e innovación, y coordina el nuevo master sobre  Data Science de la UIMP/Universidad de Cantabria con el apoyo del  CSIC.

Recientemente ha venido a Bruselas para participar en la reunión del grupo de trabajo de Science Europe llamado “Research Data Management”, ¿Nos podría contar qué importancia tiene este tema para el CSIC, dónde estamos y hacia dónde nos dirigimos?

El tema de la gestión de los datos de investigación es clave en una ciencia cada vez más basada en una instrumentación que proporciona gran cantidad de datos, desde secuenciadores hasta satélites, y exige no solo analizarlos y modelarlos, produciendo más datos, sino “documentarlos”. Gestionar todo el ciclo de vida de estos datos debe permitir que los resultados obtenidos puedan ser reproducibles, para lograr una ciencia transparente, y también preservados, para poder ser reutilizados por otros investigadores. Para abordar problemas cada vez más complejos se necesitan datos de diferentes áreas, y en este sentido el CSIC está en una posición única en España por su excelencia multidisciplinar. Por ello el tema es muy relevante, y en paralelo al grupo de trabajo de Science Europe ya se preparó un documento de análisis interno del CSIC sobre este tema. Las siguientes acciones esperamos que vengan de la mano de las iniciativas europeas que se van a lanzar en H2020 a partir del año que viene, para promover que los datos sean “localizables, accesibles, interoperables, reusables y reproducibles”.

Se pretende que la llamada European Open Science Cloud sea una realidad en 2020 ¿qué opina al respecto? ¿Cree que la industria europea está suficientemente involucrada en esta cuestión?

El European Open Science Cloud tenía originalmente tres objetivos: promover el acceso en abierto a los resultados de la investigación, tanto datos como publicaciones, usar la tecnología cloud como marco para implementar este proceso y a la vez ofrecer a los investigadores servicios más potentes de computación, y por ultimo lograr que las empresas se impliquen en este marco participando en estos servicios y usándolos para desarrollar nuevos productos. Mi opinión es que la estimación inicial de los recursos públicos necesarios para lograrlo, y de su prioridad, no fue adecuada. A día de hoy los 250M€ previstos en H2020 para el primer objetivo quizás permitan lograr un cloud de datos y una organización que agregue recursos existentes, pero no es suficiente para proporcionar recursos a los investigadores para competir con China o USA, ni para atraer a la industria en este campo. Tampoco hemos sido capaces de identificar, hasta ahora, una empresa o consorcio europeo que pueda jugar un papel similar al de Google o Amazon en cuanto a servicios cloud.

Desde el Sexto Programa Marco de I+D viene participando como socio o coordinador en diversos proyectos. ¿A lo largo de este tiempo ha visto una evolución positiva del programa? ¿Qué considera que sería necesario introducir o suprimir y hasta la fecha no se ha hecho?

Sí que tengo muy claro que sería necesario introducir: un seguimiento más cercano y real de los proyectos y de los socios implicados, y sobre todo tenerlo en cuenta a la hora de dar continuidad a su explotación,  o a nuevos proyectos.

He participado no solo como socio y coordinador (ahora volveré a serlo en el nuevo proyecto), también como evaluador, como asesor del ministerio a la hora de valorar las nuevas propuestas de “work program”, y como experto invitado para presentar nuevas ideas. La verdad es que no he visto una evolución positiva “significativa”, pero debo decir que en general los proyectos y consorcios que conozco han funcionado muy bien, y que las líneas que se promueven suelen tener una adecuada base y consenso científico, al menos en el área de infraestructuras de investigación. Pero el peso de los lobbies y grandes consorcios  es bastante alto, y limita mucho la renovación, además de llevar en muchos casos a un cierto acomodamiento.  De ahí la importancia de un mejor seguimiento.

A lo largo de su carrera habrá conocido otras políticas y estrategias de organismos europeos homólogos al CSIC para aumentar su participación en proyectos europeos, tener un mayor papel representativo en entidades internacionales, etc., ¿resaltaría alguna política en especial que quizás pudiera ser aplicable a nuestra institución?

Si, una de las mejores políticas es disponer de la posibilidad de explorar con recursos propios, aunque  sean muy limitados, pero con mucha agilidad, nuevas iniciativas. Organizar un workshop preparatorio, montar un test bed inicial, diseñar un prototipo a pequeña escala, etc. son opciones que nos permiten llegar con confianza y con ese punto extra que da una experiencia inicial, sea positiva o negativa. Y, sobre todo, motiva al propio investigador, es en general algo que le gusta hacer, sin la presión de un proyecto formal, y desarrollando sus propias ideas más rápidamente. El CSIC ya permite hacer esto mediante la gestión de remanentes de proyectos, pero a veces es complicado.

Durante dos años fue coordinador del área de física del CSIC, ¿qué le aportó la experiencia y qué objetivos se propuso? Y actualmente, ¿cuáles cree que son los mayores desafíos del área?

Aunque quizás sorprenda, lo que más me aportó fue una gran confianza en los investigadores e investigadoras de todos los centros del CSIC del área, muchos de los cuales no conocía en detalle. Visité todos los centros personalmente, aprendí mucho sobre sus líneas, y mi impresión fue siempre muy positiva. Pero a la vez debo decir que también aprecié una gran fragmentación, y que la colaboración entre centros, salvando excepciones relevantes, debería mejorar. Nos propusimos objetivos bastante ambiciosos en un plan estratégico que se preparó con bastante rigor para el año 2010, a pesar de que ya preveíamos que el impacto de la crisis iba a hacer imposibles muchas de las medidas de apoyo (nuevas plazas, equipamiento, ejes multidisciplinares y de colaboración entre diferentes centros cómo el eje de instrumentación).

El mayor desafío del área en mi opinión ahora mismo es la renovación de temas, y la consecuente reorientación de bastantes grupos de investigación. Mientras que la evolución en tecnologías físicas continúa creciendo, yo diría que casi exponencialmente, hay que decir que los avances en física “básica” son mucho más costosos, especialmente si comparamos con otras áreas cómo la biología. Mi resumen es que la tecnología del siglo XXI está explotando a fondo (pensemos en la computación cuántica) la física del XX, incluso me atrevo a decir que necesitamos una nueva revolución físico-matemática, casi de nuevos principios, si queremos que la física vuelva a dar un salto cómo en el siglo pasado.

A nivel científico, ¿Con qué organismos colabora y quiénes son los pioneros?

Desde el comienzo de mi carrera profesional he colaborado con diferentes grupos en el CERN, especialmente del CNRS (IN2P3-LAL), del INFN (Padova), del propio CERN, y varios más, incluyendo otro centro del CSIC, el IFIC, en España. Ahora mismo en el área de computación las colaboraciones son muy variadas. En computación cloud/grid me gustaría destacar la colaboración (pionera en su momento, Ibergrid) con el LIP en Portugal, con PSNC y CYFRONET en Polonia, con el KIT en Alemania, con EGI.eu (internacional) y actualmente también con el INFN(Bolonia, Bari) en Italia; y en España con UPV, BIFI y CESGA, así como en supercomputación con el BSC. En el contexto de la ESFRI LifeWatch con muchos grupos españoles en Universidades (Navarra, Sevilla, Granada) y con MNCN, RJB y EBD del CSIC, así como con VLIZ en Bélgica y HCMR en Grecia, y con NEON en USA, un referente internacional en la monitorización de ecosistemas: colaborando con todos ellos hemos puesto en marcha servicios Cloud que creemos serán pioneros para la primera ESFRI en España: LifeWatch.

Como coordinador del LifeWatch Competence Center, ¿podría explicar “a los no expertos” los beneficios que conllevan este tipo de infraestructuras?

Hoy en día entender los problemas medioambientales, y en particular de biodiversidad, como por ejemplo la propagación de una especie invasora, o la aparición de algas tóxicas en un lago, requiere integrar y analizar miles de observaciones y medidas: desde las más sencillas pero masivas, como el registro de temperaturas, a las más sofisticadas, como imágenes multi-espectrales de satélites o resultados de análisis genéticos. Pero para resolverlos además necesitamos modelos, en general muy complejos y que requieren integrar estos datos para realizar simulaciones que permiten analizar diferentes soluciones. Los investigadores, y también los gestores medioambientales, van a tener en el “cloud” de LifeWatch los servicios de computación necesarios para mejorar la gestión de estos datos masivos de múltiples fuentes así como su análisis y modelado. En su fase inicial, el LifeWatch Competence Center ha canalizado más de 10 millones de horas de computación, siendo la comunidad más activa en el cloud federado europeo de EGI, que se espera sea la semilla del European Open Science Cloud.

Por último, ¿qué le gustaría lograr a medio o largo plazo?

Estos últimos años he visto el increíble progreso de las técnicas de inteligencia artificial conocidas cómo Deep Learning. Gracias a la ayuda de un contrato de Garantía Juvenil (que agradezco al Ministerio y al FSE desde aquí) hemos tenido un joven investigador que ha implementado el reconocimiento de plantas mediante fotografías, y luego una estudiante en su trabajo de fin de grado lo ha aplicado a la clasificación de colisiones en el Large Hadron Collider (LHC) del CERN, y… ¡funciona muy bien! ¡Pero no sabemos por qué! Imagino una nueva generación de análisis en el que ya no diseñemos el algoritmo, sino el “cerebro” que luego va a implementarlo, y cuyas reglas simplemente no tienen por qué ser las de nuestra mente. Eso sí, necesitamos equipos muy sólidos en Data Science, incluyendo machine learning, y eso es lo que me espera estos dos próximos años, aprender, pensar y aplicar, tanto en el nuevo master  cómo en el proyecto DEEP-Hybrid DataCloud.