Jacobo Garnacho, Head of Data & AI de IBM: “La interoperabilidad y el open source son la vía para una soberanía real”

El 90% de los datos son no estructurados, según datos de IBM y poder explotar esos datos es fundamental para articular casos de uso de IA, por ello hay que gobernar tanto datos estructurados como no estructurados con el mismo rigor. En esta entrevista, Jacobo Garnacho, Head of Data & AI de IBM, resume cuál es la visión de la compañía sobre cómo las administraciones públicas pueden gobernar mejor sus datos y prepararse para el futuro que viene con la IA. Spoiler:
Garnacho asegura que las entidades públicas están incluso mejor que sus homólogas privadas en este escenario.
¿Por qué IBM considera que el dato es un activo estratégico para la modernización de las administraciones públicas?
Desde el punto de vista de IBM, el dato en sí mismo siempre ha sido estratégico. Es la base para la toma de decisiones basadas en evidencia. El dato permite anticipar necesidades —en el caso del sector público, ciudadanas o políticas proactivas— y estudiar históricos para ver qué ha pasado en el pasado. Además, es fundamental para la inteligencia artificial, la automatización y las eficiencias: reduce duplicidades entre organismos y mejora la transparencia. Habilita servicios más personalizados. En el sector público, donde hay una cantidad ingente de datos, la clave es cómo gestionarlos.
Todo el mundo quiere hacer cosas con datos e IA, pero al final del día vemos que es necesario realizar una preparación de datos previa, que nos permita abordar casos de uso de IA con éxito que redunden en una mejora del servicio al Ciudadano.
¿Qué papel juega IBM para que esos datos no estructurados puedan habilitar proyectos de inteligencia artificial?
En IBM tenemos una cultura del dato muy arraigada. Hemos invertido históricamente en datos e inteligencia artificial y llevamos muchísimos años trabajando con la administración pública. Ayudamos precisamente a cerrar esa brecha entre la ambición estratégica y la madurez operativa, con soluciones que permiten a los organismos avanzar.
Contamos con soluciones para la identificación automática de datos sensibles, para el linaje del dato —es vital saber qué transformaciones ha sufrido, de qué sistemas proviene y dónde reside para poder confiar en él—, y con herramientas de calidad y observabilidad. El dato está muy bien, pero si no tiene calidad, no podrás explotarlo; o los resultados no serán suficientes para tomar decisiones. Trabajamos también en infraestructuras, control de acceso y enfoques Zero Trust.
Una característica importante es la aproximación híbrida con la que desarrollamos todas nuestras soluciones, estando disponibles tanto en modalidad on-premise, como en la nube pública; tanto para consumirlas en modo SaaS, como PaaS. Eso da flexibilidad de despliegue y
asegura que la tecnología puede adaptarse a las necesidades de despliegue del cliente, incluso en entornos que requieren aislamiento máximo. Trabajamos con entidades públicas de Administración Local, Autonómica y con la Administración General del Estado para ayudarles a gobernar, gestionar y garantizara la calidad de sus datos, de manera alineada con el cumplimiento de normas como ENS o Ley de Protección de Datos, así como marcos normativos europeos.
Has mencionado la cantidad ingente de datos y que muchos son no estructurados, cada vez más. ¿Cómo se gestiona toda esa información en la administración pública?
El sector público en España, aunque no lo parezca, va muy adelantado si lo comparas con otros ámbitos: han invertido mucho y bien en gobierno y calidad de datos, más que muchas empresas privadas, porque “gobierno” suele percibirse como poco “ROI”. La metáfora es: cuánto inviertes en tener el trastero ordenado. Las cosas las vas a encontrar igual; la diferencia es el orden.
El 90% de los datos en compañías e instituciones hoy son no estructurados, y todo apunta a que el futuro de la IA girará alrededor de ellos. Nos hemos preocupado durante años por los datos estructurados, pero no por imágenes, vídeos, voces, texto y lenguaje. En ayuntamientos y sector público, hay una digitalización masiva de expedientes y documentos que crea silos y redundancias, dificulta trazabilidad y auditoría, y complica la búsqueda y el cumplimiento regulatorio.
¿Qué hacemos? Usamos modelos de inteligencia artificial para extraer información de esos documentos, estructurarla y enriquecerla. Enriquecer significa añadir atributos que no vienen en el dato original. Si pones “calle Mayor,3”, esa calle existe en múltiples municipios; enriquecemos con código postal, ciudad, etc. Con IA extraemos determinados campos relevantes, estructuramos, enriquecemos y gobernamos esos datos igual que hemos hecho con los estructurados. El objetivo no es tener dos soluciones o aplicaciones de gobierno del Dato separadas, una para datos estructurados y otro para datos no estructurados. Si los datos son una única entidad, hay que tener una única solución para gobernarlos. Eso garantizará que, cuando necesitemos utilizar parte de los datos en un futuro, para llevar a cabo un caso de IA, estos datos tendrán la calidad suficiente para llevarlos a cabo. Si los datos están en un “almacén sin orden”, la IA del futuro no será buena. Invertir ahora en gobierno de datos —especialmente de los no estructurados— es lo que toca.
¿Los modelos de lenguaje que usáis son open source?
Nosotros abrazamos esa innovación, la industrializamos y la ponemos en producción en las empresas, con los niveles de seguridad que exige un entorno productivo a nivel organizacional.
Sobre soberanía europea: se insiste en que una vía para garantizarla es apostar por tecnologías open source. ¿Cuál es vuestra visión?
Nuestra visión es abrazar el open source y llevar la innovación de la comunidad a las compañías de forma empresarial, segura y escalable. Nuestros modelos están abiertos, y podemos utilizar el modelo que el cliente quiera: propios o de terceros, open source o de fabricante.
Compartir datos entre administraciones y el impacto para los ciudadanos es una de las preocupaciones en múltiples administraciones—. ¿Cómo facilita IBM esa compartición?
Tecnológicamente, trabajamos con estándares abiertos y APIs. Eso significa que cualquiera autorizado podrá acceder sin quedar atado a tecnologías propietarias; la propiedad intelectual y los datos son del cliente.
La palabra clave es interoperabilidad. Se puede lograr de varias formas. Por ejemplo, en hospitales que no pueden mover datos, virtualizamos: conectamos a una “visión lógica” de los datos sin moverlos. También trabajamos en espacios de datos impulsados por la Unión Europea, fomentando la compartición interna y externa.
Además, tenemos Data Product Hub: un “marketplace” de datos, como un Netflix de activos de datos. Un producto de datos puede ser un cuadro de mando, un dataset, un modelo, un esquema. Terceros se suscriben, reciben notificaciones y actualizaciones, se controla quién accede y bajo qué reglas. Ya lo estamos usando en espacios de datos para poner datos de empresas a disposición de otras, con consenso de que la apertura y la compartición son el camino. Nuestra tecnología habilita esa necesidad.
¿Qué diferencia un espacio de datos de un data lake?
Un data lake es un lugar donde las empresas guardan todos sus datos para explotarlos. Da flexibilidad para almacenar cualquier tipo de dato y hacerlo accesible. Un espacio de datos es un concepto más amplio: no solo guarda información, la comparte de forma eficaz, interna y externamente. Un espacio de datos puede contener un data lake, pero necesita otras tecnologías que habiliten la compartición y la gobernanza. Su objetivo es compartir; el del data lake es almacenar para su explotación futura.
¿Los espacios de datos son por administración, sector o departamento?
Depende del caso de uso. Los espacios de datos se solicitan en convocatorias y, en función del proyecto, se concede ayuda. La arquitectura es open source; nosotros complementamos con piezas tecnológicas para compartir datos de forma eficaz sin desarrollar todo desde cero. Pueden pedirlos administraciones y también empresas privadas.
¿Algún caso paradigmático de espacio de datos?
Isla Fe es un espacio de datos federado para salud sobre IBM Cloud. Su objetivo es el intercambio ético y seguro de datos clínicos de investigación. Es un referente de cómo montar un espacio de datos sanitario gobernado e interoperable. Estamos trabajando en otros.
¿Qué casos de éxito en administración pública sobre gobierno del dato y mejora de la toma de decisiones podéis mencionar?
Vall d’Hebron: tecnología para gestionar el ciclo de vida de datos clínicos de investigación del Hospital y centros asociados. Nuestra solución permite realizar todo el flujo, desde que se solicitan los datos necesarios para llevar a cabo una nueva investigación, hasta que se ponen a disposición del investigador a través de una vista virtualizada. DGTIC-de la
Generalitat Valenciana: formamos parte de la creación de la Tarjeta Social Única, proyecto que requiere de gobernanza de datos para evitar duplicidades y asegurar consistencia en la visión 360º del Ciudadano.
¿Cuál sería la infraestructura ideal para escalar proyectos de IA en administraciones públicas?
Debe ser híbrida: poder trabajar tanto on-prem como en la nube, para combinar flexibilidad con soberanía del dato. Incluso puedes desarrollar en nube y poner en producción on-prem para datos sensibles. Debe ser abierta e interoperable, evitando el lock-in; esto se mueve muy rápido y hay que poder evolucionar.
También recomendaría apoyarse en partners con experiencia en procesos críticos del sector público. No es lo mismo el mundo B2C que empresas como IBM, que lleva años transformando digitalmente administraciones, ayuntamientos y organismos. Invertir en “mimar” el dato es clave: con datos buenos, el futuro no te pilla fuera de juego; puedes afrontar nuevas necesidades y adoptar tecnología de forma más sencilla.
¿Qué proyecto te gustaría conseguir en IBM sobre gobierno del dato en administración pública?
Este 2025 ha sido el año de los agentes IA, y desde IBM nos encantaría empezar a ver cómo estos agentes inteligentes pueden también aplicarse al gobierno del dato, para ayudarnos, por ejemplo, a detectar errores en la calidad del dato o inconsistencias, corrigiéndolos automáticamente. Los agentes pueden trabajar de forma colaborativa entre ellos, cubriendo cada uno tareas en las que estén especializados. Para llegar ahí, hay que redefinir la cultura, comenzando por casos de bajo riesgo. La tecnología sola no resolverá todo, necesitaremos supervisión humana, pero pueden ayudarnos a agilizar trámites administrativos de manera sustancial.













































