Ignacio Barahona, socio fundador y Head of Data Analytics & Modern BI de Innova-tsn: «La administración tiene una necesidad de demostrar que realmente se avanza»

Ignacio Barahona, socio fundador y Head of Data Analytics & Modern BI de Innova-tsn
Comparte la noticia

Innova-tsn lleva 22 años en el mercado como consultora tecnológica especializada en la gestión del dato. Ignacio Barahona es uno de sus socios fundadores y en esta entrevista con ByTIC desgrana cómo está la situación del dato en la administración pública española, así como los principales retos y dificultades a los que se enfrenta.

¿Os consideráis consultora?

Nos consideramos una consultora muy enfocada en todo lo que es el mundo del dato y lo que hay a su alrededor. Nuestro valor diferencial es que estamos muy centrados en la analítica avanzada. Hacemos más cosas en otros ámbitos —que además hay que hacer para llegar a esa analítica—, pero donde creemos que somos más fuertes y nos diferenciamos es en la analítica avanzada. Hoy, cuando se habla de analítica avanzada, se habla de inteligencia artificial, de e-learning, etcétera.

¿Cómo surge el proyecto? Hace 22 años se hablaba más de Business Intelligence, del ERP…

Cuando empezábamos decíamos que éramos —y seguimos siéndolo— una consultora de Business Intelligence, de inteligencia de negocio. Esa inteligencia de negocio está muy basada en la analítica avanzada en el mundo del dato. Si hoy hablar de analítica avanzada es hablar de inteligencia artificial, en aquel momento era hablar de series temporales y de modelos predictivos, y eso es lo que hacíamos desde el principio.

¿Y cómo surge la compañía?

Los tres socios ya nos conocíamos de trabajos anteriores. En nuestro último trabajo antes de dar el salto, fuimos a una multinacional americana grande que no tenía área de BI; montamos el área, y ese mismo equipo fue prácticamente el arranque de Innova: nos fuimos los tres socios y ocho o nueve personas más que formaban el área.

¿Cómo se reparte el negocio? Trabajáis tanto con administración pública como con empresa privada.

Por nuestro bagaje en Business Intelligence, data warehousing y metodologías, nuestros clientes han sido clientes grandes, aunque ahora está cambiando. A principios de los 2000 una pyme, por ejemplo, no se planteaba tener el dato trabajado o un sistema de reporting.

Hoy eso ha cambiado mucho porque las infraestructuras tecnológicas son más asequibles y flexibles. Cualquiera puede tener una suscripción en la nube y montar una base de datos con poca inversión. Pero nosotros mantenemos ese recorrido: nuestros clientes siguen siendo, en su mayoría, grandes. Del Ibex 35, treinta y muchos por ciento son clientes nuestros.

¿Trabajáis por verticales?

A diferencia de otras consultoras, no trabajamos por verticales. No hay un account manager que se dedique únicamente a Utilities, por ejemplo. Si un manager va trabajando con Utilities y gana experiencia, es más fácil que se le asigne un proyecto en ese ámbito, pero no tenemos una clasificación cerrada.

Lo mismo nos pasa con las administraciones públicas: para asignar un manager nos fijamos más en la tipología del proyecto que en la tipología del cliente. Un proyecto en Utilities puede parecerse mucho a uno en retail y ser muy distinto de otro proyecto del mismo sector.

¿En qué productos trabajáis en relación al dato?

Desde que empezamos, nos centramos en el mundo del dato: ese es nuestro alcance y, en principio, no queremos salirnos a otros ámbitos. Lo que sí hacemos es cubrir el ciclo de vida completo del dato.

Ese ciclo abarca desde crear una plataforma informacional donde almacenar los datos (antes hablábamos de data warehouse, ahora de nube, lakehousing, data lake, etc.) hasta la preparación, el tratamiento, la calidad, el gobierno del dato y la explotación. En explotación ponemos mucho foco en la analítica, pero también hacemos explotación descriptiva: cuadros de mando, reporting y similares.

¿Cómo está el ciclo de vida del dato en España, en administración pública y empresa privada?

Trabajamos en España y también en Reino Unido, Colombia y México, así que puedo comparar. Creo que en España, tanto la empresa privada como la administración pública, tienen un nivel de madurez destacable con respecto a lo que veo en otros países. Reino Unido también está bien, pero diría que España está un paso por delante de lo que he visto en los países con los que trabajamos.

¿Ves diferencias entre sector público y privado para proyectos de datos?

Sí. A veces empiezan por la capacidad de inversión, aunque no siempre es solo un tema económico. La administración pública tiene una exposición pública mayor y, además, hay una necesidad real de avanzar y demostrar avances, porque los ciudadanos lo exigimos.

La diferencia también se nota en recursos humanos: hace poco hablaba con la CASS, la seguridad social de Andorra. El CDO pedía manos porque le piden muchas cosas y no tiene equipo suficiente. Podía subcontratar, así que no era solo falta de presupuesto: era falta de capacidad interna. Esa presión por hacer, sin equipo suficiente, se nota.

En administración pública, ¿son más cuidadosos con los datos por su papel de garantes?

Hasta donde yo veo, sí: son mucho más cuidadosos, quizá por esa exposición pública. Por ejemplo, trabajamos con el Banco de España. Cualquier banco es complicado por la regulación a la que está sometido.

Cuando hace dos años el mercado empezó a irse hacia la nube, en bancos era muy difícil. Recuerdo en Bankia —todavía era Bankia— un proyecto de acciones comerciales en el que una pieza era Salesforce: costó mucho que lo entendiera la entidad y, luego, el regulador.

Ahora estoy en un proyecto en BCC, el Banco de Crédito Corporativo. Estamos montando Databricks y llevo un año y todavía no está la plataforma montada. El responsable de modelo analítico, Ramón Caro, lo sufre también: resulta complejo por las barreras de Ciber, Arquitectura e IT. Desplegar en nube es complicado en estos entornos.

En administraciones públicas me ocurre desde hace años. Mi primer proyecto fue en el INE, con el secreto estadístico: era muy exigente. Solían pecar de ser más prudentes de la cuenta, incluso aunque eso implicara dar al ciudadano una respuesta de “lo siento, no hay datos”.

Cuando trabajáis con datos del cliente, ¿tenéis barreras de acceso?

Hoy, cuando se firma un contrato de servicio o un contrato de proyecto, hay una parte de tratamiento del dato que antes no existía así. Antes bastaba con un NDA; ahora hay que nombrar un responsable, garantizar ciertas cuestiones, y el contrato de tratamiento muchas veces lo firma cada miembro del equipo de proyecto. No vale solo con firmar como empresa.

Además, cuando nos auditan como consultora tenemos que cumplirlo: identificar quién es el responsable del dato en el cliente, quién es el DPO, etc. Todo está más regulado y controlado que antes. Y no hablo de hace décadas: antes era más sencillo; exagerando, te daban un USB con datos y te los llevabas a tus servidores.

Ahora nos encontramos con clientes que, aunque tengan dificultades de infraestructura, piden: “¿Podéis montarlo en vuestro laboratorio, en vuestro cloud de Azure?”. Montarlo es sencillo; conseguir que los datos puedan salir y llevarlos a ese laboratorio, no lo es, aunque Azure tenga garantías muy restrictivas.

Parte buena y parte mala de tanta regulación…

La parte mala es que hace las cosas más inflexibles: movimientos tecnológicos que antes se resolvían rápido ahora requieren aprobaciones y tiempos.

La parte buena es que con los datos tomamos decisiones con impacto: conceder o no un crédito, contratar o no a una persona, etc. Hay un impacto social fuerte. Yo prefiero avanzar con cuidado. Hay que ser muy prudente con determinados tipos de datos, y la regulación ayuda a sostener ese uso responsable; si no regulas, una declaración de intenciones no basta.

Llevamos décadas hablando de curar y validar el dato. ¿Dónde está el problema?

Nosotros hablamos de la “ley de Fanetos”: la preparación del dato es el 80% del proyecto y la analítica avanzada el 20%. Es un símil muy manido, pero cierto. La IA es la parte vistosa; la preparación del dato es el trabajo menos visible.

Y, aun así, si buscas tendencias para 2026 en el mundo de datos, la calidad del dato aparece en casi todas. ¿Por qué sigue siendo un problema? Primero, por la IA: modelos de machine learning o deep learning son más sensibles a sesgos en los datos. Segundo, porque hay más procesos automatizados: un error no solo sesga un modelo, se propaga de forma automática a más sistemas. Tercero, porque integramos muchas más tipologías: no solo estructurados, también semiestructurados y desestructurados, y eso complica la variabilidad, cardinalidad y tratamiento.

Se habla de explosión de agentes de IA (IA agéntica) en 2026. ¿Hay que trabajar expectativas?

Hay que regularlo y, como no todo se puede regular, gobernarlo internamente. Si en datos la tendencia es la calidad, en IA la tendencia será la IA agéntica, sí, pero también el gobierno de la IA.

Tenemos un proyecto con la CNMV de gobierno de IA. Empezamos de forma iterativa: identificamos casos de uso, los priorizamos por practicidad e importancia, y metemos políticas de gobierno en cada modelo. La primera parte fue formación: un programa de “IA responsable”, centrado en regulación europea. Luego iremos aplicando gobierno de IA de forma iterativa al resto.

Esto será tendencia porque hoy cualquiera puede montarse un agente con Copilot Studio con poco conocimiento, casi como usar Excel o Word. Y hay una preocupación clara sobre dar esa libertad a empleados y colaboradores. De hecho, muchos clientes limitan funcionalidades (Copilot Studio, ciertas opciones en herramientas corporativas, etc.).

También aparecen agentes que piden acceso a todo: calendario, correo, banca… Solo el acceso al correo da respeto, y la seguridad es clave.

¿Cómo se mitiga ese riesgo en despliegues de IA?

Para nosotros es un problema y una oportunidad. Lo abordamos con metodología: gobierno de la IA y garantías de que nada sale del entorno controlado del cliente (por ejemplo, su tenant). Si los usuarios usan herramientas abiertas por su cuenta, el control es menor; si despliegas OpenAI en un entorno corporativo controlado, puedes tener trazabilidad de lo que pasa, entender por qué se genera una respuesta y poner “guardarraíles”.

Además, trabajamos con validación de respuestas, seguimiento y human-in-the-loop: debe haber validación humana y contraste para que la respuesta generada esté controlada y alineada con lo que el cliente necesita. Es una preocupación recurrente.

¿Puedes detallar un poco más el proyecto en la CNMV u otros?

En la CNMV trabajamos sobre diferentes casos de uso de IA, muchos de ellos modelos de machine learning productivos ya desplegados. Primero hicimos formación en regulación e IA responsable. Luego identificamos casos de uso y les añadimos reglas y procedimientos que deben incorporarse cada vez que se utilicen, se evolucionen o se creen nuevos.

Otro ejemplo: en el Ayuntamiento de Barcelona hicimos un proyecto para el área de Derechos Sociales. Recogimos información de ciudadanos y tratamos de clasificar grupos heterogéneos con problemas comunes, para que el personal pudiera obtener información y responder mejor a determinadas consultas. En ese ámbito, los “guardarraíles”, el gobierno de la IA y la validación de respuestas están muy controlados para evitar sesgos.

¿Hay clientes con datos bien organizados y limpios? ¿Y al revés?

Es muy común que, al preparar una propuesta, digan: “La preparación de datos la tenemos muy trabajada”. Y no es cierto: prácticamente nadie lo tiene todo perfectamente trabajado. Sin dar nombres, hay compañías con registros desactualizados o inconsistencias importantes (clientes que ya no lo son, nóminas mal mantenidas, etc.).

Esto pasa mucho por cómo se ha entendido históricamente el dato. En seguros, por ejemplo, hace años era difícil que una aseguradora supiera cuántos clientes tenía porque su visión era contrato, no cliente. Deduplicar era complejo: variaciones en apellidos, abreviaturas, acentos… y además el comercial guardando su Excel fuera del CRM.

Se habla mucho de CDP. ¿Por qué sigue siendo tendencia?

Por la heterogeneidad de fuentes. El ERP tiene una parte, pero luego están redes sociales, visitas web, app móvil… Es fácil encontrar organizaciones que no pueden asociar un lead web con un cliente. El CDP, simplificando, ayuda a deduplicar y unificar identidades: recoge datos de muchas fuentes, los aglutina, limpia y enriquece; su funcionalidad clave es la gestión de identidades.

En consultoría hay integración, inversión extranjera… ¿Cómo lo veis?

Nosotros seguimos dedicados a innovación tecnológica, y tenemos claro a qué nos dedicamos y a qué nos queremos dedicar. También tenemos claro el modelo: empezamos tres inversores y seguimos siendo tres. No se nos pasa por la cabeza recibir inversión externa, ni extranjera ni española. Movimiento en el mercado hay; nos contacta gente interesada.

Pero creemos que seguir siendo una empresa relativamente pequeña —aunque hemos crecido mucho: empezamos 13 y somos 300 y tantos— nos da flexibilidad para adaptarnos a lo que necesitan los clientes, algo que a veces las grandes no tienen. Nos preocupa perder esa flexibilidad, porque es un valor diferencial.

¿Y ser vosotros los compradores?

No nos lo hemos planteado. Normalmente una compra se hace para crecer en áreas concretas. Podría parecer atractivo asociarse con una empresa especialista en SAP, por ejemplo, pero no nos interesa que el mundo SAP forme parte de lo que hacemos, aunque pudiera facilitar negocio. Una empresa muy especialista en analítica o IA podría tener más sentido, pero no lo hemos visto.

¿Y si llega una oferta de compra?

Hoy no lo hemos planteado. Depende del cheque, de la compañía, de la situación, y de los tres socios, que somos quienes tomamos la decisión, pensando siempre en nuestra gente. Tenemos un equipo grande y muy fidelizado que, sin ser socios, es parte de la compañía. En nuestra situación actual, ni compra ni inversión


Comparte la noticia