Cómo extraer valor del dato en la AAPP
La gestión del dato en la Administración Pública tiene un potencial casi ilimitado para prestar servicios públicos más eficientes, eficaces y fiables.
En este sentido, es importante definir y adoptar un modelo de gobernanza de datos que cree las condiciones adecuadas para un sector público impulsado por los datos tanto en el centro de la Administración como dentro de cada organización y sector del sector público. La respuesta a este modelo se verá influida por factores contextuales, pero todas las organizaciones del sector público que exploren el papel de los datos y extraigan valor de ellos deben definir y comunicar claramente la finalidad que se da a los datos y los beneficios que se obtendrán.
En este camino hay ciertos riesgos, pero también claros ejemplos para, como recomienda la OCDE, establecer una hoja de ruto para ser un sector público basado en datos.
Para Santiago Sánchez, Advisory Solution Architect de Dell Technologies, los principales desafíos a los que se enfrentan las AAPP en la gestión y analítica de sus datos serían dos. Por un lado, todo lo que tiene que ver con el desarrollo de la administración digital, “que cada vez incorpora más áreas, incluyendo la identificación personal a través de dispositivos móviles, el uso extensivo de la firma digital para los cada vez más numerosos trámites en línea… y las nuevas normativas (como NIS2) que obliga a adoptar arquitecturas TI específicas”. Además, explica, que como nuevas oportunidades, dentro de las AAPP “existen organizaciones que están poniendo en marcha entornos de analítica basados en AI/ML para tareas específicas. Esto está ocurriendo especialmente en aquellas relacionadas con las fuerzas y cuerpos de seguridad del estado”.
Carlos Arbesú, Data, Analytics & AI Services Business Developer Manager HPE España, ahonda en más retos acerca del dato en las AAPP, como “evitar la multiplicidad de bases de datos convertidas en silos y la explosión de herramientas dispersas que no cooperan entre sí”. Además, la consolidación de todos los datos disponibles “que crecen exponencialmente y con nuevos formatos” es otro de estos desafíos, sobre todo porque “pueden representar grandes volúmenes a los que deben poder acceder gran número de usuarios (ciudadanos y empleados públicos) y bajo estrictos controles auditables de seguridad y privacidad en cumplimiento de las mejores prácticas, la legislación existente y las regulaciones aplicables, garantizando la “ciber-resiliencia” frente a ataques, desafíos y amenazas”. Arbesú también incluye el ofrecer una analítica avanzada basadas en las nuevas herramientas que están apareciendo (inteligencia artificial, aprendizaje automático, inteligencia artificial generativa) como un reto y una oportunidad para convertir los datos en “información que sea útil para una mejor gestión pública, entendida como simplificación de los trámites y la prestación de servicios públicos para los ciudadanos, monitorización y control de los procesos existentes y automatización orientada a la eficiencia y a liberar al empleado público de las tareas más repetitivas y tediosas”.
Como resume Jorge Vázquez, director general de Nutanix Iberia, “la pandemia nos enseñó a todos la importancia de ser más ágiles para adaptarse rápidamente a los cambios y esto ha sido especialmente importante en la administración pública, educación y sanidad. Partiendo de la necesidad de prestar un mejor servicio al ciudadano, los responsables de TI en el sector público están adoptando entornos tecnológicos más diversos, incluyendo centros de datos, edge computing y varias nubes públicas. Este enfoque ofrece la libertad de ubicar y mover cargas de trabajo y aplicaciones en función de sus prioridades estratégicas, pero también conlleva nuevos retos, como la complejidad inherente a los entornos híbridos multicloud”.
Por eso, entiende que el aumento en la diversidad de las infraestructuras —así como un mayor énfasis en el almacenamiento, la gestión, la seguridad y los servicios de datos— “está llevando a los profesionales de TI que trabajan en el sector público a buscar también modelos operativos híbridos, que unifiquen las infraestructuras privadas y públicas”.
Rafael de Celada, director de planificación estratégica de sistemas de información de la Comunidad de Madrid, considera que desde la función de la gestión operativa de los procesos y del dato “para su posterior análisis con el objetivo de la obtención de conocimiento que fructifique en toma de decisiones a nivel de macro gestión en el SERMAS” es un reto significativo. “Principalmente conseguir, y dada la dispersión en su origen e ingesta de los datos, difundir una cultura en relación con el dato y su calidad, por tanto, que los profesionales tengan esa conciencia y comprendan el significado de cualidades como la consistencia para eliminar contradicciones, que procuren eliminar al máximo los errores y se trabaje con datos precisos, cuidar los registros en su integridad, trazabilidad y algo muy importante que estén disponibles de una manera precisa”.
Una vez compendiado estos parámetros del dato, considera que también es importante la interoperabilidad “sobre todo gestor funcional, la integración en nuestros sistemas de la interoperabilidad semántica con el uso generalizado de terminologías como SNOMED CT y la extensión de su comprensión para los equipos funcionales en colaboración con equipos tecnológicos”.
“No querría pasar por alto que nuestra orientación claramente son los usuarios como pacientes en todos los entornos por eso nos parece importante el desarrollo de un componente socio-sanitario de nuestras historias clínicas, sin olvidarnos de las peculiaridades de la “nueva medicina” ( predictiva, participativa, personalizada y proactiva) con un paciente muy bien informado y con necesidades del uso de nuevas tecnologías de la información y la comunicación al servicio del usuario y que esté presente en su vida cotidiana , como podría ser el caso de la telemedicina y el uso de la Inteligencia Artificial como una herramienta más para el desarrollo de los profesionales”, sentencia.
Mientras, Andrés Prado Domínguez, director TIC de la Universidad de Castilla La Manca (UCLM), subraya entre las prioridades más altas en todo lo que tiene que ver con la gestión y gobierno de los datos a la ciberseguridad. “Es, en mi opinión, el mayor reto al que nos hemos enfrentado quienes asumimos responsabilidades en la gestión de sistemas de información desde hace años”, asegura. Tras recordar el ciberatque sufrido en la primavera del 2021 y, “pese a haber superado la situación en un tiempo y condiciones que ni nosotros mismos esperábamos el primer día, hemos visto la necesidad no sólo de incrementar las medidas de seguridad, sino de cambiar desde el diseño el concepto de ciberseguridad, concentrando esfuerzos en la resiliencia. En este sentido, el despliegue y uso de las capacidades proporcionadas por entornos cloud nos han demostrado el incremento de nuestra capacidad de resiliencia, y el proceso de consolidación de entornos mencionado anteriormente el incremento de su eficiencia”, detalla.
Pero, además, considera que , más allá de la seguridad, “el siguiente reto que visualizamos es ser capaces de capitalizar el valor del dato en servicios que puedan ser verdaderamente útiles para nuestros estudiantes. Si bien esta capitalización es cada vez mayor en el entorno propio de la gestión universitaria, incluyendo en ella la gestión académica, donde el acceso a entornos de datos e información analítica ha comenzado su extensión en la institución, tenemos un reto crucial en transformar los datos gestionados en servicios útiles para nuestros estudiantes, como en su evolución académica o consecución de competencias”. Y en este sentido apunta a la Ciencia Abierta, “un nuevo paradigma que está (r)evolucionando el sistema de la ciencia donde los datos abiertos, bajo el concepto FAIR (Findable, Accesible, Interoperable, Reusable), se constituyen en elemento clave. El despliegue de entornos de catalogación y publicación de datos científicos para su reutilización se ha convertido en una de las prioridades del sistema universitario donde desde la UCLM estamos también trabajando a través de Crue Digitalización y en colaboración con RedIRIS”.
Tecnología para gestión del dato
Como vemos, hay muchos retos, actuales y futuros, relacionados con todo el tratamiento y gestión de los datos.
El sector tecnológico intenta dar respuesta a todos estos desafíos con herramientas y soluciones, tanto generalistas como más específicas para cuestiones concretas. Aunque es labor de cada departamento decidir qué opción encaja mejor en cada modelo, la pregunta inevitable es si la tecnología es capaz de satisfacer las necesidades de las administraciones públicas.
“Las dificultades en el uso de tecnologías tradicionales como los datawarehouse nos llevó a trabajar en entornos más ágiles y flexibles. Siendo conscientes de que no es lo mismo, estamos valorando muy positivamente el impacto de la plataforma de BI en la institución”, reconoce el director TIC de UCLM, quien añade que “aún nos queda recorrido para generar capacidades basadas en la verdadera interoperabilidad de los datos pero los primeros escenarios actuales están generando unas expectativas de mucho mayor impacto”. Algo que también ocurre en docencia e investigación en lo que a campus virtuales y repositorios de datos de investigación se refiere. “Sson entornos que estamos tratando de evolucionar de manera colaborativa con otras universidades públicas e instituciones como RedIRIS”, expone.
“De todos modos, creo que no sólo debemos poner el foco en la tecnología. En mi opinión, es fundamental establecer una cultura del dato y de la información, bajo una perspectiva de democratización del acceso responsable a la información. Estrategias de gobierno y gestión de datos se han de posicionar alto en las administraciones públicas, incluidas las unviersidades, generando una cultura del dato de uso responsable pero de acceso ágil para mejorar los servicios que prestamos”, detalla.
En este punto, Rafael de Celada cree que las tecnologías que en su caso están empleando “se van adaptando a las necesidades y destaca la capacidad funcional y tecnológica de mejoras que vamos desarrollando”, subrayando “la capacidad de establecer alianzas de mejoras con proveedores” así como “la importancia de los recursos humanos y a este nivel, considero necesario la formación de equipos y áreas de Data Scientist, donde se creen espacios de desarrollo colaborativo entre profesionales del área tecnológica, los profesionales funcionales y los usuarios finales del producto ( primario como clínico-asistencial, gestores… y secundario como investigadores)”.
Un ejemplo en el que mirarse
El director general de Nutanix Iberia expone uno de esos ejemplos en los que la tecnología ha sido un gran aliado de la administración pública en la gestión del dato: el de la Gerencia de Informática de la Seguridad Social (GISS), que, “en el peor momento de la pandemia, buscó una solución para seguir prestando servicio al ciudadano ante la emergencia sanitaria por la COVID-19. Gracias a Nutanix, la GISS se dotó de una plataforma de teletrabajo robusta, que les permitió ahorrar tiempos y prevenir duplicidades, donde la seguridad y la movilidad son elementos esenciales”.
Como recuerda Jorge Vázquez, el teletrabajo no existía en marzo de 2020 en el Ministerio de Inclusión, Seguridad Social y Migraciones, “que tenía que afrontar toda la gestión de los (expedientes de regulación temporal de empleo). Gracias a la plataforma tecnológica de Nutanix y el trabajo a marchas forzadas de los profesionales de la GISS, todo el proceso se llevó a cabo en dos semanas. Se empezó con una plataforma temporal lista para 300 usuarios el primer día de implantación para, quince días más tarde, disponer de una solución que podían usar 3.000 personas. Además de Nutanix, que puso en funcionamiento la cloud privada, en el proyecto colaboraron como partners tecnológicos: Lenovo, que suministró en tiempo récord la infraestructura hardware; Citrix, que utilizó la cloud privada para desplegar los escritorios virtuales; y Telefónica y Einzelnet, que realizaron las labores de integración y operación de la solución completa”. Según sus explicaciones, la solución implantada en la GISS asegura “movilidad y ciberseguridad, con una usabilidad excelente. La instalación realizada, inicialmente con una cloud híbrida para después migrar a una privada, ha permitido verificar con un caso real la flexibilidad de las soluciones en la nube en todas sus facetas, lo cual corrobora un beneficio esencial en los procesos de transformación digital actualmente en curso: la rapidez de despliegue de cualquier solución de forma eficiente y segura”.
Mientras, desde HPE se cita el caso Pôle Emploi (5), la agencia gubernamental francesa responsable de registrar y ayudar a los ciudadanos desempleados, gestionar subsidios, ayudas financieras y beneficios sociales, hacer seguimiento del mercado laboral y actuar de intermediario entre las empresas y los demandantes de empleo. Fue creada en 2008, consolidando en un único organismo las responsabilidades de varias agencias previas, emplea a más 50.000 empleados públicos en Francia a través de 87 oficinas distribuidas por el país. Por sus manos pasan anualmente más de 13 millones de ofertas de trabajo con un promedio de 900.000 ofertas activas en todo momento y recibe más de 400 millones de visitas a su página Web, más de 300 millones de visitas a su plataforma Mobile y más de 25 millones de correos de demandantes de empleo enviando su CV e interesándose por las ofertas disponibles.
Pôle Emploi está colaborando con HPE dentro del proyecto “AI Platform” en un ejercicio que involucra a los responsables de infraestructura, de bases de datos y de analítica para crear “una plataforma de desarrollo y explotación de casos de uso de inteligencia artificial y aprendizaje automático, eficaz y escalable” que se usa para cuestiones como clasificación de los millones de correos recibidos, análisis de los CV enviados por los demandantes de empleo, determinación de posible discriminación o riesgo legal en los anuncios de ofertas de trabajo o detección de fraude en ofertas repetitivas de anuncios para el mismo puesto o por parte de mismo empleador. “Sin la plataforma y sus componentes de almacenamiento centralizado y sin la analítica avanzada basada en productos open-source suministrados por HPE, que permiten la colaboración y compartición de recursos entre los distintos proyectos en marcha, Pôle Emploi no hubiera podido escalar hasta la situación actual en la que cuenta con más de 10 casos de uso en producción, gestionados y actualizados periódicamente a través de un ciclo de vida basado en DevOps y metodología Agile. O bien hubiera necesitado muchísimos más recursos físicos y humanos. La plataforma también le ha permitido reducir sus tiempos de entrenamiento de soluciones basadas en TensorFlow, pasando de decenas de horas a decenas de minutos, y explorar soluciones basadas en PyTorch cuando antes no tenía ni la capacidad ni la infraestructura necesarias para hacerlo, y menos para hacerlo en varios proyectos en paralelo”, asegura Carlos Arbesú.
Mientras, el Advisory Solution Architect de Dell Technologies menciona el caso de la Dirección General de Tráfico con la aplicación miDGT para los dispositivos móviles. “Es un claro ejemplo de aprovechamiento de la tecnología más actual en beneficio de la administración y del ciudadano. Este debería ser el foco de la administración: Mejorar su relación con los ciudadanos a través de la evolución y simplificación de los procesos, empleando para ello los medios más actuales que estén disponibles. Hay más ejemplos, quizá menos directos pero igualmente importantes como la aplicación CL@VE o, en general, el esfuerzo por facilitar cualquier proceso a través de Internet”, destaca.