Categorías
Funcionario Sociedad de la Información

¿Se debe limitar el acceso a Internet de los empleados públicos?

Hacia 1450, Johannes Gutenberg, herrero alemán,  inventó la imprenta de tipos móviles. La invención de la imprenta supuso una revolución cultural en el mundo, acelerando el desarrollo del conocimiento al abaratar el acceso al mismo, permitiendo que los saberes de unos pocos estuviesen al alcance de muchos.

En 1871 Antonio Meucci inventó el teléfono, aunque lo llamó teletrófono, pero no pudo patentarlo por falta de dinero, y quien lo patentó, en 1876  fué  Alexander Graham Bell. El teléfono también supuso una revolución tecnológica pero de carácter más instantáneo, al permitir la comunicación bidireccional a distancia entre cualquier lugar del mundo.

A principios del siglo XX se realizó otro trascendental invento, la televisión, y el año que yo nací, 1956, Televisión Española comenzó sus transmisiones regulares desde el Paseo de la Habana. La televisión supuso el inicio del fenómeno de la difusión de información a nivel de masas, de forma similar, pero con mucha más fuerza, que las difusiones de radio anteriores.

A principios de los ochenta, en la época en que encontré mi primer trabajo, se diseñó y comercializó el primer ordenador personal de masas, el IBM PC, que inicialmente se usaba sobre todo para sustituir a las máquinas de escribir, gracias a sus procesadores de textos, que permitían corregir los documentos antes de escribirlos.

Las oficinas se llenaron de PCs y luego se fueron interconectando en Redes Locales, que permitían compartir documentos en unos servidores y comunicar de este modo unos ordenadores con otros. Se trataba de redes cerradas y aisladas entre sí, hasta que en los años 90, y gracias a la invención de la World Wide Web, estas redes locales se interconectaron de forma generalizada unas con otras por medio de la red de redes, Internet.

El Ministerio de Industria y Energía, en el que yo trabajaba, realizó su primera conexión a Internet en el año 1996. La conexión se realizó mediante una línea punto a punto de 64 Kbps, y a través de ella se ofrecían los servicios de correo electrónico y acceso web, tanto entrante como saliente.

Debido a la escasa velocidad de la línea a repartir entre nuestros más de 500 ordenadores personales, nos vimos obligados a limitar el acceso a Internet de los usuarios, mediante el sistema de listas blancas y listas negras: sólamente los usuarios que estaban en las listas blancas podían acceder a internet, y el acceso se permitía a todos los sitios web excepto a los que estaban en las listas negras, los cuales eran bloqueados por su peligrosidad o por su notoria inadecuación a las necesidades del trabajo que se realizaba en el Ministerio.

El principal problema que nos encontramos entonces en la elaboración y gestión de las listas blancas fué precisamente el criterio por el cual determinadas personas deberían estar en la lista blanca, mientras que determinadas otras, no. Al final era un criterio jerárquico, en el que el jefe de cada unidad decidía quienes de su unidad eran los que deberían disfrutar de ese «privilegio» y quienes, no. Sin embargo, nos acabábamos encontrando con otro problema, y era que en general todos los jefes acababan autorizando el acceso a Internet a todo empleado que lo solicitase, pues de una u otra forma, todos podian encontrar utilidad para esa herramienta para alguno de los aspectos de su trabajo en el Ministerio.

Afortunadamente, la disponibilidad de cada vez mayores anchos de banda a precios razonables, permitió en poco tiempo eliminar esa restricción, y a principios de los dosmiles, el acceso a internet era ya generalizado en todos los puestos de trabajo del Ministerio. A su vez, las herramientas automatizadas de filtrado consiguieron realizar la casi imposible tarea de mantener actualizadas las listas negras de sitios web indeseables.

Hoy, quince años después de aquella conexión pionera Ministerial a Internet, se publica la noticia de que el Gobierno planea restringir el acceso a Internet de los empleados públicos, «limitando su uso a aquellos puestos de trabajo que por el contenido de sus funciones deban utilizar esta herramienta«.

Desde luego, no parece que se trate de una medida de ahorro; ya hemos visto que este servicio hoy día, y sobre todo gracias a las economías de escala de las conexiones corporativas que utilizan los Ministerios y Organismos Públicos, no permite obtener ahorros significativos por el hecho de que unos empleados la utilicen y otros no. Más bien al contrario: el establecimiento de los controles necesarios y la gestión de las listas blancas, necesariamente incurrirá en un coste adicional, principalmente no tecnológico sino de los procedimientos y mano de obra necesarias para llevarla a cabo.

El objetivo de esta medida parece sin embargo ser que los gestores públicos puedan «garantizar la mayor eficacia y eficiencia posible fomentando la productividad del personal a su cargo”. Supuestamente, pues, Internet sería, con carácter general, una herramienta que disminuye la productividad del empleado público, detrayendo tiempo y energía de las labores principales que el funcionario debe realizar en su trabajo.

Más allá de las obvias dificultades prácticas de la implementación de esta medida, hay varias cuestiones de fondo importantes que se plantean en este momento, como las siguientes:

  • ¿Existen criterios y procedimientos, cualitativos o cuantitativos, de medida de la productividad del empleado público, que permitan establecer, en cada caso, si su productividad es superior o inferior por el hecho de disponer de acceso a Internet?.
  • Dicho de otra manera, ¿podemos establecer si, para un empleado público dado, que hoy día dispone de acceso a Internet en su puesto de trabajo, vamos a conseguir aumentar su rendimiento y productividad impidiéndole este acceso?
  • Reformulando de nuevo la cuestión, ¿no sería mejor que, en lugar de implantar un conjunto de políticas restrictivas sobre las condiciones y medios de trabajo de los empleados públicos, con la supuesta intención de aumentar su rendimiento, se establecieran de una vez los métodos de trabajo por objetivos, tanto individuales como de equipo, se evaluase el rendimiento en base a la consecución de esos objetivos, como prescribe el EBEP, y se dispusiesen los medios adecuados para alcanzarlos, entre ellos los medios informáticos, y específicamente los relacionados con el acceso a las redes de comunicación mundiales a través de Internet?.

Al final, Internet, como lo fué la Imprenta, el Teléfono, la Televisión, o el Ordenador Personal, no dejan de ser herramientas tecnológicas. Pero herramientas muy poderosas, que han transformado y continúan transformando la humanidad. Como todas las herramientas, se pueden usar positiva o negativamente, para el bien o para el mal. El avance social no se produce estableciendo su potencial carácter maligno y limitando su uso, sino más bien al contrario, explorando sus posibilidades y aprovechando lo mejor posible su utilización en beneficio de todos.

Categorías
Mejora de la Administración Tecnologías de la Información

Menú, a la carta, o buffet: ¿Que modelo de servicios usar en las TI de las AAPP?

Cuando empecé a trabajar, principios de los ochenta, se puede decir que prácticamente toda la informática se hacía a medida. Salvando el hardware, y el sistema operativo, suministrado por unos pocos fabricantes, la transformación de tecnología en servicio se realizaba según un modelo de «cocina casera» en el que unas unidades especializadas y misteriosas, sepultadas bajo tierra en los Centros de Cálculo, generaban nóminas y listados de cuentas bancarias.

Los noventa, de la mano de «Windows» trajeron una generalización y democratización de la informática, y también una cierta desmitificación. Además se empezaron a usar palabras como «sistemas abiertos» y «downsizing«. La cocina a la carta se hizo más seria, pero también empezaron a aparecer ofertas de «menú del día», sobre todo para las típicas necesidades de escritorio (proceso de textos, hojas de cálculo, etc.) en las que el cliente no podía pedir lo que quisiera, sino que tenía que elegir entre alguna de las opciones de mercado para una funcionalidad determinada.

En algunos casos, se llegó al menú único: Sistema operativo de escritorio, ofimática, utilidades, correo electrónico… Aunque las soluciones a medida han seguido siendo adoptadas en muchos entornos para satisfacer a los paladares más exquisitos.

Pero llegan los dosmiles, y el final de la primera década nos depara un nuevo modelo de alimentación informática: el modelo autoservicio. En ellas el cliente no se sienta en la mesa a esperar a que el camarero venga y le pregunte qué desea. En este caso, el cliente se dirige a la zona buffet del comedor donde están las ofertas y se aprovisiona directamente de cada una. Eso cuando no va al supermercado y se compra algún precocinado para comérselo directamente en casa.

Traducido al mundo de las unidades TI de las organizaciones, esto quiere decir que empieza a ser significativo y no desdeñable el porcentaje de usuarios que no son estrictamente «cautivos», es decir que no se aprovisionan, para su trabajo corporativo, únicamente de los servicios que la unidad TI, les provee, sino que contratan o simplemente usan los servicios gratuitos externos, e incidentalmente también para funciones relacionadas con su trabajo.

Y, curiosamente, esta es una tendencia que va de arriba hacia abajo: son los directivos, y el personal TI, los primeros en autoaprovisionarse y mezclar servicios corporativos con servicios destinados al uso privado. Ejemplos hay muchos: servicios de correo electrónico, de los cuales el más conocido es GMAIL. Servicios de almacenamiento como DROPBOX, etc. Servicios de socialización: Twitter, Linkedin, Facebook…

Este es el escenario con el que tienen que convivir actualmente las unidades TI de las AAPP. Ya no es posible partir de la premisa de que son los únicos proveedores para sus usuarios, y por lo tanto es necesario diseñar un catálogo de servicios que contemple la inserción de servicios de apoyo a esos accesos externos, so pena de acabar de perder el control de los usuarios (muchos de ellos VIP!!!) por completo.

Así que mi recomendación es clara: nuestro catálogo de servicios TI actual debería incluir los tres tipos de provisión de las necesidades alimenticias TI: menú, a la carta y buffet, so pena de que nuestros comensales busquen por si mismos comida precocinada o contraten algún catering o comida a domicilio de desconocida procedencia, y, Dios no lo quiera, estén expuestos a alguna salmonella que propague alguna peligrosa infección por nuestra organización.

Categorías
Administración Electrónica

¿Debería cobrar la Red Sara por los servicios que ofrece?

No hace mucho, era noticia la intención de la Comunidad de Madrid de establecer peajes en sus autovías, hasta ahora de uso gratuito, ya que «… no podemos pagar su mantenimiento«. Seguramente esto no le habrá hecho mucha gracia a todos los que las usan a diario para ir desde su domicilio en la periferia de Madrid hasta el centro, sobre todo porque hasta ahora siempre daban por supuesto de que eran «gratis» (lógicamente descontando los costes del combustible, compra y amortización del vehículo, etc.).

Esta semana, en el evento de Socinfo «Simplificación y Seguridad Jurídica en la Administración Electrónica», el Subdirector General de Programas, Estudios e Impulso de la Administración Electrónica, Aitor Cubo Contreras, al tiempo que explicaba los aspectos técnicos de la Seguridad de las aplicaciones de Administración Electrónica, ofrecía a los presentes, muchos de ellos personal TI perteneciente a los Ayuntamientos y CCAA, al explicar el Sistema de Interconexión de Registros, la posibilidad de utilizar sus servicios, bien interconectándose al sistema SIR, o bien a través de una aplicación gratuita en modo Software as a Service (SaaS) usando para ello el servicio ORVE (Oficina de Registro Virtual de Entidades Locales).

Desde luego, muchas Entidades Locales y, quizás también Comunidades Autónomas, están muy interesadas en la utilización de este tipo de servicios gratuitos, puesto que sus presupuestos han bajado notablemente en los últimos tiempos.

Este caso no es un caso puntual. Desde hace tiempo, están disponibles en la Red Sara un buen número de servicios, que desde luego entrarían en la categoría de servicios comunes, para su utilizacion por los diversos organismos de la AGE y también por el resto de Administraciones, de los cuales el más conocido es el servicio de validación de certificados de la plataforma @firma, que, según el OBSAE, en 2011 fueron más de 66 millones.

Sin embargo, la pregunta es, ¿está también la AGE, en particular la DG de Modernización administrativa, procedimientos e impulso de la administración electrónica, en condiciones de seguir aumentando la prestación de estos servicios gratuitos, y con un prespuesto también cada vez más reducido?.

Debo decir de antemano que estoy a favor de la «factorización» en las AAPP, es decir de eliminar duplicidades, y por ello la creación y mantenimiento de servicios comunes es una necesidad. Pero también tengo serias dudas sobre su viabilidad si no existe un «modelo de negocio» que soporte estas iniciativas. Este fué el peligro que ya expresamos en este blog no hace mucho en el artículo ¿Puede morir de éxito la Administración Electrónica?.

Este punto en concreto es un tema candente. Hace poco lo comentaba Joseche en su artículo Achtung!, peligro. ¿Cuál va a ser el papel de RED.ES en los servicios TIC de la AGE?, el origen del cual es la posibilidad de que sea Red.es quien diseñe, implante y ofrezca estos servicios comunes a todas las Administraciones. En este caso se plantea una posible financiación de los servicios, acudiendo a la figura de la encomienda de gestión. Puede opinarse si es una mejor o peor idea, pero la alternativa (es decir mantener el modelo de todo gratis) es para mí simplemente inviable a medio plazo y quizás también a corto plazo.

En cuanto a la posibilidad de utilizar la encomienda de gestión como herramienta que permita a cualquier órgano administrativo «contratar» el acceso y uso de esos servicios comunes, bien sea a Red.es o a otra entidad, en en cualquier caso algo que desde luego requiere un estudio en profundidad. A esos efectos, extraigo del interesante análisis La doctrina “in house providing” y las encomiendas de gestión en el ordenamiento jurídico español de Aída Mª Conde Quintano, los requisitos que debe tener toda encomienda de gestión:

a) La entidad encomendante, poder adjudicador, debe ejercer sobre su medio propio un control análogo al que puede ejercer sobre sus propios servicios.

b) La entidad encomendada (medio propio) debe, a su vez, realizar la parte esencial de su actividad con la entidad encomendante.

c) El encomendado puede ser un ente, organismo o entidad del sector público.

d) Las encomiendas de gestión han de ser de ejecución obligatoria para el encomendado, de acuerdo con instrucciones fijadas unilateralmente por el encomendante.

e) El encomendante aprobará unas tarifas en base a las cuales se calculará la retribución a percibir por el encomendado.

f) El encomendado deberá reconocer en sus estatutos o en sus normas de constitución, su condición de medio propio y servicio técnico determinando las entidades respecto de las cuales tiene esta condición y precisando el régimen de las encomiendas que se le pueden conferir.

g) El encomendado no podrá participar en licitaciones públicas convocadas por los poderes adjudicadores de los que sea medio propio, sin perjuicio de que, cuando no concurra ningún licitador, pueda encargársele la ejecución de la prestación objeto de la misma.

Categorías
Administración Electrónica

El navegador del ciudadano

Google Chrome a punto de superar a Internet Explorer
Google Chrome a punto de superar a Internet Explorer

Ya es oficial: muy pronto, a lo largo del año 2012, el navegador Google Chrome superará a Internet Explorer como herramienta más utilizada para navegar la web. Hasta el punto que por ese motivo recomiendan a Facebook desarrollar su propio navegador para luchar contra la estrategia de Google, que facilitará a sus usuarios la utilización por defecto de su red social, Google Plus.

Estamos ante una batalla más en la famosa guerra de los navegadores. La contienda empezó con el desarrollo del primer navegador, basado en Mosaic, en 1993, en los albores de Internet. Netscape Navigator fué el navegador dominante durante varios años, hasta que Microsoft contraatacó con Internet Explorer, cuya versión 4 acabó por desbancar a Netscape en 1998. La hegemonía de Explorer ha durado hasta nuestros días, aunque ahora empieza a estar amenazada seriamente.

El navegador es tan importante porque es la herramienta básica de acceso a Internet. Si hacemos un símil administrativo, diríamos que el navegador cumple la función del formulario y el bolígrafo, luego reemplazados por la máquina de escribir, que han sido usados para las relaciones formales con la Administración durante mucho tiempo. Pero hay importantes diferencias entre el papel y el bolígrafo y el navegador de internet: diferencias de carácter tecnológico y diferencias de funcionamiento que afectan a la compatibilidad, fiabilidad, rapidez y sencillez de uso para los diversos trámites, consultas y actuaciones diversas en modo electrónico que están habilitados actualmente en España en virtud de la Ley 11/2007.

Además, a diferencia del resto de medios de que dispone la Administración, el navegador del ciudadano está completamente fuera de nuestro control. Cada usuario utiliza el que prefiere, e incluso usará varios, según sus preferencias o los dispositivos que en cada momento utilice. Si la Administración Pública quiere ofrecer un buen servicio público electrónico al ciudadano, debe ser compatible con los principales navegadores utilizados, que actualmente, si hacemos caso de las estadísticas publicadas, son cuatro, por este orden: Microsoft Internet Explorer, Google Chrome, Mozilla Firefox y Apple Safari.

La compatibilidad con todos ellos puede ser fácil en determinados casos, como una simple consulta de información en modo anónimo, y bastante difícil en otros, como puede ser la realización de trámites electrónicos que precisan firma electrónica basada en certificado de clave pública. Esto es así porque las tecnologías que permiten la ejecución de código que habilita el trámite son diversas (ActiveX, Java, …) y muchas veces están ligadas al sistema operativo subyacente sobre el que se ejecuta el navegador (Windows, Linux, OSX,…)

De modo que la maximización de la compatibilidad con el navegador del ciudadano va a requerir, o bien un enorme esfuerzo tecnológico de desarrollo, validación, explotación, y soporte de todas las plataformas y sus diversas combinaciones, o bien una simplificación generalizada de la tecnología que permita compatibilizar con todos ellos en base a una factorización tecnológica.

Así por ejemplo, pensemos que la utilización de tecnologías de firma electrónica basadas en certificados de clave pública (eDNI, Ceres, …) son muy seguras, pero también complicadas y costosas. Puede ser que su uso esté justificado en determinados trámites, cuyo impacto potencial, económico o jurídico, lo precise. Pero quizás haya una gran mayoría de trámites para los que puedan tener validez tecnologías más simples, como el tradicional usuario/password, o el uso de claves concertadas, complementado si queremos con un tercer medio de verificación, como el SMS al móvil con un código temporal de un solo uso, que es la operativa utilizada actualmente por la mayoría de los bancos. De especial interés es la reciente Resolución de 17 de noviembre de 2011 de la AEAT, por la que se aprueban sistemas de identificación y autenticación distintos de la firma electrónica avanzada, que es un buen ejemplo de cómo podemos aplicar el principio de proporcionalidad entre los medios y los fines, simplificando la vida a todos, administración y ciudadano, cuando no sean imprescindible aplicar medidas de muy elevada seguridad.

Por otra parte, la estadística de navegadores señalada anteriormente ofrece un dato curioso, que es el alto grado de utilización de Safari, el navegador de Apple. Si los MAC representan menos del 8% del total de ordenadores en el mundo, ¿cómo es posible que su navegador supere el 13% de uso en la red?

La respuesta es que se debe a que Safari es el navegador usado también en los dispositivos móviles de Apple: iPOD, iPAD e iPHONE. Según Deloitte , en 2011 la venta de Tablets + Smartphone habría superado a la venta de PC. Lo cual nos lleva a la siguiente pregunta: ¿Está la Administración Electrónica preparada para dar servicio en movilidad?.

La Administración Electrónica en movilidad es un tema desde luego complejo, ya que no sólo hay que tener en cuenta el navegador y el sistema operativo, además hay que considerar las características del dispositivo (no es lo mismo un smartphone que un tablet), así como la plataforma de movilidad, de las que habrá que soportar las principales que se utilizan hoy día. Además, no debemos olvidar que los modos de uso de estos dispositivos no son los mismos que los del PC de escritorio. Para algunas cosas usamos uno, para otras cosas otro, y para otras, ambos.

eAdmon: Todos los servicios en tu manoEstamos empezando este camino también, pero cabe duda de que tendremos que recorrerlo hasta el final. Por eso son muy interesantes las iniciativas a seguir como el desarrollo de la aplicación «eAdmon, servicios en tu mano«, disponible para plataformas Android e iOS.

Categorías
Mejora de la Administración Tecnologías de la Información

El Plan Estratégico de las TI en la AGE

Decía hace poco Jordi Sevilla que, para que España sea tomada en serio, para que sea creíble, para que se puedan abordar y resolver los problemas, para que pueda reaccionar y salir del agujero en que se encuentra, para que los mercados confíen en nosotros e inviertan en nuestro país, necesita un Plan Estratégico España S.A.

Paralelamente (aunque obviamente de forma mucho más modesta), se me ocurre que en el ámbito de las Tecnologías de la Información en la AGE, tenemos una situación parecida. Actualmente, las TI forman el tejido nervioso de los Ministerios y Organismos Públicos. El funcionamiento de ese tejido nervioso es crítico para la eficacia y eficiencia de toda la AGE. Sin embargo, ese tejido nervioso no está funcionando todo lo bien que debiera. ¿Síntomas?. Veamos:

  • Las TI están perdiendo relevancia en el conjunto de la AGE, en especial tras la última reorganización realizada por el actual gobierno, en la que desapareció la Dirección General para el Impulso de la Administración Electrónica. A partir de ese momento, ha vuelto a desempeñar un una función meramente instrumental, y no potenciadora y transformadora de las Administraciones Públicas, que sin embargo sí asume en algunos notables ejemplos como la Dirección General de Innovación y Administración Electrónica del Gobierno Vasco. Lectura obligada sobre este asunto: el artículo de Andrés Nin titulado Profesionales TIC de las AAPP: Abrirnos a la sociedad para ser relevantes
  • Los presupuestos asignados a las unidades TI durante los últimos años no han dejado de descender, con bajadas en el entorno del 20% al 30% en TI en los PGE de 2012 respecto al año anterior.  Si unimos este hecho a la falta de una reorganización que evolucione el posicionamiento de las TI en la AGE, a la falta de creación de unidades factorizadoras que racionalicen y centralicen los numerosos CPD en la AGE, que provean servicios comunes, en definitiva que permitan reducir los costes manteniendo o aumentando la cantidad y calidad de los servicios, el resultado será, y ya está siendo, una paralización primero, y ulterior degradación del funcionamiento y de los servicios apoyados en TI. Sobre este tema se ha escrito mucho. Andrés Pastor lo trataba hace poco en su artículo Consecuencias de los recortes TIC en la AAPP.
  • Las TI en la AGE siguen siendo un coste, no una fuente de ahorro. No hemos sido capaces de establecer la relación directa entre cada euro que se gasta en TI y su retorno en forma de servicios concretos, internos y externos. Para conseguirlo no hay ningún secreto: bastaría con aplicar alguna de las metodologías de Gobierno TI, como COBIT, ITIL o ISO 38500 (recomiendo la lectura del artículo sobre COBIT 5 de Andrés Pastor). La imputación de costes de proyectos y servicios TI permitirían a las unidades usuarios, y sobre todo a los responsables conocer y decidir sobre la utilidad de los diversos servicios y priorizarlos, permitiendo por tanto un uso más racional de los recursos y del dinero disponible. Aún mas, al ser las TI simplemente un coste, la ecuación del ahorro es directa: rebajando el presupuesto en TI, ahorramos, sí o si.
  • Sigue habiendo un alto grado de desconocimiento y minusvaloracion de los requisitos, costes, plazos y recursos de los proyectos informáticos, lo que produce «poblados del oeste», fachadas que parecen funcionar pero que están cogidas con pinzas, funcionan gracias a un importante trabajo manual, y generan un elevado coste sobrevenido y oculto de mantenimiento y soporte que resta fondos para los verdaderos proyectos de renovación y mejora (que incluyen ahorro) de los servicios. Esta es la situación que describe ejemplarmente Jose Antonio García en su reciente artículo Como el agua: ¿son las TICs una utility?
  • Los instrumentos de contratación de los medios materiales, hardware y software, y servicios, necesarios para ejecutar los proyectos y ofrecer servicios de Administración Electrónica siguen siendo un lastre, son excesivamente burocráticos y lentos y suponen un sobrecoste que impide contratar en las mejores condiciones las tecnologías adecuadas. Carecen de la necesaria capacidad de adaptación a un mercado tecnológico en contínua evolución en el que cada vez más se está imponiendo el pago por uso. Incluso una herramienta recientemente añadida como son los Contratos de Colaboración Público Privada (CPP), potencialmente de gran aplicación para la compra de tecnología innovadora por las AAPP, tienen un uso marginal, quizás porque su uso está limitado a grandes periodos de tiempo, y en los tiempos que corren, nadie en las AAPP lo fía tan largo. A estos efectos recomiendo la lectura del clarificador artículo de (una vez más) Andrés Pastor «CPP: Colaboración Público-Privada«.
  • Se están perdiendo las oportunidades de utilizar las TI de forma eficaz para aumentar el rendimiento de las AAPP y de sus trabajadores, reduciendo al mismo tiempo costes totales. Cuestiones como la generalización del teletrabajo, cuya aplicación no sólo produciría importantes ahorros directos e indirectos en infraestructuras y gastos energéticos, sino aumentos de productividad gracias al trabajo por objetivos, no sólo no están siendo abordados, sino que se está volviendo al modelo de control de presencia por fichaje, con una llamada al «adiós al cafelito y el periódico», como si el café y las noticias fuesen la causa y no la consecuencia de una mala organización del trabajo, en lugar de diseñar una solución a la productividad del trabajador público basado en un trabajo por objetivos y no por horas. Y no pensemos que las AAPP están lastradas o limitadas a priori para aplicar las tecnologías para la mejora de su funcionamiento. De hecho, sorprende descubrir que el grado de innovación de las AAPP en España es muy superior al de las empresas, según revela Andrés Nin en su reciente artículo #innovacion en #aapp en la #UE
  • Para terminar, resulta evidente que los actuales órganos coordinadores de las TI en la AGE, en particular el Consejo Superior de Administración Electrónica, más allá de su labor informativa y normativa, han demostrado ser totalmente insuficientes para ofrecer soluciones a estos problemas. Para ello, es necesaria la creación de una figura ejecutiva, un jefe máximo de las TI en la AGE, figura que argumenta y describe Lucia Escapa en «A vueltas con un CIO para la AGE», en un artículo que trata con mucho criterio los temas anteriormente mencionados aquí.

En definitiva, ¿qué podemos hacer?. La AGE necesita un Plan Estratégico de TI, pero no parece que exista nadie competente para hacerlo, ya que nos falta la figura del #CIOAGE, que sería quien debe elaborarlo. Al no existir, sería preciso que el primer punto de ese plan fuese precisamente la creación de la figura del CIOAGE. Nos encontramos en una situación de deadlock, que es preciso romper. ¿Quien puede elaborar ese Plan Estratégico de TI para la AGE?.

No se me ocurre nada mejor que sea ASTIC, la Asociación profesional del Cuerpo Superior de Sistemas y Tecnologías de la Información quien lidere los trabajos. Sin duda hay integrantes de ASTIC plenamente capacitados, incluidos los que cito en este artículo, para colaborar en la elaboración de este Plan. Pero, además, es preciso contar con todos los agentes, técnicos y políticos, privados y públicos, implicados y afectados. Deben ser elaborado de forma transparente, abierta y colaborativa. Y finalmente debe ser elevada esta propuesta al Gobierno de España, para que la aplique en las disposiciones legales pertinentes que permitan su ejecución.

Bueno, os dejo con un tweet que leí hace poco pero del que no recuerdo su autor. Era algo así como:

«Si no puedes pagar el coste de hacer las cosas bien, espera a que te llegue la factura por hacerlas de forma mediocre».

Categorías
Mejora de la Administración RSC

La Transparencia del Conde Lucanor

La publicación del Anteproyecto de Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno, así como la oportunidad, inusual, de remitir comentarios, opiniones y propuestas al Anteproyecto de Ley, ha despertado un gran interés en la Blogosfera. Prácticamente todos los blog relacionados con las AAPP que sigo se han pronunciado ya. He leído con interés sus opiniones y son muchas e interesantes. Por ello solamente daré algunas pinceladas sobre este Anteproyecto y no me extenderé demasiado.

Para empezar, diré que me parece muy buena idea publicar el Anteproyecto y abrirlo a comentarios y propuestas. Como posibles mejoras, que tales comentarios y propuestas recibidas fuesen públicas, de forma que se pudiese saber lo que otros ya han comentado y construir sobre ello.

Por otro lado, se echa de menos la exposición de motivos. Ayudaría a entender mejor la ley, sus motivaciones, y sus propósitos. Ciertos indicios los podemos, sin embargo, obtener de la Proposición de Ley relativa a la Transparencia, Acceso a la Información Pública y Buen Gobierno que presentó el Partido Popular en Junio de 2011.

Encuentro cierta confusión entre el término «información pública» referido a la información que maneja la Administración Pública en el uso de sus competencias, y la interpretación del término referida a la información disponible públicamente, que puede ser de origen público o privado. La desambiguación la evita el Convenio del Consejo de Europa sobre el Acceso a los Documentos Públicos que en su versión inglesa habla de “official documents” y por lo tanto no se presta a confusión.

Además de los principios inspiradores del Consejo de Europa para el acceso a la información pública, creo podríamos inspirarnos en la norma ISO 26000, que describe el Modelo de Desarrollo de la Responsabilidad Social y es aplicable tanto a las organizaciones privadas como públicas, y en particular para comprender los principios de Transparencia, que es la base de la Reputación Corporativa.

Otro asunto que no me queda demasiado claro en la redacción del Anteproyecto de Ley es el referente a los datos de carácter personal. Creo que sería conveniente que se aclarasen las circunstancias en las que prevalece el derecho a la información, y aquellas en las que prevalece el derecho a la privacidad. Y en todo caso, establecer mecanismos que puedan combinar en lo posible ambos derechos.

No me gusta mucho que el silencio administrativo sea desestimatorio de las solicitudes, pues en los tiempos de escasez que corren, es fácil que se opte por esta vía cuando haya que elegir entre prestar este servicio y otros igualmente o más prioritarios, convirtiendo gran parte del potencial de la ley en poco menos que papel mojado.

Por último, y para no extenderme más, echo de menos la definición de un conjunto de indicadores de seguimiento y ejecución de la ley que sean lo más objetivos posible, y que permitan comprobar, pasado un tiempo, hasta qué punto se ha alcanzado la eficacia deseada o en su lugar se trataría de una ley simplemente anecdótica.

En fin, os dejo con una conocida fábula del siglo 14 (del libro El Conde Lucanor, de Don Juan Manuel, disponible íntegramente en la Biblioteca Virtual Cervantes), y que tiene mucho mucho que enseñarnos, también hoy día, sobre transparencia y engaño.

Cuento XXXII

Lo que sucedió a un rey con los burladores que hicieron el paño

Otra vez le dijo el Conde Lucanor a su consejero Patronio:

-Patronio, un hombre me ha propuesto un asunto muy importante, que será muy provechoso para mí; pero me pide que no lo sepa ninguna persona, por mucha confianza que yo tenga en ella, y tanto me encarece el secreto que afirma que puedo perder mi hacienda y mi vida, si se lo descubro a alguien. Como yo sé que por vuestro claro entendimiento ninguno os propondría algo que fuera engaño o burla, os ruego que me digáis vuestra opinión sobre este asunto.

-Señor Conde Lucanor -dijo Patronio-, para que sepáis lo que más os conviene hacer en este negocio, me gustaría contaros lo que sucedió a un rey moro con tres pícaros granujas que llegaron a palacio.

Y el conde le preguntó lo que había pasado.

-Señor conde -dijo Patronio-, tres pícaros fueron a palacio y dijeron al rey que eran excelentes tejedores, y le contaron cómo su mayor habilidad era hacer un paño que sólo podían ver aquellos que eran hijos de quienes todos creían su padre, pero que dicha tela nunca podría ser vista por quienes no fueran hijos de quien pasaba por padre suyo.

»Esto le pareció muy bien al rey, pues por aquel medio sabría quiénes eran hijos verdaderos de sus padres y quiénes no, para, de esta manera, quedarse él con sus bienes, porque los moros no heredan a sus padres si no son verdaderamente sus hijos. Con esta intención, les mandó dar una sala grande para que hiciesen aquella tela.

»Los pícaros pidieron al rey que les mandase encerrar en aquel salón hasta que terminaran su labor y, de esta manera, se vería que no había engaño en cuanto proponían. Esto también agradó mucho al rey, que les dio oro, y plata, y seda, y cuanto fue necesario para tejer la tela. Y después quedaron encerrados en aquel salón.

»Ellos montaron sus telares y simulaban estar muchas horas tejiendo. Pasados varios días, fue uno de ellos a decir al rey que ya habían empezado la tela y que era muy hermosa; también le explicó con qué figuras y labores la estaban haciendo, y le pidió que fuese a verla él solo, sin compañía de ningún consejero. Al rey le agradó mucho todo esto.

»El rey, para hacer la prueba antes en otra persona, envió a un criado suyo, sin pedirle que le dijera la verdad. Cuando el servidor vio a los tejedores y les oyó comentar entre ellos las virtudes de la tela, no se atrevió a decir que no la veía. Y así, cuando volvió a palacio, dijo al rey que la había visto. El rey mandó después a otro servidor, que afamó también haber visto la tela.

»Cuando todos los enviados del rey le aseguraron haber visto el paño, el rey fue a verlo. Entró en la sala y vio a los falsos tejedores hacer como si trabajasen, mientras le decían: «Mirad esta labor. ¿Os place esta historia? Mirad el dibujo y apreciad la variedad de los colores». Y aunque los tres se mostraban de acuerdo en lo que decían, la verdad es que no habían tejido tela alguna. Cuando el rey los vio tejer y decir cómo era la tela, que otros ya habían visto, se tuvo por muerto, pues pensó que él no la veía porque no era hijo del rey, su padre, y por eso no podía ver el paño, y temió que, si lo decía, perdería el reino. Obligado por ese temor, alabó mucho la tela y aprendió muy bien todos los detalles que los tejedores le habían mostrado. Cuando volvió a palacio, comentó a sus cortesanos las excelencias y primores de aquella tela y les explicó los dibujos e historias que había en ella, pero les ocultó todas sus sospechas.

»A los pocos días, y para que viera la tela, el rey envió a su gobernador, al que le había contado las excelencias y maravillas que tenía el paño. Llegó el gobernador y vio a los pícaros tejer y explicar las figuras y labores que tenía la tela, pero, como él no las veía, y recordaba que el rey las había visto, juzgó no ser hijo de quien creía su padre y pensó que, si alguien lo supiese, perdería honra y cargos. Con este temor, alabó mucho la tela, tanto o más que el propio rey.

»Cuando el gobernador le dijo al rey que había visto la tela y le alabó todos sus detalles y excelencias, el monarca se sintió muy desdichado, pues ya no le cabía duda de que no era hijo del rey a quien había sucedido en el trono. Por este motivo, comenzó a alabar la calidad y belleza de la tela y la destreza de aquellos que la habían tejido.

»Al día siguiente envió el rey a su valido, y le ocurrió lo mismo. ¿Qué más os diré? De esta manera, y por temor a la deshonra, fueron engañados el rey y todos sus vasallos, pues ninguno osaba decir que no veía la tela.

»Así siguió este asunto hasta que llegaron las fiestas mayores y pidieron al rey que vistiese aquellos paños para la ocasión. Los tres pícaros trajeron la tela envuelta en una sábana de lino, hicieron como si la desenvolviesen y, después, preguntaron al rey qué clase de vestidura deseaba. El rey les indicó el traje que quería. Ellos le tomaron medidas y, después, hicieron como si cortasen la tela y la estuvieran cosiendo.

»Cuando llegó el día de la fiesta, los tejedores le trajeron al rey la tela cortada y cosida, haciéndole creer que lo vestían y le alisaban los pliegues. Al terminar, el rey pensó que ya estaba vestido, sin atreverse a decir que él no veía la tela.

»Y vestido de esta forma, es decir, totalmente desnudo, montó a caballo para recorrer la ciudad; por suerte, era verano y el rey no padeció el frío.

»Todas las gentes lo vieron desnudo y, como sabían que el que no viera la tela era por no ser hijo de su padre, creyendo cada uno que, aunque él no la veía, los demás sí, por miedo a perder la honra, permanecieron callados y ninguno se atrevió a descubrir aquel secreto. Pero un negro, palafrenero del rey, que no tenía honra que perder, se acercó al rey y le dijo:

«Señor, a mí me da lo mismo que me tengáis por hijo de mi padre o de otro cualquiera, y por eso os digo que o yo soy ciego, o vais desnudo».

»El rey comenzó a insultarlo, diciendo que, como él no era hijo de su padre, no podía ver la tela.

»Al decir esto el negro, otro que lo oyó dijo lo mismo, y así lo fueron diciendo hasta que el rey y todos los demás perdieron el miedo a reconocer que era la verdad; y así comprendieron el engaño que los pícaros les habían hecho. Y cuando fueron a buscarlos, no los encontraron, pues se habían ido con lo que habían estafado al rey gracias a este engaño.

»Así, vos, señor Conde Lucanor, como aquel hombre os pide que ninguna persona de vuestra confianza sepa lo que os propone, estad seguro de que piensa engañaros, pues debéis comprender que no tiene motivos para buscar vuestro provecho, ya que apenas os conoce, mientras que, quienes han vivido con vos, siempre procurarán serviros y favoreceros.

El conde pensó que era un buen consejo, lo siguió y le fue muy bien.

Viendo don Juan que este cuento era bueno, lo mandó escribir en este libro y compuso estos versos que dicen así:

  A quien te aconseja encubrir de tus amigos    
  más le gusta engañarte que los higos.
Y mi moraleja es:
Gobernante: si en tu gobierno no eres transparente,
puedes acabar desnudo y deshonrado perpetuamente.
————————-
Algunas referencias de artículos sobre la Transparencia y temas afines

Categorías
Administración Electrónica Tecnologías de la Información

Planificando y Diseñando el Almacenamiento Corporativo en las AAPP

¿Qué es el almacenamiento corporativo?

El almacenamiento es una de esas tres variables fundamentales que se manejan en las infraestructuras de todo servicio TI. Las otras dos son, por supuesto, el procesamiento y las comunicaciones. El almacenamiento es esencial en tanto en cuanto contiene la información, nuestra información, la información de la organización a la que pertenecemos. Sin información no hay TI. Por lo tanto el almacenamiento es necesario para contener esa información, de forma que pueda ser procesada y transmitida a los lugares donde debe ser utilizada.

Podremos definir el almacenamiento corporativo como el espacio que se destina a almacenar la información corporativa, la cual es, primariamente los datos relacionados con el funcionamiento del negocio: ficheros en formatos variados (PDF, DOC, Audio, Vídeo, etc.), información estructurada almacenada normalmente en bases de datos relacionales, aunque también a veces en simples tablas Excel, e información no estructurada, que puede estar almacenada en sitios como por ejemplo los buzones de correo electrónico.

Existen ciertos datos que podríamos considerar en principio que no son información corporativa, como por ejemplo los sistemas operativos y aplicaciones que residen en los servidores y en los ordenadores personales (dispositivos móviles incluidos) de la organización. Si lo son o no dependerá de cuánto estén ligados a los datos que manejan, es decir, si son absolutamente necesarios para acceder y procesar la información corporativa, o la información puede accederse desde otros sistemas compatibles. En principio estos datos no los vamos a considerar parte de la información corporativa, aunque hay algunos matices, que son de detalle y no abordaremos aquí.

También vamos a considerar que la información de usuario almacenada en los PC no es parte de la información corporativa per se, en el supuesto de que la organización dispondrá de políticas que evitan que la información de negocio resida en este tipo de dispositivos.

Dada la importancia del almacenamiento, es conveniente que cada organización disponga de su propio Plan o Proyecto de Almacenamiento Corporativo, en el cual, como en todo proyecto TI debe pasar por una fase de análisis, una de diseño, y una de ejecución, procediendo periódicamente a realizar procesos de revisión y adaptación tanto a las necesidades del negocio como a la optimización de los costes y recursos necesarios.

El problema del crecimiento desmesurado

Según estudios de IDC, la tasa de crecimiento anual de toda la información digital generada, capturada y replicada en 2009 fué un 60% superior a la del año anterior. Y se espera que el tamaño de la información en 2020 sea 44 veces la de 2009, alcanzando 35 Zettabytes.

Los motivos de esta explosión de datos son diversos, pero concurrentes: el número de dispositivos digitales que generan información aumenta constantemente, sobre todo los dispositivos móviles, que actualmente ya superan en número a los PC; también se espera una explosión de dispositivos no atendidos inteligentes, los cuales a su vez generan cada vez más información, y en ambos casos información que consiste en muchos ficheros no excesivamente grandes, y con contenidos poco estructurados. Por otro lado los ficheros de audio y vídeo generados por los usuarios son cada vez de mayor tamaño porque se generan y almacenan con mayor calidad; y para terminar, es necesario conservar todo lo existente (¿quién toma la decisión de que algo se puede borrar?), que se añade a lo nuevo.

El enorme crecimiento de toda esta masa de información genera además otros problemas y necesidades, como los sistemas de indexado y búsqueda que nos permitan analizar y encontrar la información deseada (BIG DATA), y las necesidades de protección de la información (privacidad, confidencialidad, autenticidad, etc.)

A estas circunstancias, conocidas desde hace tiempo, se añade un hecho nuevo: los presupuestos disponibles para las unidades de TI son cada vez más ajustados, particularmente en el caso de las Administraciones Públicas. Como consecuencia, si la tasa de crecimiento de la información generada es del 60%, la tasa de crecimiento de los sistemas de almacenamiento es inferior, a pesar de que el precio por TB es constantemente decreciente. Según estimaciones de IDC, en 2020, el 60% de la información generada no podrá almacenarse, pues no existirá espacio de almacenamiento suficiente.

¿Cómo abordar este problema?. Desde luego ya no es posible mantener una política de crecimiento vegetativo del almacenamiento corporativo, aprovisionando el espacio a medida que se vaya necesitando, sino que habrá que establecer un conjunto de políticas que hagan uso de las tecnologías y servicios disponibles para maximizar el espacio disponible para los servicios de almacenamiento y recuperación, al tiempo que minimizamos el coste. Para ello es imperativo diseñar y aplicar nuestro Plan de Almacenamiento Corporativo.

¿De qué estamos hablando?. Dame un ejemplo.

Supongamos el siguiente caso:

Un archivo histórico tiene un conjunto de documentos (unos 10.000) de bastante antiguedad (algunos de más de 100 años) que son consultados con cierta frecuencia para fines de investigación. Cada documento tiene una media de unas 10 páginas, que se componen de texto manuscrito y algunos gráficos. Se pretende digitalizar los documentos, de forma que puedan ser consultados electrónicamente por los investigadores, evitando de este modo su deterioro. También se pretende publicar algunos los documentos en la web, en resolución reducida, en la página del museo histórico de la entidad, así como su venta en la tienda electrónica, en formato de alta calidad, a posibles interesados.

Analicemos el problema en términos de almacenamiento. En primer lugar, estamos hablando de unas 100.000 páginas de información, que han de digitalizarse y almacenarse en modo imagen para su posterior procesamiento.

¿Cuánto espacio ocupará toda esta información?. En primer lugar, las DIRECTRICES PARA PROYECTOS DE DIGITALIZACIÓN del Ministerio de Cultura (2002) recomiendan almacenar los archivos originales en formato TIFF sin compresión, aunque no ofrece orientación sobre la resolución (DPI) a utilizar. En cambio, la Norma Técnica de Interoperabilidad de Digitalización de Documentos indica que la resolución mínima a emplear será de 200 píxeles por pulgada. Sin embargo, en este caso, al tratarse de documentos manuscritos y dibujos a mano alzada, se ha optado, para asegurar la legibilidad y la conservación de los detalles, digitalizar a 300 DPI. El tamaño de una página DIN-A4 digitalizada a 300 DPI y 24 bits por punto es de unos 25 Megabytes.

Tenemos que prever por tanto al menos 100.000 x 25 MB = 2,5 Terabytes de espacio para las imágenes originales. También hay que almacenar las imágenes procesadas, y puesto que los ratio de compresión superan fácilmente 10:1 supondremos que bastará con 250 Gbytes. Y además necesitamos espacio para la base de datos donde catalogar e indexar toda la información. En total, podemos calcular que el espacio aproximado necesario es de unos 3 Tb.

Si almacenamos toda esta información en nuestra SAN corporativa replicada de altas prestaciones, cuyos precios por TB rondan los 10.000 euros, el precio del almacenamiento necesario para este proyecto puede alcanzar los 30.000 euros. ¿Está justificado?. Quizás no. Pero, ¿es necesario usar una calidad de almacenamiento tan alta para toda la información utilizada en este proyecto?. Lo sensato es categorizar la información según sus características y tipo de utilización, y luego utilizar el tipo de almacenamiento apropiado para cada caso.

Así, por ejemplo, una solución podría ser la siguiente:

Información Almacenamiento (TB) Tipo de almacenamiento Coste/TB Coste total
BBDD 0,1 Premium 10.000,00 € 1.000,00 €
Imágenes procesadas 0,25 Standard 2.000,00 € 500,00 €
Imágenes originales 2,5 Low Cost 200,00 € 500,00 €
TOTAL 2.000,00 €

¿Porqué hemos realizado estas elecciones?

  1. La base de datos precisa un sistema de almacenamiento que sea de altas prestaciones (discos FC o discos de estado sólido SSD), no sólo para las funciones propias de utilización y gestión de los expedientes, sino porque la información contenida está enlazada con otros sistemas corporativos a través de Web Services. Además, precisa de alta disponibilidad pues está integrado en el sistema corporativo replicado en un nodo lejano que asegura la continuidad del negocio.
  2. Las imágenes procesadas se acceden regularmente por los usuarios y por varios sistemas enlazados. No obstante, los tiempos de acceso no son críticos, se espera disponer del archivo en cuestión de segundos, por lo que podemos usar discos SATA, más baratos, aunque si precisa redundancia RAID para cubrir posibles averías. No se precisa replicación en vivo ya que la recuperación frente a desastres se realiza mediante restauración de las copias de seguridad.
  3. Las imágenes originales se generan una vez y se almacenan, y se recuperan muy raramente. Los tiempos de acceso admisibles son los de tratamiento manual: se miden en minutos. Esto nos permite acudir a almacenamiento terciario (DVD/cintas DLT) o bien a servicios de almacenamiento en la nube privada, en su caso.

Al realizar este escalado de almacenamiento, basado en la categorización de la información, hemos conseguido pasar de un coste de almacenamiento inicial de 30.000 euros a unos 2.000, es decir, hemos dividido por 15 el coste.

Lógicamente, no es un análisis en profundidad. No hemos entrado en los necesarios recursos de gestión y administración, ni en los costes de mantenimiento. Las interrelaciones con otros sistemas no se han analizado, aunque todo ello sí debería entrar en un estudio de caso real.

Diseñando el Plan de Almacenamiento Corporativo

Así pues, para el diseño del plan seguiremos los siguientes pasos:

  1. Recopilación de la información sobre los diversos tipos de información de que dispone la organización, sus características, su tamaño, su propietario, y sus usuarios.
  2. Categorización de la información en términos de valor para el negocio, evaluando aspectos como el rendimiento, disponibilidad, rendimiento, confidencialidad, siempre en colaboración y de acuerdo con el propietario de la información. Puede resultar de gran ayuda aplicar, donde se pueda, el Esquema Nacional de Seguridad.
  3. Análisis de las alternativas de almacenamiento para cada tipo de información, partiendo siempre de las infraestructuras disponibles y del presupuesto, así como de las prioridades establecidas por el negocio para los diversos sistemas de información y servicios TI.
  4. Diseño del plan, que especificará las soluciones adoptadas para cada tipo, su evolución a lo largo del tiempo, el diseño de los servicios de almacenamiento, de las medidas específicas de seguridad, confidencialidad, disponibilidad, rendimiento, la interoperabilidad interna y externa necesaria para la información (Ficheros de cada tipo, BBDD, webservices, etc.). El diseño debe contemplar también las políticas de copias de seguridad y retención de la información, las políticas de borrado y eliminación, y las medidas necesarias para la cobertura de los Planes de Contingencias y la Continuidad del Servicio.
  5. Implantación del plan por fases (podrían coincidir con anualidades), incluida la contratación o adquisición de infraestructuras (HW y SW) o servicios, la implantación de los mismos, la puesta en servicio, la obtención de metricas para la evaluación del funcionamiento y la resolución de incidencias y problemas que pudieran surgir.
  6. Y por supuesto la Revisión periódica del plan, comparando los resultados esperados con los obtenidos, revisando los requisitos cambiantes del negocio y la evolución de las soluciones de almacenamiento disponibles en el mercado, así como los presupuestos disponibles.

¿Qué nos depara el futuro?

Hemos planteado aquí el desarrollo de un Plan de Almacenamiento Corporativo de corte bastante clásico que debería tener una vigencia aproximada de una legislatura, es decir, unos cuatro años. Sin embargo, existen cuestiones a medio y largo plazo que pueden incidir en nuestro plan, obligándonos a revisarlo o cambiarlo. Entre ellas pueden estar:

  • Evolución de las soluciones tecnológicas: Las necesidades de almacenamiento están produciendo una constante evolución de las soluciones tecnológicas disponibles, muchas de ellas ya ofertadas, como el aprovisionameinto dinámico, la deduplicación on-line, la estratificación automática en función de parámetros configurables, la virtualización en todo o en parte de los sistemas, etc. Es obvio que los diseños de soluciones de almacenamiento de un momento concreto pueden resultar obsoletos poco tiempo después si surgen innovaciones tecnológicas rompedoras, y por ello el Plan debe estar también en fase de contínua adaptación tecnológica.
  • Evolución de los servicios de almacenamiento: como contrapartida o alternativa a las soluciones de almacenamiento autogestionadas, surgen cada vez con más fuerza los servicios de almacenamiento «en la nube»,  bien sean en «nube pública» o en «nube privada». Con independencia de que estas soluciones tienen todavía una aplicabilidad muy limitada para las necesidades de almacenamiento corporativo en las AAPP, la intensa presión hacia la reducción de costes y del presupuesto hará que estas soluciones cobren cada vez más importancia. Habrá que estudiar su aplicación siempre que sea posible manteniendo los objetivos y requisitos de negocio y sin comprometer las funciones esenciales que deben realizar las AAPP.
  • Modificaciones organizativas, que podrían producir o habilitar iniciativas como una hipotética Concentración de CPD de la AGE: Si en algún momento el Gobierno decide acometer este proyecto, lógicamente el Plan de Almacenamiento debería ocupar un lugar principal, y para su diseño se debería contar con las potenciales unidades u organismos usuarios del mismo.
Categorías
Funcionario

222

«222… la galleta que se pide por su número»

Quizás algunos de los lectores recuerden este anuncio de los años sesenta, los años de la explosión publicitaria, con unos eslóganes inocentes y pegadizos. Bueno, en este artículo, un tanto especial y personal, haremos uso de ese eslogan, con permiso de las galletas Solsona. El porqué… lo veréis a continuación.

200 artículos

Según mi «asesor personal de WordPress», este será mi artículo 200. Una barbaridad. Si me hubiesen dicho que iba a llegar a escribir doscientos artículos, no me lo hubiese creído, desde luego. Dicen que en la vida de un hombre (o mujer) hay que hacer tres cosas: plantar un árbol, tener un hijo, y escribir un libro. Lo primero es relativamente fácil. Lo segundo ya es un poquito más complicado, aunque visto desde ahora es la aventura más emocionante que me ha tocado vivir. Pero escribir un libro es, de las tres cosas, lo que queda más alejado de las posibilidades de los mortales corrientes.

¿Es equivalente escribir 200 artículos en un blog a escribir un libro?. Sí y no. Si fuese por letras, frases y párrafos, si fuese por páginas, desde luego lo sería. También hay algunos paralelismos. Suele haber un hilo conductor, relacionado con la temática del blog. También hay un hilo temporal, formado por la escala de tiempos en que van saliendo los artículos.

Pero la verdad es que un blog no va de eso, o si me apuran, es una experiencia distinta, ya que en el blog es fundamental el aspecto social. No sólo la participación de los comentaristas, sino la presencia de una mucho mayor masa de lectores «anónimos». Y otro factor distinto es la inmediatez. El hecho de que los escritos son leídos horas después de su aparición, propagados por la red mediante ecos de personas o máquinas que reenvían filtran o reaccionan de alguna manera a la novedad.

Reconozco que el primer impulso que me llevó a escribir en un blog fué simplemente experimentar con estas herramientas. El segundo fué contar mi visión personal de ciertas ideas o situaciones con las que me enfrento cada día. Y el tercero es el impulso social, el deseo de exponer una reflexión y comprobar cómo era tomada por aquellos que se tomaban la molestia de leerlo, y en algunos casos, de comentarlo.

Ahora bien, no sé para los demás escritores, pero para mi, escribir en el blog a veces es como andar por el filo de una montaña, con abismos a ambos lados, intentando mirar hacia adelante y avanzar, pero con mucho cuidado de no dar un paso en falso.

Algunos escritores, funcionarios como yo, escriben con seudónimo. Quiero creer que es más fácil, o al menos menos arriesgado, pues las palabras comprometen más a aquel que las firma con su nombre y apellidos, y por escrito. En todo caso es una elección que tomé hace ya tiempo. Pero esa decisión, como todas las decisiones, es revisable.

Por otro lado, ese mismo aspecto potencia el poder del blog, el poder de difundir las ideas y sobre todo de plantear las reflexiones, para que otros las continúen. Algunos lo harán en público y otros en privado. A algunos les gustarán, y a otros no. No busco conseguir un fin concreto con esta actividad, más allá de sentirme un poco menos solo al compartir mis pensamientos con mis lectores que son en su mayoría también compañeros de esta aventura que representan trabajar en tecnología para mejorar la Administración.

20 años

El 10 de enero de 1992, se publicó en el BOE la convocatoria de pruebas selectivas para el ingreso en el Cuerpo Superior de Sistemas y Tecnologías de la Información de la Administración del Estado. El año de 1992 fué en el que se desarrolló todo el proceso selectivo, culminando el 11 de diciembre de 1992, con la resolución del Tribunal en la que se decidieron los opositores aprobados.

1992 fué, además del año de la Expo 92 y de las olimpiadas, el año en que nació mi primer hijo y el año en que me presenté y aprobé las oposiciones a funcionario TIC. 1992 fué un año desde luego crucial en mi vida.

Hace 20 años ya.

Ayer oí a Felipe Gonzalez hablando con Jordi Évole, en el programa Salvados. Felipe comentaba que, después de 14 años en el gobierno, tras dejarlo nunca tuvo síndrome de abstinencia, es más, cuando dejó de gobernar, tuvo «un sentimiento de liberación del diablo».

Esta claro que no son situaciones comparables. Tampoco es este el sitio ni el momento de hacer balance de esos 20 años, plagados de situaciones, historias y anécdotas (¿veis?, ese sí podría ser un buen tema para un libro). Pero visto desde la distancia, sí me gustaría hacer algunas reflexiones de estos 20 años de carrera.

Cuando entré en la Administración, las TIC no eran ni una remota sombra de lo que son hoy en día. Entonces, en los sitios mejor preparados (que no eran muchos) había grandes ordenadores corporativos «mainframes», con aplicaciones casi todas en modo Batch, y muy importante, con el que se confeccionaba la nómina. Empezaban a surgir algunas redes locales, a velocidades de unos pocos megabit por segundo, por supuesto desconectadas del mainframe. Había unos aparatos «PC» con Wordperfect que servían para escribir cartas y corregirlas, sin necesidad de typex. Windows 3.11, el primer sistema de Microsoft preparado para redes, estaba justo saliendo. Internet prácticamente no existía, salvo en universidades y centros de investigación. Los pocos servicios comerciales electrónicos existentes eran propietarios, como Compuserve, del que yo era abonado.

Desde luego, el mundo ha cambiado mucho desde entonces, y ese cambio viene representado sobre todo por la explosión de Internet y por todo lo que ello implica.

Pero la Administración, al menos la que percibo desde mi rinconcito de funcionario, ha cambiado bastante poco. Si, tenemos la Administración Electrónica, que nos permite realizar el trámite desde casa, y en cualquier horario. Pero los trámites vienen siendo más o menos los mismos, y consisten en las mismas operaciones. Ni siquiera han cambiado visiblemente los plazos de realización de la mayoría de los trámites.

Las estructuras internas de la Administración son muy parecidas a las que había hace 20 años, y también es muy parecido el concepto con el que se define el servicio público. Sólo ha cambiado el medio, el uso masivo de la tecnología para movilizar la Administración, pero con muy pocos efectos prácticos que se trasladen en una mayor eficacia y eficiencia, o en la aparición de nuevos servicios públicos, nuevos en el sentido de cómo se utilizan y cómo afectan a la vida de la gente.

Me gusta pensar que es posible que mi trabajo sea útil para la sociedad. Que no soy un mero comprador de hardware y software y contratador de servicios para desarrollar aplicaciones de tramitación o de ventanilla electrónica. Que detrás de esas lineas de internet, detrás de esos PC o MAC, hay personas que esperan que les atendamos, que les resolvamos su problema o necesidad, que lo hagamos rápido y seguro, y barato, porque el ciudadano nos está pagando, y espera que gastemos su dinero, el dinero de todos, de la mejor manera posible.

Pero yo todo esto lo veo muy difícil si no comienza una verdadera transformación, una transformación desde dentro, de la forma en que se plantean los problemas y de la forma en que se resuelven. Me gustaría que se trabajase más en equipos orientados a proyectos que en organizaciones jerarquizadas lentas y costosas. Me gustaría que se analizasen los servicios y la forma en que se prestan, sus costes reales y el valor que aportan al ciudadano, estableciendo las prioridades que permitan aprovechar mejor los recursos y fondos disponibles. Me gustaría que se aprovechase mejor el talento y el conocimiento de las personas que trabajan para la Administración, evitando inventar la rueda una y otra vez, y que se les diese al menos el reconocimiento apropiado a su trabajo.

… y 2 visiones

Mi carrera profesional se compone de dos etapas, la primera de ella realizada en la empresa privada como ingeniero, la segunda en la administración  como funcionario. Tengo por tanto y conservo dos visiones sobre mi trabajo. Una es la visión del técnico, del constructor. La otra es la visión del abogado, del regulador. No son tan distantes ni tan contrapuestas como podría parecer. De hecho, los que conocen la ingeniería de telecomunicaciones, saben que la esencia del funcionamiento de las redes es la existencia de normas, que nosotros llamamos protocolos, que permiten el entendimiento de dispositivos y sistemas de muy diversa procedencia y manufactura. El entendimiento nunca es automático e infalible: por eso es necesaria la interoperabilidad. Pero las normas permiten conseguir que las cosas funcionen.

Así pues me siento bastante cómodo aplicando métodos de análisis «ingenieriles» a los procedimientos administrativos, al diseño de los procesos necesarios para el tratamiento de los diversos trámites, incluso me siento cómodo diseñando las regulaciones apropiadas para la prestación de los servicios.

Además no creo que sea bueno establecer a priori prejuicios sobre los trabajadores de la administración en función de su formación universitaria o su cuerpo de ingreso. Cada persona tendrá unas capacidades y habilidades y por supuesto unas preferencias sobre los tipos de actividades en las que mejor se desenvuelve. Pero si algo he aprendido es que el buen funcionamiento de las organizaciones, de los servicios, precisa de la colaboración de todos, cada uno aportando su punto de vista, que lógicamente no siempre será el mismo, ¡y mejor que no lo sea!. La diversidad es necesaria, hay que fomentarla y aprovecharla.

En fin, creo que por hoy ya es bastante. En próximos artículos abordaremos de nuevo cuestiones más concretas, menos personales, y más de actualidad.

Hasta pronto.

Categorías
Mejora de la Administración Sociedad de la Información

Porqué hacemos campaña, porqué necesitamos #1OdataLicenseEU

Buenos días. He decidido apoyar la campaña de Andrés Nin en favor de una Licencia Única Europea de Reutilización de Información del Sector Público, motivo por el cual reproduzco en mi blog el siguiente texto:

Campaña #1OdataLicenseEU

El sector público producen en su actividad cotidiana datos e información haciendo uso de los impuestos de los ciudadanos. Los datos e información generados por el sector público puesto en manos de terceros puede dar lugar a nuevos productos y servicios, dando lugar al concepto de reutilización de la información pública. Dentro del ámbito de reutilización de la información pública no está incluida la información de carácter personal.

La campaña #1OdataLicenseEU tiene como objetivo que las condiciones de uso o licencia para la reutilización de la información pública sean uniformes en el marco de la Unión Europea, teniendo como base el principio de autorización generalizada de reutilización. El momento de la campaña viene marcado por estar en proceso de revisión el marco legal de reutilización de la información del sector público en la Unión Europea, siendo un momento óptimo para poder incluir en el mismo el concepto de licencia única de reutilización de la información pública.

Una licencia única de reutilización de la información pública en el ámbito de la Unión Europea:

  • Daría seguridad jurídica al sector de los infomediarios (reutilizadores), favoreciendo su actividad y la creación de productos y servicios haciendo uso de todas las fuentes de información pública a su disposición.
  • Favorecería la transparencia y la eficiencia del sector público al crear un entorno común para evaluar el sector público a partir de la información que genera

En definitiva una licencia única para la reutilización de la información del sector público, sería un habilitador de la actividad empresarial en el mercado de los contenidos digitales y al mismo tiempo daría lugar a un sector público más eficiente.

Situación actual

La reutilización de la información pública en el ámbito de la Unión Europea está regulada por la Directiva 2003/98/CE. La Directiva 2003/98/CE tiene como núcleo el principio de no discriminación entre los potenciales reutilizadores de la información del sector público, obligando a ofrecer ésta a todos los infomediarios bajo unas mismas condiciones. No varía el derecho de acceso a la información pública, materia propia de cada Administración Europea, pero si crea un primer marco jurídico para obtener un valor añadido de toda la información pública que es accesible.

La Directiva 2003/98/CE es transpuesta en cada uno de los paises de la Unión Europea, siendo la base del marco legal mínimo para estos. En España, la transposición de la Directiva 2003/98/CE se dió lugar a la Ley 37/2007.

Las principales limitaciones del actual marco legal de reutilización de la información en la Unión Europea es la discrecionalidad sobre la decisión de qué información es reutilizable y bajo qué condiciones. La Directiva da a las instituciones públicas un margen de decisión amplio sobre qué información pueden reutilizar terceros, con que fines y bajo que condiciones. Las consecuencias de estas limitaciones son una inseguridad jurídica amplia, tanto para la reutilización de la información en la creación de productos y servicios como para su divulgación con fines de hacer más transparente la actividad del sector público.

En España, dentro de la Administración General del Estado el Real Decreto 1495/2011 límita el ámbito de discrecionalidad del sector público sobre la información que hace accesible. De un lado, otorga una autorización generalizada de reutilización de la información. De otro lado, fija unas condiciones comunes a la reutilización de la información reflejadas en una licencia común a todas las intituciones de la Administración General del Estado que está incluido en el mismo Real Decreto. Este Real Decreto no es de aplicación al sector público de Comunidades Autónomas ni Entidades Locales.

Revisión de la Directiva 2003/98/CE

En Diciembre 2011 la Comisión Europea inició el proceso de revisión de la Directiva 2003/98/CE. La propuesta de la Comisión Europea incluye el principio de autorización generalizada de reutilización de la información pública. No incluye sin embargo una licencia única aplicable al sector público de cualquier Estado miembro.

La autorización generalizada de reutilización de la información pública es una condición necesaria, pero no suficiente para dar seguridad juridica a la reutilización de la información pública. La cesión no exclusiva de los derechos de propiedad intelectual, la posibilidad de combinar información de con origen en distintos Estados miembros dentro un nuevo producto o servicio o el ámbito de responsabilidad sobre los resultados de la reutilización, son algunos de los aspectos que quedarían difusos de no existir una licencia única para el marco de la Uinón Europea. Jose Luis Marín da una visión práctica de qué supone para un infomediario la inexistencia de una licencia única.

Por tanto, aun siendo valiente la propuesta de revisión de la Directiva 2003/98/CE realizada por la Comisión Europea, puede no conseguir sus objetivos de crear un mercado único para la reutilización de la información pública. El proceso de elaboración final de la revisión de la Directiva por parte del Consejo Europeo (nuestros gobiernos) y Parlamento Europeo (nuestros representantes) es un momento óptimo para empujar en la dirección de crear una licencia única para la reutilización de la información pública en la UE.

La campaña #1OdataLicenseEU no busca que la licencia para la Unión Europea sea una concreta de las muchas licencias existentes (Creative Commons, Opendata License de UK, Aviso legal del Real Decreto 1495/2011, ColorIuris, …). Sólo buscamos introducir en el debate la definición de una licencia común, sea cual sea esta, bajo el principio de autorización generalizada de la información. Lo importante no es cual sea, sino que sea única.

Lo que está en juego

Europa vive actualmente una crisis económica sin precedentes. La reutilización de la información pública puede contribuir a crear nuevas fuentes de actividad económica y riqueza. La Comisión Europea estima un mercado potencial de 40 billones de Euros anuales en la Unión Europea en un estudio reciente. En España, es ya una realidad una actividad económica entre 550 y 650 millones e Euros anuales de acuerdo a un estudio realizado en Proyecto Aporta, aproximadamente una cuarta parte de la actividad económica potencial estimada por la Comisión Europea. Estamos hablando de un volumen de actividad económica equivalente la de los servicios de roaming de telefonía móvil.

Una licencia única de reutilización de la información del sector público en la Unión Europea puede ser la palanca para reducir la diferencia entre el potencial de la reutilización y su realidad actual.

Categorías
Administración Electrónica

El proyecto Alfa: ¿qué podemos aprender?

La OEPM presenta la candidatura del proyecto Alfa a los premios ASLAN 2012. La documentación que acompaña al proyecto es el artículo que escribimos para su presentación al Tecnimap 2010, titulado «El proyecto ALFA – Gestión de invenciones de la Oficina Española de Patentes y Marcas«. Este documento se escribió a principios de 2010, hace casi ya dos años. Han cambiado cosas importantes, entre ellas, que el sistema ha sido puesto en marcha y lleva ya funcionando más de un año. Por ello, como revisión del desarrollo de las etapas finales de la concepción y las iniciales de su alumbramiento, me he decidido a escribir este artículo.

Érase una vez…

El sistema Alfa se concibió para reeemplazar el anterior sistema de información operativo en la OEPM para la Gestión de Invenciones: SITADIN. Este sistema databa de mediados de los 80, y se desarrolló sobre una plataforma Bull GCOS8 y fué programado principalmente en COBOL y PACBASE. 25 años son una vida larga para un sistema de información. Cuanto un sistema de información tiene tal edad, suceden varias cosas un tanto inusuales, sobre todo para los que estamos acostumbrados de cambiar de sistema operativo cada 5 años:

  • Muchos usuarios han crecido con el sistema. Por tanto han adaptado su mente al funcionamiento del sistema. Querrán que el nuevo sistema funcione «como el antiguo».
  • Los constructores iniciales del sistema puede que ya no estén con nosotros. Parte del conocimiento necesario para entender su funcionamiento ya no lo tenemos, o es muy difícil de extraer de las miles y miles de líneas de código.
  • Los nuevos sistemas han ido creciendo a su alrededor, como una especie de capas tecnológicas estratigráficas sucesivas, parecidas a las que vemos en las excavaciones arqueológicas.
  • La interrelación y comunicación entre el antiguo sistema y los nuevos se realizó con los medios disponibles en la época, en muchos casos manuales, en otros por los clásicos procesos Batch. La integración on-line de los procesos ha llegado mucho más recientemente. A pesar de ello, las necesidades de comunicación e intercambio de datos han aumentado fuertemente en la última década.

Hay que reconocer que las circunstancias hacen que la elaboración de un proyecto de estas características es sin duda costosa. A la dificultad técnica de tratar de emular funciones antiguas con nuevos sistemas, se añade la dificultad cultural la resistencia al cambio. Quizás ello explica que el proyecto Alfa no fué el primer intento de modernizar el sistema de gestión de Invenciones. Hubo otros intentos antes, pero fracasaron. Solamente cuando se convenció todo el mundo de la necesidad de reemplazarlo, cuando apareció la urgencia del cambio, fue posible acometerlo con éxito.

El diseño de la transición

Una cuestión importante es el diseño de la transición. Generalmente, hay dos aproximaciones a la transición. La primera es una transición progresiva, con los dos sistemas solapándose en el tiempo, y trasladando progresivamente las funcionalidades del antiguo al nuevo, hasta que toda la funcionalidad está transferida. La segunda es la denominda comunmente migración, en la que el antiguo sistema permanece completamente operativo hasta que el día D se detiene el servicio, se realiza una migración de los datos existentes al nuevo sistema, y una vez finalizada se arranca el nuevo. En Alfa se optó por esta segunda opción.

Generalmente, la transición progresiva es menos arriesgada, permite una mejor acomodación de los usuarios al nuevo sistema, permite arreglar posibles desperfectos y funcionalidades a medida que se avanza, y tiene una más fácil vuelta atrás, en caso de problemas graves. Sin embargo, no siempre es posible, por problemas de compatibilidad técnica. También es más cara y requiere más recursos, pues supone mantener durante un tiempo ambos sistemas en marcha, así como los subsistemas que sincronizan los datos entre ambos, que luego además serán descartados una vez finalizada la transición.

La migración «de una vez» tiene por contra la ventaja de que es más rápida, necesita menos recursos, por lo que es más barata, y reduce el peligro de una vuelta atrás por presiones de los usuarios a los que no les gusta el nuevo sistema. Sin embargo es más arriesgada; requerirá por lo tanto de un mayor y más intenso periodo de pruebas; no será posible probar en real el sistema antes de su entrada en explotación, porque de manera inevitable algunas cosas no se podrán probar bien, y surgirán errores y problemas que habrá que corregir después, con el sistema ya en marcha.

La integración

El sistema de Gestión de Invenciones constituye uno de los dos núcleos de negocio de la OEPM (el otro es la gestión de Signos Distintivos) y fué el primero en automatizarse. Como vimos antes, los sistemas periféricos, al principio manuales, fueron automatizándose también, pero con un bajo nivel de integración, muchas veces manual. De hecho, uno de los principales objetivos de Alfa era lograr esa integración de los sistemas de información y por tanto de los procesos, obteniendo netas ventajas des de el punto de vista de la calidad de la información, y de la agilidad de los procesos, lo que redunda entre otros en el acortamiento de los plazos que la OEPM logra en la tramitación de las solicitudes. La integración también ha permitido simplificar y acortar la publicación del BOPI, eliminando la necesidad de un postprocesado de la información que, anteriormente a Alfa, se contrataba externamente, con el consiguiente ahorro.

Pero la integración no es fácil. De hecho, durante la fase de desarrollo, y debido a dificultad o incluso inexistencia en algunos casos de plataformas de preexplotación de los sistemas con los que se había de integrar, y en otros de la carencia o inmadurez de estándares en los interfaces, los desarrollos se hicieron sobre interfaces simulados. Eso permitió avanzar a buen ritmo las labores de desarrollo, pero retrasó notablemente la última fase del proyecto, la fase de integración. En algunos casos, ni siquiera estuvo claro, hasta fases muy avanzadas del proyecto, el reparto de funciones a ambos lados del interfaz.

Otro problema derivado es que finalmente no se han logrado todavía definir de forma estandar y unívoca todos los interfaces. Esto hace, por ejemplo, que existan diferentes formatos para intercomunicar unos y otros sistemas con Alfa, aunque intercambien la misma información.

De modo que, para mí, la moraleja es clara: los interfaces son una parte integral de un proyecto ya desde el principio, al igual que es el diseño funcional. No podemos minimizar ni tampoco dejar de definir, diseñar y probar los interfaces para el final del proyecto, so pena de encontrarnos con retrasos inesperados, sobrecostes y problemas de interoperabilidad que pueden persistir mucho tiempo después de que el sistema ha entrado en explotación.

Los usuarios y las especificaciones funcionales

Cuando un proyecto como éste se extiende durante tanto tiempo, se parte de unas especificaciones, más o menos definidas, con las que se diseña. Pero es inevitable que los requisitos iniciales vayan cambiando, del mismo modo que avanza la tecnología. Esto, si no es que aparecen cambios normativos de obligado cumplimiento, como fué la ley 11/2007.

Otra cosa que también sucede es que es muy dificil conseguir de los usuarios una especificación definida y detallada. Incluso cuando se consigue, puede suceder también que la interpretación no era la correcta. También sucede que determinados usuarios (determinado perfil de usuario) tiene unas necesidades, y otros tipos de usuario tienen otras, que no siendo incompatibles con las anteriores, complican sin embargo el trabajo de diseño y de poner la aplicación «al gusto de todos». Por ello, siempre que sea posible, es preferible diseñar sistemas con un ciclo de vida corto, lo cual permite poner en marcha unas primeras funcionalidades mínimas, que posteriormente se irán refinando, mejorando y ampliando.

Pero esto es relativamente fácil para un sistema nuevo; no es tan fácil para un sistema, como Alfa, que reemplaza a un sistema anterior. Esta sería una de las consideraciones que habrá que tener en cuenta, también, cuando se decide el modelo de transición comentado anteriormente.

La parametrización

Muy relacionado con el asunto anterior está la capacidad de parametrización. Suele ser el gran olvidado en el diseño, quizás porque cuando se diseña con unas especificaciones dadas se piensa que todo va a ser así siempre, que es obvio. Uno de los ejemplos más evidentes es el logotipo. Si se diseña Alfa para la OEPM, que es dependiente del Ministerio de Industria, Turismo y Comercio, no es frecuente pensar que cualquier día ese Ministerio se extinga, y se reemplace por otro denominado Ministerio de Industria, Energía y Turismo. Suena parecido, pero no es igual.

La existencia de una función de parametrización de estos datos facilita muy grandemente los cambios, ya no solo por el tiempo que se tarda, los cortes de servicio que se ahorran, sino porque si no está parametrizado, seguramente habrá que hacer una labor «de chinos» revisando todo el código a ver donde se llama al logotipo, o al texto «Ministerio de Industria, Turismo y Comercio» para reemplazarlo por su nuevo equivalente. Y eso contando con que aún tenemos al programador que codificó el sistema, pues si es al cabo de 10 años, ¿quién sabe dónde andará?. Lo mismo podemos decir de los cambios en las plantillas de documentos, los cambios en el diseño de los flujos de trabajo, etc. todo lo que sea configurable mejora sin duda el sistema a largo plazo.

La testeabilidad

Me atrevo a utilizar este palabro (en lugar de «probabilidad» que no es aplicable en este caso, y la que sería aplicable «comprobabilidad» no existe en el diccionario RAE) para indicar la capacidad de ser probado de un sistema. La testeabilidad implica que en el diseño se tengan en cuenta las necesidades que tiene el sistema de ser probado para ver si cumple las especificaciones, tanto funcionales como operativas, así como para, durante su fase de explotación, para obtener indicadores internos que arrojen los parámetros importantes para el negocio, de forma que permita evaluar su correcto funcionamiento sin necesidad de llamar continuamente al que lo diseñó para que lo pruebe.

Al igual que los interfaces, la testeabilidad (también se oye testabilidad) no se pueden dejar para el final. Tienen que abordarse desde las fases iniciales del diseño. Eso implica que los ingenieros de pruebas tienen que participar en las fases iniciales del proyecto. Es probable que parezca que los requisitos que se imponen adicionalmente a los de diseño funcional sean un plus innecesario, o que se puedan dejar para el momento en que el sistema va a ser pasado a explotación.

Sin embargo, como en el caso de la integración, no es fácil, y a veces incluso imposible, añadir estas funcionalidades al final. Y si el sistema no es adecuadamente comprobable, será muy dificil verificarlo, por lo que las pruebas serán más costosas, y además no lo probaremos totalmente, por lo que una serie de fallos subsistirán cuando el sistema esté en producción.

Y del mismo modo, hay que prever los indicadores y variables que vamos a querer obtener del sistema (por ejemplo las longitud de las colas de trabajo en los procedimientos, para detectar los cuellos de botella) pues tan importante como que el sistema funcione es tener indicadores de cómo está funcionando. Si no tenemos los indicadores apropiados es como si conducimos un coche sin tablero de mandos.

La seguridad

No podemos hablar de un proyecto como éste sin hablar de la seguridad… pero no creáis que voy a decir en público como esta diseñada e implantada la seguridad de Alfa. Todo lo que diré por el momento es que me parece adecuada a las necesidades del sistema.

No obstante, si quiero abordar un par de puntos importantes sobre la seguridad. El primero se refiere al error común de creer que porque un sistema es sólo de uso interno, ya está suficientemente protegido por la seguridad perimetral. Alfa es un sistema de trastienda (backoffice) y no es accesible desde el exterior. Podríamos creer que con eso hemos reducido en su inmensa mayor parte los problemas de seguridad, pero es un error. Entre el 60% y el 80% de los incidentes de seguridad en las organizaciones provienen de usuarios internos, según el Computer Security Institute (CSI) de San Francisco.

Lo cual nos lleva al segundo asunto importante de la seguridad: está en manos de los usuarios. Servirá de poco todos los mecanismos de control que pongamos, si los usuarios no los utilizan y colaboran activamente. E igualmente de los directivos, quienes tienen que asumir, cada uno en las áreas de negocio que les competa, que la seguridad no es responsabilidad de TI, sino de todos y cada uno de los empleados, y tienen que transmitírselo directamente a las personas a su cargo.  De modo que, en seguridad, las palabras más importantes son: formación y concienciación.

Planificando el final

Finalmente, hay algo que raramente se contempla, y es la fase final de un sistema en explotación. Su extinción o traslado a otro sistema. Porque es inevitable que ningún sistema, por bueno que sea, va a durar eternamente. Especialmente importante es la elaboración de utilidades de exportación de todos los datos en los formatos estándares (por ej. XML) que permitan su importación en otro sistema distinto, junto con la documentación necesaria para entender y explotar esta información.

En fin, en todo proyecto se aprende algo, espero que estas ideas sacadas de un proyecto felizmente en explotación pero con extremos mejorables sean útiles para nuestros lectores. Si habéis llegado hasta aquí, y os ha servido para algo, quizás os apetezca 😉  votarnos a los premios ASLAN (en la categoría Administración Central)… y poder recuperar fuerzas para seguir adelante.