Categorías
Tecnologías de la Información

El escritorio virtual del funcionario

¿Qué es la tecnología VDI?

El escritorio virtual es una de las tecnologías que se engloban dentro del paradigma del cloud computing, y es una de las que más van a cambiar la forma en que trabajamos.

Básicamente, la tecnología de escritorio virtual VDI (virtual desktop infrastructure) resulta de la confluencia de dos tecnologías, la tecnología de virtualización de servidores, y la tecnología de escritorio remoto. Aunque comparte mucho de ambas, tiene sus propias características, y por ello, sus propios productos y servicios asociados. Esta tecnología no es nueva, ya que fabricantes como CITRIX ya hace más de diez años que disponen de productos en el mercado, pero en este momento se puede decir que ha alcanzado un grado de plena madurez.

En esencia, la virtualización de escritorio se basa en la creación de un PC virtual  es decir, una máquina virtual que se ejecuta en un servidor de virtualización (VDI Server), cuyas características (memoria, CPU, disco, etc.) son las típicas de un PC, y así se presenta al sistema operativo que ejecuta, y de un sistema de comunicaciones que permite acceder a este PC virtual desde la distancia. Para este acceso, se puede utilizar cualquier ordenador que ejecute el software de cliente de terminal remoto, o bien un equipo especializado que únicamente dispone del software de terminal remoto, que se suele denominar en la jerga un “cliente ligero” (Thin Client), que consiste en procesador, memoria, y periféricos, y un sistema operativo empotrado, que únicamente sirve para arrancar el equipo e iniciar sesión en un servidor de VDI.

Para el usuario, y por supuesto en un sistema correctamente configurado, tanto en el servidor como en el cliente como en la red de comunicaciones que los une, el sistema y su manejo se parecen mucho a un PC tradicional. No obstante, los discos duros de este PC virtual ya no están en su ordenador, sino en el servidor de virtualización, es decir, si su dispositivo se avería o se extravía, no se pierden los datos guardados en estos discos locales. Por otra parte, es posible iniciar sesión desde varios lugares, bien remotamente, bien localmente, en aquellos dispositivos que tengan la conectividad y el software apropiado, lo que permite la continuidad de los trabajos iniciados en un lugar desde otro distinto.

Ventajas la tecnología VDI

Cuando se utiliza la tecnología VDI se pueden obtener, entre otras, las siguientes ventajas:

Para la organización:

  • Mejora y simplifica la gestión de los PC de escritorio. Puesto que básicamente son todos iguales, y no tienen disco duro local, se reducen enormemente las averías, y las reparaciones son mucho más sencillas y rápidas. Todo ello, además de mejorar el servicio, reduce los costes de mantenimiento.
  • Reducen el coste de inversión en PC, pues el Thin Client tiene una vida útil mucho más larga, ya que dependen menos de las evoluciones de los sistemas operativos y de las aplicaciones.
  • Permiten reutilizar equipos PC existentes, alargando la vida útil de los mismos, lo que es otro factor de reducción de costes adicional.
  • En ocasiones es posible obtener también ahorro en licencias de software de los PC, si éstas tienen en cuenta el uso concurrente en los equipos.
  • Simplifican también la evolución obligada como consecuencia de la obsolescencia, por ejemplo las migraciones de la gran cantidad de equipos actualmente con Windows XP, cuya vida útil soportada está a punto de finalizar.
  • Presentan ventajas adicionales en forma de ahorro energético de los equipos, si se utiliza la solución basada en thin client.
  • Permiten abordar soluciones de virtualización y servicios cloud sobre aplicaciones heredadas, típicamente cliente/servidor.
  • Mejoran la seguridad de la información al no contener datos locales que puedan ser robados o dañados por averías.
  • Como parte de un Plan de Continuidad de Negocio (BCP), permiten mantener operativos los puestos de trabajo de los empleados en caso de desastre, que afecte a alguna de las sedes de la organización.

Para el usuario:

  • Al haber menos averías y ser las reparaciones mucho más rápidas, aumenta la productividad de los trabajadores derivada de las averías de sus PC, pues las interrupciones por este motivo son mucho menores.
  • Se elimina la pérdida de datos del usuario por averías de los discos locales del PC.
  • Habilita la movilidad del trabajador, facilitando la continuidad de los trabajos realizados, por ejemplo para el caso de los teletrabajadores a tiempo parcial. También facilita la movilidad de los trabajadores entre sedes y edificios corporativos.

El análisis técnico/económico de los proyectos VDI

Está claro que un proyecto VDI tiene ventajas para la organización y para los empleados, muchas de ellas no solamente económicas. Sin embargo, ningún nuevo proyecto hoy día va a ser ni siquiera considerado sin un análisis previo de coste/beneficio, en este caso de forma comparativa con el de una solución tradicional. No hay respuestas mágicas, aunque algún estudio (Forrester, 2010) sugiere que para un proyecto de 2500 clientes VDI, el ROI alcanza el 170% comparado con una situación tradicional, y el punto en el que se igualan ambos costes es en unos cinco meses después del despliegue. En otros artículos atribuyen a Gartner una cifra mágica de 300 clientes como mínimo para que un proyecto VDI sea rentable.

En cualquier caso, tenemos también en la red una Guia para calcular el ROI de un proyecto VDI, así como algunos consejos útiles para este tipo de proyectos.

¿Cómo puede ser aprovechado en las Administraciones Públicas?

Las ventajas, genéricas, expresadas anteriormente, son perfectamente aplicables en cualquiera de las infraestructuras informáticas de cualquier centro de servicios TI de nuestras Administraciones Públicas. En particular, en el caso de la AGE, y dado que en su mayor parte sus actividades están basadas en la gestión de la información, se puede sacar un gran provecho de las soluciones VDI. Por ejemplo:

  • Como parte de un proyecto de Consolidación de CPDs, basado en una solución de Nube Privada, que permita alojar infraestructuras y servicios de los diversos organismos, manteniendo la funcionalidad actual, incluso para aplicaciones del tipo cliente/servidor.
  • Como parte de una solución de Continuidad de Negocio, que puede ser independiente o asociada al proyecto de Nube Privada anterior.
  • Como parte de los proyectos de Teletrabajo, a tiempo parcial o completo, combinado con soluciones de movilidad para usuarios con elevadas necesidades, en este terreno, normalmente altos cargos.
  • Como elemento facilitador para la contratación de servicios TI, por ejemplo el desarrollo de aplicaciones en la modalidad de Software Factory, manteniendo el control sobre el entorno y trabajos realizados por los programadores remotos.
  • Como elemento facilitador de los cambios y reorganizaciones Ministeriales, posibilitando la creación de “Ministerios Marca Blanca” que proponíamos en este mismo blog hace ya casi un año.

Conclusiones

Pronto veremos como las soluciones VDI se extienden, sobre todo en los ámbitos de las grandes organizaciones, y las AAPP pueden y deben también prepararse para hacer uso de esta tecnología. Como todas las tecnologías, en particular las Tecnologías de la Información, para aprovechar a fondo sus beneficios, se precisan transformaciones, tecnológicas, organizativas, de procedimientos, y hasta de costumbres. Pero por encima de todo, se precisa que sean llevadas a cabo por un grupo de profesionales que conozcan profundamente  tanto la tecnología como las características, peculiaridades y necesidades que actualmente tienen las Administraciones Públicas.

Categorías
Funcionario Mejora de la Administración Tecnologías de la Información

Los efectos de los ajustes en las unidades y servicios TIC de la Administración

Desde hace ya unos años, las unidades TIC de la Administración venimos sufriendo un proceso de ajuste, o más precisamente de reducción presupuestaria, que está afectando y afectará a los servicios que ofrecen, tanto al interior de la propia Administración como a los ciudadanos. En este artículo analizaremos los procesos más importantes involucrados y sus efectos.

La reducción presupuestaria, por capítulos

Desde 2009 hasta hoy, se ha venido realizando una reducción presupuestaria generalizada en la Administración General del Estado, y en las unidades TIC (generalmente con rango de Subdirección General), que ronda aproximadamente el 20% anual (en los capítulos 2 y 6), especialmente en los últimos ejercicios (2011 y el actual). Como consecuencia de esta reducción, que por lo que sé es similar al resto de las unidades horizontales, y al hecho de que realmente nunca se ejecuta el presupuesto real (en épocas como la actual se acentúan los controles y procedimientos de gestión de compras y de gasto, lo cual reduce inevitablemente el porcentaje de ejecución del presupuesto, cuando no directamente se reduce una vez aprobado, en base a una figura denominada “acuerdo de no disponibilidad”), la reducción del presupuesto real TIC de las unidades ronda el 50% acumulado en los últimos años.

Como es lógico, las cosas tienen que seguir funcionando. Es por ello que, de los dos capítulos de gasto disponibles, el 2 de gastos corrientes, donde se ubican habitualmente los servicios de mantenimiento y soporte y las telecomunicaciones (es decir los gastos de operación), y el 6 donde se ubican las inversiones y los proyectos de desarrollo de aplicaciones y servicios nuevos, la tendencia actual es que la mayor parte de las reducciones presupuestarias se han efectuado sobre el capítulo 6, siendo también reducido pero en menor medida el capítulo 2.

Hasta hace poco, se premiaba y facilitaba la disponibilidad económica en capitulo 6 sobre el capítulo 2, es decir, se consideraba beneficioso destinar el dinero a inversiones por dos motivos: el primero es que esto fomenta la innovación y la actualización constante de la tecnología, y en segundo lugar por el efecto de acción tractora de las inversiones TIC de la Administración sobre la industria TIC de proveedores de la Administración.

El efecto de esta predilección ha sido el traslado de una parte importante de los gastos TIC del capítulo 6 al capítulo 2, sobre todo en la última década. Es decir, las inversiones en hardware y software se contrataban incluyendo amplísimos periodos y condiciones de garantía, casi siempre de 3 ó 4 años de duración, lo que en la práctica abarcaba la mayor parte de la vida útil, e incluyendo no sólo la garantía sino también el soporte, y en el caso del software, el mantenimiento y actualización de versiones, que normalmente deberían haber estado en el capítulo 2.

Los efectos

¿Qué pasa ahora?. Las fuertes reducciones del capítulo 6 impiden mantener esta política de compras TIC. Es decir, se producen dos efectos:

  • Envejecimiento del parque hardware y software por la imposibilidad de acometer las compras de nueva tecnología. Como es lógico, este envejecimiento llevará aparejado un deterioro de los sistemas y servicios que prestan.
  • Al ir venciendo paulatinamente las garantías, será preciso contratar mantenimientos, los cuales tendrían que cargarse al capítulo 2, que debería aumentar por ello, pero que sin embargo también está siendo reducido. Es decir, aumento de costes.

No olvidemos también que, a diferencia de otros ámbitos (como la obra civil por ejemplo) el ciclo de la obsolescencia de la tecnología es mucho más acelerado. Lo que esto supone en términos presupuestarios es que resulta mucho más caro contratar mantenimiento y soporte cuando los sistemas tienen 4 ó 5 años (hasta el punto de que con frecuencia resulta más barato renovar el equipamiento que mantenerlo), lo cual agrava sin duda en problema.

Es decir, esta política de reduccion de inversiones y mantenimiento a la baja de los gastos corrientes, que podría tolerarse para otro tipo de instalaciones y servicios con un ciclo de vida más largo (por ejemplo el caso de las carreteras, autopistas, ferrocarriles, etc.), que sería la política del “me quedo parado hasta que pase la tormenta”, aplicado a los servicios TIC no es realmente una buena idea.

El capítulo 1

El lector avezado habrá observado que he dejado deliberadamente fuera un capítulo importante, el capítulo 1: los gastos de personal. Y es que aquí también tenemos que hacer un análisis especial.

Hasta donde conozco la Administración, ninguna unidad TIC actual se autoabastece de personal. Es decir, una parte significativa del personal TIC (quizás entre un 25% y un 50%) no es personal propio de la Administracion, no son “empleados públicos”, son personas contratadas que prestan su servicio en virtud de alguno de los contratos con la Administración, tanto los de servicios de mantenimiento y soporte de sistemas como los contratos para el desarrollo y mantenimiento de aplicaciones.

¿Porqué es esto así?. Fundamentalmente, se debe al fuerte crecimiento de la demanda de servicios TI dentro y fuera de las Administraciones, y al insuficiente crecimiento, cuando no directamente mengua, de la provisión de plazas  TI, tanto superiores como de grado medio, necesarias para cubrir este aumento de la demanda.

Es decir, en los últimos 20 años, tiempo en el que llevo trabajando en la Administración, las unidades TI han pasado de desempeñar al principio papeles de nicho y muchas veces no críticos para el negocio, a ser una pieza esencial en su funcionamiento diario. Y no sólo eso, también resulta que la “Administración 7×24”, la ventanilla electrónica, ha trasladado y sigue trasladando los servicios desde las unidades (horizontales y verticales) tradicionales a las unidades TI, aumentando el horario de servicio y por tanto necesariamente la carga de trabajo y de soporte que generan.

Pero volviendo a los efectos de los ajustes, lo que está pasando es que estos ajustes están reduciendo los contratos y el personal técnico externo que presta servicios TI, sin poder asumir estas funciones adecuadamente de forma interna ya que vemos que la contratación de personal TI también se ha congelado. Tampoco ayuda mucho las progresivas reducciones de sueldo del personal TIC (al que se le aplican igual que a los demás) y el empeoramiento de las condiciones de trabajo. Y no olvidemos que los profesionales TIC bien preparados, a diferencia de otros sectores profesionales, no tienen paro. Es por tanto probable una fuga de una parte de esos buenos profesionales al sector privado, o, porqué no, al extranjero.

En pocas palabras, los servicios se prestan cada vez con menos personal, y por lo tanto en peores condiciones. La consecuencia directa es la reducción de la calidad de los servicios TI, el aumento de los incidentes, el aumento de los cortes de servicio, y en horario laboral (antes se hacían en fines de semana), y el aumento del riesgo de un incidente grave que pueda comprometer servicios críticos, así como los impactos de este incidente al no poder remediarlo bien y en corto espacio de tiempo.

¿Qué hacer?

En este escenario, resulta muy difícil dar recomendaciones. Tampoco tengo yo una bola mágica, de modo qué sólo voy a apuntar algunas ideas.

Reducir presupuestos, reducir personal, manteniendo o mejorando los servicios, y sin fuertes transformaciones internas, es sencillamente una ecuación irresoluble.

Servicios = Presupuestos * Personal * Transformaciones

En efecto, el único factor sobre el que podemos trabajar para mantener los niveles de servicio se llama cambio o transformación. En realidad la transformación de que hablo es un concepto que tiene dos caras: una cara tecnológica y una cara organizativa y cultural.

La cara tecnológica es la más conocida. Todos habéis oído hablar de esos servicios comunes o servicios compartidos de la Administración que ya llevamos tiempo comentando en la red, una forma de factorización que permite aprovechar las economías de escala y por lo tanto reducir costes manteniendo o mejorando el servicio. Se habla de objetivos como “reducción de un 30% del número de CPD”, y se entiende que es uno de los aspectos en los que se puede aplicar la factorización, que ahora se combina con otro concepto muy de moda, la consolidación de sistemas. Se habla mucho también de “la nube de la Administración“, que es sin duda la culminación de los procesos de consolidación, factorización y finalmente aplicación de economías de escala, a gran escala.

Sin embargo no se habla mucho de que esta transformación tecnológica es imposible sin la misma transformación organizativa y a la postre, cultural. La que empiece por plantear los mecanismos organizativos eficaces para dar soporte al nuevo rol que representa la tecnología en las Administraciones (véase “Un modelo de referencia para la provisión de servicios TIC en la AGE“, “Steven VanRoekel y el #CIOAGE”). La que vaya acompañada de las reformas legislativas necesarias que apoyen y empujen la transformación. Y la que se plantee desde el principio como un ambicioso objetivo de largo alcance contando con todos, desde el primer trabajador público al último. Es decir, una transformación cultural de toda la Administración.

Para resumir, los trabajadores TIC de la Administración llevamos varios años sometidos a un proceso de fuerte ajuste con grave riesgo de repercutir en un deterioro de servicios, que sin embargo llevamos soportando estoicamente. No nos gustaría que, después de tanto esfuerzo, el deterioro de estos servicios se echara sobre nuestras espaldas. Por eso ha llegado el momento de decir que aguantar no es suficiente, de reclamar un proceso de transformación tecnológica, organizativa y cultural de la Administración.

Categorías
Mejora de la Administración Tecnologías de la Información

Menú, a la carta, o buffet: ¿Que modelo de servicios usar en las TI de las AAPP?

Cuando empecé a trabajar, principios de los ochenta, se puede decir que prácticamente toda la informática se hacía a medida. Salvando el hardware, y el sistema operativo, suministrado por unos pocos fabricantes, la transformación de tecnología en servicio se realizaba según un modelo de “cocina casera” en el que unas unidades especializadas y misteriosas, sepultadas bajo tierra en los Centros de Cálculo, generaban nóminas y listados de cuentas bancarias.

Los noventa, de la mano de “Windows” trajeron una generalización y democratización de la informática, y también una cierta desmitificación. Además se empezaron a usar palabras como “sistemas abiertos” y “downsizing“. La cocina a la carta se hizo más seria, pero también empezaron a aparecer ofertas de “menú del día”, sobre todo para las típicas necesidades de escritorio (proceso de textos, hojas de cálculo, etc.) en las que el cliente no podía pedir lo que quisiera, sino que tenía que elegir entre alguna de las opciones de mercado para una funcionalidad determinada.

En algunos casos, se llegó al menú único: Sistema operativo de escritorio, ofimática, utilidades, correo electrónico… Aunque las soluciones a medida han seguido siendo adoptadas en muchos entornos para satisfacer a los paladares más exquisitos.

Pero llegan los dosmiles, y el final de la primera década nos depara un nuevo modelo de alimentación informática: el modelo autoservicio. En ellas el cliente no se sienta en la mesa a esperar a que el camarero venga y le pregunte qué desea. En este caso, el cliente se dirige a la zona buffet del comedor donde están las ofertas y se aprovisiona directamente de cada una. Eso cuando no va al supermercado y se compra algún precocinado para comérselo directamente en casa.

Traducido al mundo de las unidades TI de las organizaciones, esto quiere decir que empieza a ser significativo y no desdeñable el porcentaje de usuarios que no son estrictamente “cautivos”, es decir que no se aprovisionan, para su trabajo corporativo, únicamente de los servicios que la unidad TI, les provee, sino que contratan o simplemente usan los servicios gratuitos externos, e incidentalmente también para funciones relacionadas con su trabajo.

Y, curiosamente, esta es una tendencia que va de arriba hacia abajo: son los directivos, y el personal TI, los primeros en autoaprovisionarse y mezclar servicios corporativos con servicios destinados al uso privado. Ejemplos hay muchos: servicios de correo electrónico, de los cuales el más conocido es GMAIL. Servicios de almacenamiento como DROPBOX, etc. Servicios de socialización: Twitter, Linkedin, Facebook…

Este es el escenario con el que tienen que convivir actualmente las unidades TI de las AAPP. Ya no es posible partir de la premisa de que son los únicos proveedores para sus usuarios, y por lo tanto es necesario diseñar un catálogo de servicios que contemple la inserción de servicios de apoyo a esos accesos externos, so pena de acabar de perder el control de los usuarios (muchos de ellos VIP!!!) por completo.

Así que mi recomendación es clara: nuestro catálogo de servicios TI actual debería incluir los tres tipos de provisión de las necesidades alimenticias TI: menú, a la carta y buffet, so pena de que nuestros comensales busquen por si mismos comida precocinada o contraten algún catering o comida a domicilio de desconocida procedencia, y, Dios no lo quiera, estén expuestos a alguna salmonella que propague alguna peligrosa infección por nuestra organización.

Categorías
Mejora de la Administración Tecnologías de la Información

El Plan Estratégico de las TI en la AGE

Decía hace poco Jordi Sevilla que, para que España sea tomada en serio, para que sea creíble, para que se puedan abordar y resolver los problemas, para que pueda reaccionar y salir del agujero en que se encuentra, para que los mercados confíen en nosotros e inviertan en nuestro país, necesita un Plan Estratégico España S.A.

Paralelamente (aunque obviamente de forma mucho más modesta), se me ocurre que en el ámbito de las Tecnologías de la Información en la AGE, tenemos una situación parecida. Actualmente, las TI forman el tejido nervioso de los Ministerios y Organismos Públicos. El funcionamiento de ese tejido nervioso es crítico para la eficacia y eficiencia de toda la AGE. Sin embargo, ese tejido nervioso no está funcionando todo lo bien que debiera. ¿Síntomas?. Veamos:

  • Las TI están perdiendo relevancia en el conjunto de la AGE, en especial tras la última reorganización realizada por el actual gobierno, en la que desapareció la Dirección General para el Impulso de la Administración Electrónica. A partir de ese momento, ha vuelto a desempeñar un una función meramente instrumental, y no potenciadora y transformadora de las Administraciones Públicas, que sin embargo sí asume en algunos notables ejemplos como la Dirección General de Innovación y Administración Electrónica del Gobierno Vasco. Lectura obligada sobre este asunto: el artículo de Andrés Nin titulado Profesionales TIC de las AAPP: Abrirnos a la sociedad para ser relevantes
  • Los presupuestos asignados a las unidades TI durante los últimos años no han dejado de descender, con bajadas en el entorno del 20% al 30% en TI en los PGE de 2012 respecto al año anterior.  Si unimos este hecho a la falta de una reorganización que evolucione el posicionamiento de las TI en la AGE, a la falta de creación de unidades factorizadoras que racionalicen y centralicen los numerosos CPD en la AGE, que provean servicios comunes, en definitiva que permitan reducir los costes manteniendo o aumentando la cantidad y calidad de los servicios, el resultado será, y ya está siendo, una paralización primero, y ulterior degradación del funcionamiento y de los servicios apoyados en TI. Sobre este tema se ha escrito mucho. Andrés Pastor lo trataba hace poco en su artículo Consecuencias de los recortes TIC en la AAPP.
  • Las TI en la AGE siguen siendo un coste, no una fuente de ahorro. No hemos sido capaces de establecer la relación directa entre cada euro que se gasta en TI y su retorno en forma de servicios concretos, internos y externos. Para conseguirlo no hay ningún secreto: bastaría con aplicar alguna de las metodologías de Gobierno TI, como COBIT, ITIL o ISO 38500 (recomiendo la lectura del artículo sobre COBIT 5 de Andrés Pastor). La imputación de costes de proyectos y servicios TI permitirían a las unidades usuarios, y sobre todo a los responsables conocer y decidir sobre la utilidad de los diversos servicios y priorizarlos, permitiendo por tanto un uso más racional de los recursos y del dinero disponible. Aún mas, al ser las TI simplemente un coste, la ecuación del ahorro es directa: rebajando el presupuesto en TI, ahorramos, sí o si.
  • Sigue habiendo un alto grado de desconocimiento y minusvaloracion de los requisitos, costes, plazos y recursos de los proyectos informáticos, lo que produce “poblados del oeste”, fachadas que parecen funcionar pero que están cogidas con pinzas, funcionan gracias a un importante trabajo manual, y generan un elevado coste sobrevenido y oculto de mantenimiento y soporte que resta fondos para los verdaderos proyectos de renovación y mejora (que incluyen ahorro) de los servicios. Esta es la situación que describe ejemplarmente Jose Antonio García en su reciente artículo Como el agua: ¿son las TICs una utility?
  • Los instrumentos de contratación de los medios materiales, hardware y software, y servicios, necesarios para ejecutar los proyectos y ofrecer servicios de Administración Electrónica siguen siendo un lastre, son excesivamente burocráticos y lentos y suponen un sobrecoste que impide contratar en las mejores condiciones las tecnologías adecuadas. Carecen de la necesaria capacidad de adaptación a un mercado tecnológico en contínua evolución en el que cada vez más se está imponiendo el pago por uso. Incluso una herramienta recientemente añadida como son los Contratos de Colaboración Público Privada (CPP), potencialmente de gran aplicación para la compra de tecnología innovadora por las AAPP, tienen un uso marginal, quizás porque su uso está limitado a grandes periodos de tiempo, y en los tiempos que corren, nadie en las AAPP lo fía tan largo. A estos efectos recomiendo la lectura del clarificador artículo de (una vez más) Andrés PastorCPP: Colaboración Público-Privada“.
  • Se están perdiendo las oportunidades de utilizar las TI de forma eficaz para aumentar el rendimiento de las AAPP y de sus trabajadores, reduciendo al mismo tiempo costes totales. Cuestiones como la generalización del teletrabajo, cuya aplicación no sólo produciría importantes ahorros directos e indirectos en infraestructuras y gastos energéticos, sino aumentos de productividad gracias al trabajo por objetivos, no sólo no están siendo abordados, sino que se está volviendo al modelo de control de presencia por fichaje, con una llamada al “adiós al cafelito y el periódico”, como si el café y las noticias fuesen la causa y no la consecuencia de una mala organización del trabajo, en lugar de diseñar una solución a la productividad del trabajador público basado en un trabajo por objetivos y no por horas. Y no pensemos que las AAPP están lastradas o limitadas a priori para aplicar las tecnologías para la mejora de su funcionamiento. De hecho, sorprende descubrir que el grado de innovación de las AAPP en España es muy superior al de las empresas, según revela Andrés Nin en su reciente artículo #innovacion en #aapp en la #UE
  • Para terminar, resulta evidente que los actuales órganos coordinadores de las TI en la AGE, en particular el Consejo Superior de Administración Electrónica, más allá de su labor informativa y normativa, han demostrado ser totalmente insuficientes para ofrecer soluciones a estos problemas. Para ello, es necesaria la creación de una figura ejecutiva, un jefe máximo de las TI en la AGE, figura que argumenta y describe Lucia Escapa en “A vueltas con un CIO para la AGE”, en un artículo que trata con mucho criterio los temas anteriormente mencionados aquí.

En definitiva, ¿qué podemos hacer?. La AGE necesita un Plan Estratégico de TI, pero no parece que exista nadie competente para hacerlo, ya que nos falta la figura del #CIOAGE, que sería quien debe elaborarlo. Al no existir, sería preciso que el primer punto de ese plan fuese precisamente la creación de la figura del CIOAGE. Nos encontramos en una situación de deadlock, que es preciso romper. ¿Quien puede elaborar ese Plan Estratégico de TI para la AGE?.

No se me ocurre nada mejor que sea ASTIC, la Asociación profesional del Cuerpo Superior de Sistemas y Tecnologías de la Información quien lidere los trabajos. Sin duda hay integrantes de ASTIC plenamente capacitados, incluidos los que cito en este artículo, para colaborar en la elaboración de este Plan. Pero, además, es preciso contar con todos los agentes, técnicos y políticos, privados y públicos, implicados y afectados. Deben ser elaborado de forma transparente, abierta y colaborativa. Y finalmente debe ser elevada esta propuesta al Gobierno de España, para que la aplique en las disposiciones legales pertinentes que permitan su ejecución.

Bueno, os dejo con un tweet que leí hace poco pero del que no recuerdo su autor. Era algo así como:

“Si no puedes pagar el coste de hacer las cosas bien, espera a que te llegue la factura por hacerlas de forma mediocre”.

Categorías
Administración Electrónica Tecnologías de la Información

Planificando y Diseñando el Almacenamiento Corporativo en las AAPP

¿Qué es el almacenamiento corporativo?

El almacenamiento es una de esas tres variables fundamentales que se manejan en las infraestructuras de todo servicio TI. Las otras dos son, por supuesto, el procesamiento y las comunicaciones. El almacenamiento es esencial en tanto en cuanto contiene la información, nuestra información, la información de la organización a la que pertenecemos. Sin información no hay TI. Por lo tanto el almacenamiento es necesario para contener esa información, de forma que pueda ser procesada y transmitida a los lugares donde debe ser utilizada.

Podremos definir el almacenamiento corporativo como el espacio que se destina a almacenar la información corporativa, la cual es, primariamente los datos relacionados con el funcionamiento del negocio: ficheros en formatos variados (PDF, DOC, Audio, Vídeo, etc.), información estructurada almacenada normalmente en bases de datos relacionales, aunque también a veces en simples tablas Excel, e información no estructurada, que puede estar almacenada en sitios como por ejemplo los buzones de correo electrónico.

Existen ciertos datos que podríamos considerar en principio que no son información corporativa, como por ejemplo los sistemas operativos y aplicaciones que residen en los servidores y en los ordenadores personales (dispositivos móviles incluidos) de la organización. Si lo son o no dependerá de cuánto estén ligados a los datos que manejan, es decir, si son absolutamente necesarios para acceder y procesar la información corporativa, o la información puede accederse desde otros sistemas compatibles. En principio estos datos no los vamos a considerar parte de la información corporativa, aunque hay algunos matices, que son de detalle y no abordaremos aquí.

También vamos a considerar que la información de usuario almacenada en los PC no es parte de la información corporativa per se, en el supuesto de que la organización dispondrá de políticas que evitan que la información de negocio resida en este tipo de dispositivos.

Dada la importancia del almacenamiento, es conveniente que cada organización disponga de su propio Plan o Proyecto de Almacenamiento Corporativo, en el cual, como en todo proyecto TI debe pasar por una fase de análisis, una de diseño, y una de ejecución, procediendo periódicamente a realizar procesos de revisión y adaptación tanto a las necesidades del negocio como a la optimización de los costes y recursos necesarios.

El problema del crecimiento desmesurado

Según estudios de IDC, la tasa de crecimiento anual de toda la información digital generada, capturada y replicada en 2009 fué un 60% superior a la del año anterior. Y se espera que el tamaño de la información en 2020 sea 44 veces la de 2009, alcanzando 35 Zettabytes.

Los motivos de esta explosión de datos son diversos, pero concurrentes: el número de dispositivos digitales que generan información aumenta constantemente, sobre todo los dispositivos móviles, que actualmente ya superan en número a los PC; también se espera una explosión de dispositivos no atendidos inteligentes, los cuales a su vez generan cada vez más información, y en ambos casos información que consiste en muchos ficheros no excesivamente grandes, y con contenidos poco estructurados. Por otro lado los ficheros de audio y vídeo generados por los usuarios son cada vez de mayor tamaño porque se generan y almacenan con mayor calidad; y para terminar, es necesario conservar todo lo existente (¿quién toma la decisión de que algo se puede borrar?), que se añade a lo nuevo.

El enorme crecimiento de toda esta masa de información genera además otros problemas y necesidades, como los sistemas de indexado y búsqueda que nos permitan analizar y encontrar la información deseada (BIG DATA), y las necesidades de protección de la información (privacidad, confidencialidad, autenticidad, etc.)

A estas circunstancias, conocidas desde hace tiempo, se añade un hecho nuevo: los presupuestos disponibles para las unidades de TI son cada vez más ajustados, particularmente en el caso de las Administraciones Públicas. Como consecuencia, si la tasa de crecimiento de la información generada es del 60%, la tasa de crecimiento de los sistemas de almacenamiento es inferior, a pesar de que el precio por TB es constantemente decreciente. Según estimaciones de IDC, en 2020, el 60% de la información generada no podrá almacenarse, pues no existirá espacio de almacenamiento suficiente.

¿Cómo abordar este problema?. Desde luego ya no es posible mantener una política de crecimiento vegetativo del almacenamiento corporativo, aprovisionando el espacio a medida que se vaya necesitando, sino que habrá que establecer un conjunto de políticas que hagan uso de las tecnologías y servicios disponibles para maximizar el espacio disponible para los servicios de almacenamiento y recuperación, al tiempo que minimizamos el coste. Para ello es imperativo diseñar y aplicar nuestro Plan de Almacenamiento Corporativo.

¿De qué estamos hablando?. Dame un ejemplo.

Supongamos el siguiente caso:

Un archivo histórico tiene un conjunto de documentos (unos 10.000) de bastante antiguedad (algunos de más de 100 años) que son consultados con cierta frecuencia para fines de investigación. Cada documento tiene una media de unas 10 páginas, que se componen de texto manuscrito y algunos gráficos. Se pretende digitalizar los documentos, de forma que puedan ser consultados electrónicamente por los investigadores, evitando de este modo su deterioro. También se pretende publicar algunos los documentos en la web, en resolución reducida, en la página del museo histórico de la entidad, así como su venta en la tienda electrónica, en formato de alta calidad, a posibles interesados.

Analicemos el problema en términos de almacenamiento. En primer lugar, estamos hablando de unas 100.000 páginas de información, que han de digitalizarse y almacenarse en modo imagen para su posterior procesamiento.

¿Cuánto espacio ocupará toda esta información?. En primer lugar, las DIRECTRICES PARA PROYECTOS DE DIGITALIZACIÓN del Ministerio de Cultura (2002) recomiendan almacenar los archivos originales en formato TIFF sin compresión, aunque no ofrece orientación sobre la resolución (DPI) a utilizar. En cambio, la Norma Técnica de Interoperabilidad de Digitalización de Documentos indica que la resolución mínima a emplear será de 200 píxeles por pulgada. Sin embargo, en este caso, al tratarse de documentos manuscritos y dibujos a mano alzada, se ha optado, para asegurar la legibilidad y la conservación de los detalles, digitalizar a 300 DPI. El tamaño de una página DIN-A4 digitalizada a 300 DPI y 24 bits por punto es de unos 25 Megabytes.

Tenemos que prever por tanto al menos 100.000 x 25 MB = 2,5 Terabytes de espacio para las imágenes originales. También hay que almacenar las imágenes procesadas, y puesto que los ratio de compresión superan fácilmente 10:1 supondremos que bastará con 250 Gbytes. Y además necesitamos espacio para la base de datos donde catalogar e indexar toda la información. En total, podemos calcular que el espacio aproximado necesario es de unos 3 Tb.

Si almacenamos toda esta información en nuestra SAN corporativa replicada de altas prestaciones, cuyos precios por TB rondan los 10.000 euros, el precio del almacenamiento necesario para este proyecto puede alcanzar los 30.000 euros. ¿Está justificado?. Quizás no. Pero, ¿es necesario usar una calidad de almacenamiento tan alta para toda la información utilizada en este proyecto?. Lo sensato es categorizar la información según sus características y tipo de utilización, y luego utilizar el tipo de almacenamiento apropiado para cada caso.

Así, por ejemplo, una solución podría ser la siguiente:

Información Almacenamiento (TB) Tipo de almacenamiento Coste/TB Coste total
BBDD 0,1 Premium 10.000,00 € 1.000,00 €
Imágenes procesadas 0,25 Standard 2.000,00 € 500,00 €
Imágenes originales 2,5 Low Cost 200,00 € 500,00 €
TOTAL 2.000,00 €

¿Porqué hemos realizado estas elecciones?

  1. La base de datos precisa un sistema de almacenamiento que sea de altas prestaciones (discos FC o discos de estado sólido SSD), no sólo para las funciones propias de utilización y gestión de los expedientes, sino porque la información contenida está enlazada con otros sistemas corporativos a través de Web Services. Además, precisa de alta disponibilidad pues está integrado en el sistema corporativo replicado en un nodo lejano que asegura la continuidad del negocio.
  2. Las imágenes procesadas se acceden regularmente por los usuarios y por varios sistemas enlazados. No obstante, los tiempos de acceso no son críticos, se espera disponer del archivo en cuestión de segundos, por lo que podemos usar discos SATA, más baratos, aunque si precisa redundancia RAID para cubrir posibles averías. No se precisa replicación en vivo ya que la recuperación frente a desastres se realiza mediante restauración de las copias de seguridad.
  3. Las imágenes originales se generan una vez y se almacenan, y se recuperan muy raramente. Los tiempos de acceso admisibles son los de tratamiento manual: se miden en minutos. Esto nos permite acudir a almacenamiento terciario (DVD/cintas DLT) o bien a servicios de almacenamiento en la nube privada, en su caso.

Al realizar este escalado de almacenamiento, basado en la categorización de la información, hemos conseguido pasar de un coste de almacenamiento inicial de 30.000 euros a unos 2.000, es decir, hemos dividido por 15 el coste.

Lógicamente, no es un análisis en profundidad. No hemos entrado en los necesarios recursos de gestión y administración, ni en los costes de mantenimiento. Las interrelaciones con otros sistemas no se han analizado, aunque todo ello sí debería entrar en un estudio de caso real.

Diseñando el Plan de Almacenamiento Corporativo

Así pues, para el diseño del plan seguiremos los siguientes pasos:

  1. Recopilación de la información sobre los diversos tipos de información de que dispone la organización, sus características, su tamaño, su propietario, y sus usuarios.
  2. Categorización de la información en términos de valor para el negocio, evaluando aspectos como el rendimiento, disponibilidad, rendimiento, confidencialidad, siempre en colaboración y de acuerdo con el propietario de la información. Puede resultar de gran ayuda aplicar, donde se pueda, el Esquema Nacional de Seguridad.
  3. Análisis de las alternativas de almacenamiento para cada tipo de información, partiendo siempre de las infraestructuras disponibles y del presupuesto, así como de las prioridades establecidas por el negocio para los diversos sistemas de información y servicios TI.
  4. Diseño del plan, que especificará las soluciones adoptadas para cada tipo, su evolución a lo largo del tiempo, el diseño de los servicios de almacenamiento, de las medidas específicas de seguridad, confidencialidad, disponibilidad, rendimiento, la interoperabilidad interna y externa necesaria para la información (Ficheros de cada tipo, BBDD, webservices, etc.). El diseño debe contemplar también las políticas de copias de seguridad y retención de la información, las políticas de borrado y eliminación, y las medidas necesarias para la cobertura de los Planes de Contingencias y la Continuidad del Servicio.
  5. Implantación del plan por fases (podrían coincidir con anualidades), incluida la contratación o adquisición de infraestructuras (HW y SW) o servicios, la implantación de los mismos, la puesta en servicio, la obtención de metricas para la evaluación del funcionamiento y la resolución de incidencias y problemas que pudieran surgir.
  6. Y por supuesto la Revisión periódica del plan, comparando los resultados esperados con los obtenidos, revisando los requisitos cambiantes del negocio y la evolución de las soluciones de almacenamiento disponibles en el mercado, así como los presupuestos disponibles.

¿Qué nos depara el futuro?

Hemos planteado aquí el desarrollo de un Plan de Almacenamiento Corporativo de corte bastante clásico que debería tener una vigencia aproximada de una legislatura, es decir, unos cuatro años. Sin embargo, existen cuestiones a medio y largo plazo que pueden incidir en nuestro plan, obligándonos a revisarlo o cambiarlo. Entre ellas pueden estar:

  • Evolución de las soluciones tecnológicas: Las necesidades de almacenamiento están produciendo una constante evolución de las soluciones tecnológicas disponibles, muchas de ellas ya ofertadas, como el aprovisionameinto dinámico, la deduplicación on-line, la estratificación automática en función de parámetros configurables, la virtualización en todo o en parte de los sistemas, etc. Es obvio que los diseños de soluciones de almacenamiento de un momento concreto pueden resultar obsoletos poco tiempo después si surgen innovaciones tecnológicas rompedoras, y por ello el Plan debe estar también en fase de contínua adaptación tecnológica.
  • Evolución de los servicios de almacenamiento: como contrapartida o alternativa a las soluciones de almacenamiento autogestionadas, surgen cada vez con más fuerza los servicios de almacenamiento “en la nube”,  bien sean en “nube pública” o en “nube privada”. Con independencia de que estas soluciones tienen todavía una aplicabilidad muy limitada para las necesidades de almacenamiento corporativo en las AAPP, la intensa presión hacia la reducción de costes y del presupuesto hará que estas soluciones cobren cada vez más importancia. Habrá que estudiar su aplicación siempre que sea posible manteniendo los objetivos y requisitos de negocio y sin comprometer las funciones esenciales que deben realizar las AAPP.
  • Modificaciones organizativas, que podrían producir o habilitar iniciativas como una hipotética Concentración de CPD de la AGE: Si en algún momento el Gobierno decide acometer este proyecto, lógicamente el Plan de Almacenamiento debería ocupar un lugar principal, y para su diseño se debería contar con las potenciales unidades u organismos usuarios del mismo.
Categorías
Tecnologías de la Información

Mebiuploads

La primera memoria que compré, en la tienda Sandoval, para un proyecto de secuenciador musical, tenía 64 bits. Me bastaban por tanto 6 bits de direcciones para llegar a todo su contenido. Pero en el proyecto fin de carrera, basado en el Z-80 de Zilog, ya disponía de un procesador 16 bits de direcciones, lo que me daba la posibilidad de manejar memorias de hasta  65536 direcciones distintas.

Por supuesto era rarísimo tener tanta memoria a nuestra disposición. Generalmente, las memorias se vendían en unidades de varios “Ks”. Un Kilobyte eran 1024 bytes, o sea, dos elevado a diez. Como es “casi” mil, se despreciaba ese pequeño error y todos asumíamos que 1024 era mil, y así las memorias podían llegar hasta 64K bytes con estos primeros microprocesadores de 8 bits.

Años más tarde, cuando empecé a trabajar, en el proyecto TESYS, estrenábamos el Intel 8086, que tenía ya 20 bits de direcciones. Como 10 bits era “un K”, estaba claro que 20 era “un mega”, es decir, un Megabyte, asumiendo implicitamente que todo el mundo sabía que hablábamos en realidad de 1.048.576 bytes. El pequeño error había aumentado, pero la aproximación seguía siendo plausible.

Con el tiempo, los megas se quedaron también pequeños, y se pasaron a “los gigas”. En los gigas el error es mayor: se trata de 1.073.741.824 bytes, es decir, tenemos un error de un 7% al suponer que un Gigabyte son mil millones de bytes. La gente empezó a mosquearse un poco cuando compraba discos de gran capacidad, pues le vendían un disco de 300 Gigabytes, y luego resultaba que tenía sólo 279.396.772 bytes, ¿dónde estaban los bytes que faltaban?.

Lo que pasó es que, los fabricantes de discos, muy listos ellos, se dieron cuenta del error de la definición, y empezaron a usar la verdadera definición del Giga, que no es un prefijo que provenga del sistema binario, sino del sistema decimal. Giga es igual a 10 elevado a 9, es decir, mil millones.

Tal y como establece el Real Decreto 2032/2009, de 30 de diciembre, por el que se establecen las unidades legales de medida:

3.1 Los múltiplos y submúltiplos decimales de las unidades SI se forman por medio de prefijos que designan los factores numéricos decimales por los que se multiplica la unidad y que figuran en la columna «factor» de la tabla 5.

Tabla 5: Prefijos SI(a)
Factor Nombre Símbolo Factor Nombre Símbolo
101 Deca. da 10–1 Deci. d
102 Hecto. h 10–2 Centi. c
103 Kilo. k 10–3 Mili. m
106 Mega. M 10–6 Micro. μ
109 Giga. G 10–9 Nano. n
1012 Tera. T 10–12 Pico. p
1015 Peta. P 10–15 Femto. t
1018 Exa. E 10–18 Atto. a
1021 Zetta. Z 10–21 Zepto. z
1024 Yotta. Y 10–24 Yocto. y

Los prefijos SI representan estrictamente potencias de 10. No deben utilizarse para expresar potencias de 2 (por ejemplo, un kilobit representa 1000 bits y no 1024 bits). Los prefijos adoptados para las potencias binarias no pertenecen al SI. Los nombres y símbolos utilizados para los prefijos correspondientes a 210, 220, 230, 240, 250 y 260 son, respectivamente, kibi, Ki; mebi, Mi; gibi, Gi; tebi, Ti; pebi, Pi; y exbi, Ei. Así, por ejemplo, un kibibyte se escribe: 1 KiB = 210 B = 1024 B. Estos prefijos pueden emplearse en el campo de la tecnología de la información a fin de evitar un uso incorrecto de los prefijos SI.

Así que ahora, ya está claro y es oficial: Si lo que queremos es comprar una memoria de 100 millones de bytes, deberemos pedir una memoria de 100 Mebibytes y no de 100 Megabytes. Para obtener una información más exhaustiva sobre el tema, aunque un tanto espesa, todo hay que decirlo, podeis dirigiros a la wikipedia: Prefijo binario. Al final, todo lo que hay que saber es que, si se trata de un prefijo binario, o sea una potencia de dos, hay que poner la sílaba “bi“, de modo que un Mebibit es un “Mega Binario Bit“.

Dicho esto, hay que tener un poquito de cuidadín: no todo en informática es una potencia de dos. Así por ejemplo, las líneas de comunicaciones (Megabits por segundo, o Mbps) suelen ser auténticas potencias de diez: el IEEE 802.3 (el Ethernet de toda la vida) empezó con los auténticos 10 Mbit/s, no Mebibits por segundo, pasando luego a 100 Mbps (Fast Ethernet)  y después a 1 Gigabit por segundo= 1Gbps.

Así que si por casualidad tenéis que redactar, por ejemplo, un concurso de comunicaciones para vuestro organismo, no pongáis, por ejemplo “Se pide un enlace de de 100 mebibits por segundo” porque no existe. Estáis pidiendo una línea de 104.857.600 bits por segundo, y si lo que os ofrecen es un Fast Ethernet, que es lo más probable, no alcanzan la velocidad pedida y no podrían cumplir los requisitos del concurso.

De modo que, y ya para terminar, no sabemos si los fundadores de Megaupload le pusieron el nombre por la velocidad de sus conexiones o por el tamaño de los archivos. Si fuese por el primero, no habría mayor problema; pero si fuese por el segundo, estarían cometiendo un error, quizás a sumar a la lista  de cargos que pesan contra ellos. Podría ser, y entonces quizás el servicio debiera haber llevado un nombre más apropiado: Mebiuploads.

Categorías
Tecnologías de la Información

¡A desinstalar!

Ha llegado el nuevo año y con él muchos buenos propósitos:  adelgazar, comer mejor, el gimnasio, aprender inglés, ser más puntual, … Hace no mucho, @PauloCoelho tuiteaba esta frase: “Deshazte de todo lo que no sea útil, bonito, o divertido“. Buena propuesta, pero en este caso no para “obtener” algo nuevo, sino para “deshacerse” de trastos, cacharros o rémoras de cualquier tipo. En definitiva, una labor de limpieza. El comienzo del nuevo año es sin duda una oportunidad para plantearnos y empezar a llevar a cabo esas labores de limpieza que ponemos las últimas de la lista, pero que cuando terminamos nos hacen sentir mucho mejor.

Los que trabajamos en informática, sabemos también que es una operación muy necesaria. Con el paso del tiempo, nuestros ordenadores se van degradando; los sistemas de ficheros se llenan de programas y archivos; van cada vez van más lentos y cuesta más encontrar algo; tarda mas en encender o apagar; nos damos cuenta que tenemos las cosas dispersas por cuarenta sitios, que para hacer lo mismo tenemos diez programas diferentes y que las diversas cuentas de correo nos inundan y nos consumen todo nuestro tiempo.

En mi trabajo actual estoy coordinando desde hace casi dos años un proyecto que denominamos de “Consolidación de Servidores,  Sistemas, Servicios de Bases de Datos y Servicios Transaccionales“. Creo que es un caso bastante común, y sin entrar en detalles técnicos, querría comentar algunas ideas al respecto.

En primer lugar, la situación es clara y conocida. Un conjunto de equipos, con antigüedades que van entre cinco y diez años, y en ocasiones incluso más, se encuentran prestando servicio de aplicaciones corporativas, algunas de ellas bastante críticas. Por este simple motivo se plantea algunos problemas relacionados con el hardware:

  • El coste de mantenimiento y soporte de estos equipos, cuando es posible (algunas veces no hay ni siquiera repuestos) es muy alto, mucho mayor que si los equipos fuesen nuevos.
  • El riesgo de sufrir un avería aumenta, por el envejecimiento del equipo.
  • Además, cuando la avería sucede (y os aseguro que tarde o temprano, sucede) la reparación es más difícil y lleva más tiempo. Es decir, el tiempo de interrupción del servicio, y por consiguiente su impacto, son mucho mayores.

Estos son problemas relacionados directamente con el hardware, pero hay otros: generalmente estos equipos se instalaron en su momento con las últimas versiones de sistema operativo y con las últimas versiones de los gestores de bases de datos o motores transaccionales. Pero con el paso del tiempo esas versiones se han quedado anticuadas, y o bien no hay versiones nuevas para la plataforma hardware, o bien la aplicación está acoplada a la versión de software y no puede evolucionar sin un rediseño importante.

Así que, al problema de la obsolescencia hardware, tenemos que sumar el problema de la obsolescencia software, el cual es muchas veces más difícil de detectar y evaluar y mucho más lento y costoso de solucionar.

Pero aún existe un tercer problema, que es todavía más difícil de resolver que los anteriores. Y es el hecho de que cuando se inicia un proyecto se planifica su concepción, su desarrollo, su implantación, a veces incluso su explotación… pero su finalización, cierre y sustitución, seamos sinceros, nunca se planifica. Consecuencia: los recursos necesarios para llevar a cabo las labores de consolidación, sustitución, migración y limpieza, no existen, o en el mejor de los casos, son los recursos residuales que quedan después de haber hecho todo lo importante y urgente y poner en marcha las nuevas aplicaciones y servicios que nos demanda el negocio.

Los proyectos de consolidación, generalmente, se venden con muchas dificultades. De cara a la organización, no aportan (aparentemente) nada nuevo. Como mucho, se puede argumentar los ahorros en mantenimiento (y quizás en consumo energético) pero ahí queda todo: no hay efecto tractor de novedades tecnológicas que podamos exhibir con orgullo.

Además se trata de proyectos complicados, pues requieren la intervención de mucha gente. Como se trata de sistemas que están en explotación, las intervenciones y las pruebas hay que hacerlas con mucho cuidado.

Y para colmo, como se trata de sistemas antiguos, es posible que los desarrolladores del mismo, los que conocen cómo fué hecho, ya no estén en la compañía, lo que dificulta mucho las modificaciones a realizar. Y también es posible que, debido a su antiguedad, los sistemas y aplicaciones no estén lo suficientemente documentados.

La tendencia natural, lo que nos pide el cuerpo, es no hacer nada: “si funciona, no lo toques“. Por eso, a veces, es beneficioso que suceda algún incidente, siempre que no sea grave, por supuesto. El incidente hace que “veamos las orejas al lobo” y nos da una palanca con la que convencer al que toma las decisiones de la necesidad de abordar el proyecto de consolidación.

En esa labor de marketing interno de este tipo de proyectos, es importante resaltar las ventajas que proporciona:

  • Ahorros directos en mantenimiento y soporte de hardware y software
  • Ahorros energéticos del consumo de los equipos y de la huella energética que generan
  • Aumento de la fiabilidad y disponibilidad de los servicios
  • Documentación de los sistemas y aplicaciones, lo que mejora su mantenibilidad
  • Actualización tecnológica, lo que permite el estudio y evolución hacia soluciones tecnológicas modernas (entre las que se incluyen la virtualización y el cloud computing)

Además, una operación de revisión de sistemas antiguos, necesaria con carácter previo a la planificación del proyecto, permite descubrir un número muchas veces inesperado de sistemas o aplicaciones sin uso, guardadas ahí “por si acaso”, de los cuales nos podemos deshacer “oficialmente”, lo que contribuye también al éxito de la operación de adelgazamiento de las TI.

A la hora de ejecutar este tipo de proyectos, y precisamente por su carácter poco vistoso, es importante fijarse objetivos concretos alcanzables a lo largo del tiempo. Alguno de ellos puede ser, por ejemplo, conseguir sacar todos los servicios de una máquina antigua, y tras lo cual, apagarla. Como si de una botadura se tratase, ¡es un buen momento para celebrarlo con cava!.

En pocas palabras, las operaciones de consolidación y limpieza en “la retaguardia”, poco agradecidas, son sin embargo necesarias para soltar lastre, tomar agilidad y prepararnos para la evolución de los servicios que, de otro modo, no podríamos hacer.

No quisiera terminar el artículo sin enlazar estas operaciones de limpieza y adelgazamiento con el concepto de Lean IT, actualmente muy de moda para tener unas TI optimizadas y esbeltas, y que promete los siguientes beneficios:

  • Incrementar la satisfacción del cliente/usuario
  • Reducir los costes de TI
  • Aumentar la productividad
  • Reducir el tiempo para implementar los cambios
  • Aumentar la capacidad para gestionar la demanda
Pero aplicar Lean IT es mucho más que desinstalar o consolidar. Ya hablaremos de ello en próximos artículos.
Categorías
Mejora de la Administración Tecnologías de la Información

Las respuestas al problema de estrategia

Hace una semana, planteábamos un problema de estrategia, formulado en los términos que emplea ITIL en su libro ITIL V3 Service Strategy, y con el formato empleado en los exámenes que EXIN realiza para determinar si un determinado cantidato supera el nivel de conocimientos exigidos y por tanto puede obtener el título de “Profesional Certificado en ITIL V3” en alguno de los niveles intermedios del Ciclo de Vida ITIL (Estrategia, Diseño, Transición, Operación, y Mejora Continua) .

En estos exámenes, que constan de 8 preguntas, se ofrecen 4 posibles respuestas a cada pregunta en un escenario dado, y las puntaciones son así:

  • Mejor respuesta: 5 puntos
  • Segunda mejor respuesta: 3 puntos
  • Tercera mejor respuesta: 1 punto
  • Respuesta mala: 0 puntos.
Para aprobar, hay que obtener un 70% de la puntuación máxima. Al ser 40 puntos el máximo, hay que obtener al menos 28 puntos.

En mi problema de estrategia, diseñe el escenario y las cuatro posibles respuestas, y ahora explicaré cómo se puntúa cada una y porqué.

Mejor respuesta: 2. Diseño del Portafolio de Servicios.

Es la mejor respuesta porque ataca la raiz del problema: las necesidades del negocio. Es imposible diseñar una buena solución si no se averigua de verdad de qué estamos hablando. Por supuesto, para una situación dada, hay que dar todos los pasos, incluidos los análisis técnico-económicos, el estudio de las posibles soluciones para cada necesidad, y el diseño de los paquetes de servicio apropiados. Para llevar adelante las propuestas resultantes habrá, por supuesto, que elaborar un plan de transición. Problema: es un plan a largo plazo (largo plazo > 4 años). Quizás el nuevo gobierno no quiera, ni pueda, esperar tanto. Solución: empezar por los “quick wins“.

Segunda mejor respuesta: 1. Diseño del Catálogo de Servicios.

El problema con esta respuesta es que parte de la suposición de que los servicios actuales están bien, no es necesario revisarlos, y basta con proceder a una racionalización y optimización de los mismos. Desde luego se obtendrán mejoras, pero al no abordar la cuestión esencial, que es la alineación entre el negocio y el servicio TI, tales mejoras son limitadas.

Tercera mejor respuesta: 4. Externalización.

Tiene el problema de que se decide la solución al problema antes que se estudie el problema: “la externalización es la solución a la busca de un problema“, y luego se justifica mediante un estudio externo. Pero al menos se hace el estudio. Tal estudio arrojará sin duda ocasiones de factorización y por lo tanto de ahorros. Problema: la externalización siempre implica una pérdida de control. Solución: una gestión adecuada del Gobierno TI de los proyectos, y un férreo control de los servicios externalizados.

Respuesta mala: 3. Reducción de costes.

Es la peor respuesta, pues no tiene en cuenta en absoluto el funcionamiento o las necesidades del servicio. Como consecuencia probable, los servicios se degradarán (calidad, disponibilidad, eficiencia, etc.). Esto conducirá a una espiral descendente, ya que aumentará la insatisfacción de los usuarios/clientes/ciudadanos, lo que se traducirá en una desconfianza sobre las TI de la Administración, por lo que en el futuro será mucho más dificil para el CIO conseguir recursos, lo que de nuevo producirá un empeoramiento de los servicios.

Resultados

Sobre estas cuatro preguntas, se hicieron dos encuestas: la primera, se preguntaba directamente la mejor solución (“según ITIL”). Es decir, lo que el encuestado pensaba que había que hacer. En la segunda, se preguntaba sobre lo que él pensaba que se iba a hacer en realidad. Es decir, la primera encuesta era de carácter mas técnico, pero la segunda era de carácter especulativo, las emociones (miedo, deseo, esperanza) mandan en las respuestas, sobre la naturaleza calculada de la anterior.

Vamos a ver cómo eran estas respuestas en la mañana de hoy:

Se han recibido 25 respuestas a esta pregunta, que tras su evaluación según la escala de puntuación ITIL obtienen un total de 96 puntos sobre 125, es decir una puntuación de 77% sobre el máximo, superior al 70% exigido para aprobar. Resultado: APROBADO.

Se han recibido 23 respuestas a esta pregunta, que han obtenido 10 puntos sobre 115, es decir, un 9% de la puntuación máxima. Resultado: SUSPENSO.

Mis comentarios

Como se puede ver, los visitantes de este blog, especialmente los que participan activamente (o al menos por lo que hemos visto en este caso), están muy bien preparados. Cosa de la que me alegro enormemente.

Pero al mismo tiempo, están (estamos) muy asustados, hasta el punto que pensamos que se van a adoptar algunas de las peores soluciones posibles. ¿Porqué?. Quizás es porque la historia reciente, los últimos años, es lo que nos ha ofrecido a los que trabajamos en la Administración: una rebaja a ultranza con muy pocas oportunidades de estudiar bien cómo hacerla (siempre en función de resultados del servicio). Así que tenemos miedo, miedo a que esta tendencia permanezca y nos ahogue aún más, sin poder ni siquiera elevar nuestra palabra para que sea oída.

Además, me gustaría hacer algunas consideraciones adicionales. La primera es que el escenario decía claramente que se trataba de un país muy, muy lejano, y lo era porque el nuevo gobierno había nombrado un CIO, lo cual, hoy por hoy, y a pesar de las ilusiones que nos hacemos algunos, es algo muy, muy lejano (a ver si haciendo ruido… 😉 ). De hecho, el nombramiento de un CIO es en si misma una decisión estratégica. Si sucede, sería un primer indicio de que las cosas están cambiando de verdad (propongo un TAG para Twitter: #CIOAGE ).

En segundo lugar, y como pusieron de manifiesto los comentaristas de mi artículo, la estrategia, un elemento normalmente de alto nivel, es un medio, un medio para conseguir unos determinados fines. La estrategia, del mismo modo que las TI, son elementos mediadores, con unas posibilidades potencialmente muy altas, pero que hay que saber (querer) aprovechar. Y siempre hay que tener en mente los objetivos. Una estrategia sin objetivos claros no se puede formular. Y del mismo modo, no se puede evaluar su eficacia (ni tampoco mejorar), si no se puede saber con objetividad cuándo, y hasta qué punto, se han alcanzado los objetivos.

Y en tercer lugar, las TI tienen un poder de escalabilidad y factorización muy alto. Esto significa que hay que entenderlas. Que no se puede pensar en términos de unidades de TI como se piensa en términos de fontaneros, electricistas o transportistas. La banalización de las TI es una cosa que sucede con cierta frecuencia, y esto no ayuda nada; entorpece. Y por lo tanto, que se necesita su profesionalización, es decir, que se gestionen con criterios profesionales específicos.

Categorías
Mejora de la Administración Tecnologías de la Información

El camino hacia IPv6 (III): La larga marcha

El desierto a veces se componía de arena y otras veces de piedra. Si la caravana llegaba frente a una piedra, la contorneaba; si se encontraba frente a una roca, daba una larga vuelta. Si la arena era demasiado fina para los cascos de los camellos, buscaban un lugar donde fuera más resistente. En algunas ocasiones el suelo estaba cubierto de sal, lo cual indicaba que allí debía de haber existido un lago. Los animales entonces se quejaban, y los camelleros se bajaban y los descargaban. Después se colocaban las cargas en su propia espalda, pasaban sobre el suelo traicionero y nuevamente cargaban a los animales. Si un guía enfermaba y moría, los camelleros echaban suertes y escogían a un nuevo guía.

Paulo Coleho, El Alquimista

Hemos visto hasta ahora cómo el éxito de internet ha comprometido el futuro de su elemento básico, el protocolo IP (v4),  y cómo el nuevo protocolo IPv6 ya está preparado para resolver las limitaciones del anterior y que por ello hay que aplicarlo cuanto antes.

Pero, ¿cómo hacerlo?

Vamos primero a pintar el esquema básico de una comunicación en Internet:

Como vemos en este dibujo, para que podamos usar IPV6 tiene que estar instalado y funcionar en tres elementos: el cliente, el servidor, y en la red, o al menos en el tramo de la red necesario para ir de uno a otro.

En el caso del cliente, los sistemas operativos actuales ya lo tienen instalado, y en la mayoría, activado por defecto. ¿Quieres saber si tu ordenador tiene instalado IPV6 y está activado?. Abre una ventana de comandos y escribe: PING ::1, y tal y como yo acabo de hacer, me ha salido lo siguiente:

Así que, en los PC, está todo preparado. ¿Y en los servidores?. En los servidores también, la mayoría de ellos tienen también instalado IPv6, aunque no activado por defecto.

Así que lo que falta es que la red, los operadores, y también las redes empresariales, lo activen. En palabras, de nuevo, de Jordi Palet:

En general, la mayoría de las redes de los operadores modernos, si tienen equipos con menos de 4-5 años de antigüedad, están más que preparados para soportar IPv6, y es más cuestión de formarse y activar IPv6 en dicha red, con la debida planificación, que de reemplazar equipos, que suele ser una parte casi despreciable del presupuesto.

Activar IPv6 no es una migración; no hay que quitar un protocolo para poner el otro. Ambos convivirán, y poco a poco el tráfico de IPv4 irá disminuyendo a medida que aumenta el de IPv6.

Las medidas de impulso para esta transición se vienen desarrollando cada vez con más frecuencia. Una de las más conocidas es el Día Mundial de IPv6 (World IPv6 Day), celebrado el pasado 8 de junio. En el artículo What Did IPv6 Day Teach Us? se señala que aún estamos muy lejos de la adopción masiva: sólo uno 0,2% del tráfico de Internet actual es IPv6. Curiosamente, la principal aplicación consumidora de IPv6 es Bit Torrent, que genera la mitad del tráfico, pues usa TEREDO, un protocolo de encapsulación de de IPv6 en IPv4.

Y ¿qué estamos haciendo en las AAPP para apoyar la transición?. Quizás la medida más importante es El Plan de fomento para la incorporación del protocolo IPv6 en España. Las 10 medidas de este plan son:

  1. Incorporación de IPv6  servicios de Internet del MITYC y en el portal 060 (www.060.es).
  2. Portales de difusión sobre el protocolo IPv6: www.ipv6.es y en el portal administracionlectronica.gob.es, sección Transición a IPv6
  3. Jornadas formativas gratuitas sobre IPv6 y ayudas a la formación IPv6 dentro del Plan Avanza 2.
  4. Fomento de la colaboración público – privada para actuaciones de difusión de la información o de formación sobre el protocolo IPv6
  5. Ayudas a proyectos técnicos de incorporación de IPv6 dentro del Plan Avanza 2.
  6. Pleno funcionamiento del protocolo IPv6 en el DNS del indicativo territorial “.es”.
  7. Creación de un “Grupo de Trabajo para la incorporación del protocolo IPv6”
  8. Impulso de la incorporación del protocolo IPv6 en las Administraciones públicas a través de los órganos colegiados responsables de la Administración Electrónica, incluida la actualización del el Plan de direccionamiento e interconexión de redes de la Administración y las Normas Técnicas de Interoperabilidad.
  9. Incorporación de IPv6 como requisito en la compra pública.
  10. Seguimiento y coordinación de eventos europeos e internacionales en relación con la incorporación de IPv6

Según me comenta Emilio García, ya se está trabajando en la actualización del Plan de Direccionamiento, que además incluirá la convivencia entre IPv4 e IPv6. No conozco ningún detalle de esos trabajos, pero me gustaría que, como he comentado anteriormente, el nuevo plan se diseñe con carácter geográfico y no orgánico, lo cual sin duda facilitará no sólo la transición hacia IPv6, sino también la transición hacia el nuevo gobierno que saldrá de las urnas el 20 de noviembre próximo.

Hasta que llega todo ésto, ¿qué podemos hacer cada uno de nosotros en nuestra organización?. Según dice el artículo Las Administraciones Públicas y la transición entre IPv4 e IPv6, las acciones más recomendadas son:

  • Realizar un inventario de las capacidades IPv6 previamente desarrolladas, técnicas y humanas
  • Definir un perfil de equipamiento de adquisiciones compatible con IPv6
  • Implantar la obligación de cumplir el perfil definido en todas las adquisiciones
  • Hacer visibles los servicios públicos desde las conexiones IPv6

En ese sentido es interesante la referencia que publica el MITYC en su Proyecto de implantación del protocolo IPv6, donde describe en detalle los aspectos técnicos de su proyecto.

En fin, un largo camino todavía, que seguramente se medirá en décadas. Por eso es importante que las acciones a desarrollar en las AAPP sean constantes y acordadas entre los sucesivos gobiernos, de forma que podamos llegar prontamente a buen puerto, y al mismo tiempo con el menor esfuerzo posible.

Categorías
Tecnologías de la Información

El camino hacia IPv6 (II): Un mundo feliz

En la anterior entrega de esta serie, vimos cómo el protocolo de Internet IPV4 ha servido con razonable eficacia las necesidades de la red desde su origen, pero, debido al crecimiento exponencial del tamaño de la red, está alcanzando rápidamente los límites operativos de funcionamiento para los que fué diseñado, en particular por el rango de direcciones únicas disponibles (256 elevado a 4, unos 4 mil millones de direcciones) y por la dificultad de su gestión eficaz.

También vimos cómo las alternativas existentes para superar el límite impuesto por de ese rango de direcciones de IPV4, basadas en la técnica denominada NAT, son una mala solución, pues a la larga crean más problemas de los que resuelven.

En tercer lugar, vimos cómo la asignación de direcciones de los rangos reservados, usada para la definición del Plan de Direccionamiento e Interconexión de Redes de Area Local de la Administración,  junto con su carácter fuertemente jerárquico, han conducido a un panorama de inseguridad, confusión e ineficacia que es preciso resolver.

Frente a estas dificultades, IPV6 aparece como el salvador, largo tiempo esperado. Estas son sus principales ventajas:

  • Se incrementan las direcciones disponibles, elevando a 4 las anteriores (256 elevado a 16,3.40282367 × 1038) unos 340 sextillones.
  • Configuración y reconfiguración IP sin servidor (“plug and play”)
  • Mejores y más eficientes mecanismos para apoyo a la movilidad
  • Mejoras en la seguridad de las comunicaciones: encriptado y auntenticación a nivel IP
  • Simplificación y flexibilización del protocolo que lo hace más eficiente y adaptable.
La ventaja esencial del tremendo aumento de las direcciones disponibles es que todo dispositivo IP, sea del tipo que sea, tendrá su propia IP nativa. Esto, en palabras de Jordi Pallet,
“… permite restaurar uno de los principios basicos de Internet, la comunicacion extremo a extremo, y por tanto aplicaciones cliente-cliente (peer-to-peer), mas inteligentes, innovadoras, y por supuesto facilidad de configuracion, no tener que andar parametrizando el NAT o las aplicaciones, etc. Es decir, simplicidad para todo el mundo, menor coste de desarrollo de aplicaciones, menos tiempo de desarrollo, menos retardos, y sobre todo, posibilidad de ofrecer seguridad extremo a extremo.”
Otra notable ventaja de este enorme espacio de direccionamiento es que acelerará el desarrollo del “Internet de las cosas“. El Internet de las cosas, también llamado Internet de los Objetos (IO) por la UE transformará el mundo en que vivimos. En palabras del Comité Económico y Social Europeo,

… la IO conduce inevitablemente a una intelectualización del mundo tecnológico que nos rodea. Los objetos se vuelven «inteligentes» y en un determinado momento podrán aprehender sus propias posibilidades y propiedades y las de su entorno, adoptar decisiones de modo autónomo y actuar activamente para cumplir objetivos predeterminados o misiones asignadas. Cabe pensar que los objetos inteligentes estarán encondiciones de ejecutar las actividades más diversas y cumplir las tareas más variadas reaccionando en un momento dado a su entorno, es decir, adaptarse al entorno, modificar su configura­ción, reparar por sí mismos defectos propios e incluso decidir quién tenga acceso a ellos y cambiar de dueño.

En cuanto al soporte a la movilidad en IPV6, se consigue que cada dispositivo tenga una dirección IPV6 fija con independencia de su ubicación, y que pueda cambiar de lugar constantemente, incluido roaming, sin perder la conexión. También los dispositivos móviles pueden actuar como servidores en movimiento. Es por tanto una funcionalidad muy superior a la simple portabilidad que es lo que actualmente se puede conseguir con IPv4

En el caso de las AAPP, ya nos damos cuenta que la aplicación del protocolo IPV6 en sus redes y servicios permitirá poner orden en el galimatías actual, aplicando algunas de las recetas que sugeríamos en el anterior artículo. Pero para ello, obviamente, es preciso abordar cuanto antes una nueva redacción del documento Plan de Direccionamiento e Interconexión de Redes de Area Local de la Administración, que en realidad debería cambiar de nombre, pudiendo denominarse por ejemplo “Plan de direccionamiento e interoperabilidad IPV6 de las redes de la Administración“.

He eliminado intencionadamente el término “área local” pues creo que este plan debe cubrir todas las interconexiones, no sólo las internas o las de unos organismos con otros; también las que se refieren al mundo exterior.

Además, en este ámbito, las AAPP deben ser impulsores y líderes de la implantación de IPV6, no sólo por las ventajas y beneficios que les reportará sino por el efecto tractor de esta innovación en todos los ámbitos TI de la sociedad española.

Todo esto está muy bien, pero ¿cómo hacerlo?.

Hay que recorrer un largo camino hasta llegar a IPV6. Pero eso será tema de un artículo posterior.