Categorías
Funcionario Mejora de la Administración

Un ejercicio de transparencia

El día uno de enero de 2014, el Defensor del Pueblo publicó en el BOE la convocatoria de un procedimiento para la selección del Técnico Jefe del Área de Servicios Generales de la Institución (Tecnologías de la Información y de las Comunicaciones, Infraestructuras e Instalaciones).

Cuando ví esta convocatoria me gustó, y presenté una solicitud para participar en la misma. De este modo, he tenido el placer de vivir de primera mano y disfrutar del proceso, y quiero ahora hacer unos breves comentarios sobre el mismo.

Lo más singular de este proceso selectivo es que, a diferencia de otros, en éste se pedía el desarrollo de un “Proyecto de modernización del Sistema de Información del Defensor del Pueblo”. El proceso selectivo en sí, consistía en un conjunto de pasos en los que se verificaba el cumplimiento por los candidatos de una serie de requisitos y la evaluación tanto de sus méritos como, principalmente, del proyecto solicitado.

En un poco usual ejercicio de transparencia para este tipo de procesos en la Administración Pública, todos los pasos del procedimiento han sido hechos públicos en la web del defensor del pueblo, lo cual, junto con la abundante información disponible en su propia web, que incluye tanto aspectos organizativos como técnicos y económicos, y la información publicada por CORA sobre las diversas instituciones del Defensor del Pueblo a nivel estatal y autonómico, ha permitido a la Comisión de Valoración efectuar una selección que debemos entender como muy ponderada, y por lo tanto bastante ecuánime.

Finalmente, el proyecto que presenté no me permitió resultar elegido, aunque sí quedar entre los finalistas, juntamente con Montaña Merchán, con quien he compartido una larga andadura en la Administración.

Sé que sería difícil lograr que los procesos selectivos de personal directivo en las Administraciones Públicas alcanzaran tal grado de transparencia, pero al menos sería deseable que las convocatorias para cargos de libre designación estuviesen realmente abiertas a la participación de los posibles interesados, que los méritos exigibles para el puesto fuesen realmente los que se necesitan para su desempeño, y que tales méritos fuesen los que se utilizan para elegir el mejor candidato.

Como se decía no hace mucho en el blog Trabajando más por un poco menos, la libre designación no es un cargo de confianza. Especialmente en los puestos de carácter marcadamente técnico, y específicamente en aquellos relacionados con las Tecnologías de la Información, no parece muy adecuado el procedimiento, a veces utilizado, de buscar entre la lista de contactos alguien que pueda valer para el puesto y luego anunciar en BOE una plaza diseñada específicamente para el curriculum del precandidato, sea ésta alineada con el trabajo que va a desempeñar o no.

En fin, como no podía ser menos, y en linea con la transparencia del proceso en el que he participado, dejo en el dominio público el proyecto que presenté, para que cualquiera, sea propio o ajeno, pueda, llegado e caso, sacar provecho del mismo.

Un saludo a tod@s.

 

 

Categorías
Sociedad de la Información Tecnologías de la Información

Datatopia: las Tecnologías de la Información en el 2030

Interesante ejercicio el que ha planteado Gartner: Datatopia, Four Future Scenarios On The Role of Information and Technology in Society, Business and Personal Life, 2030.

Tras una convocatoria, muy abierta, a potenciales contribuidores para aportar sus visiones en el inescrutable mundo del futuro a 17 años, ha recogido y analizado las respuestas, y ha clasificado los mundos posibles según uno de sus tradicionales cuadrantes, a los cuales Gartner es tan aficionado. En ese mundo futuro, las visiones nos llevan a una de cuatro posibilidades:

  • Sociedad, Inc (controlado pero en conflicto)
  • El aprendiz de brujo (conectado pero anárquico)
  • El salvaje oeste digital (anárquico y en conflicto)
  • Datatopia (conectado y controlado)

Hay ideas, de nuevo según el análisis de Gartner, se repiten en la mayoría de las visiones, algunas de ellas inquietantes:

  • La tecnología nunca muere: almacenamiento, proceso e integración seguirán creciendo continuamente.
  • El cibercrimen seguirá su avance: no sólo conseguirá los datos privados, sino que los modificará. No sabremos si la información que vemos es fiable o no.
  • Las máquinas se hacen listas: asistentes digitales para todo.
  • Los datos cobran vida (Data Gets an “Attitude”): los datos te buscan a tí, en lugar de esperar sentados en una base de datos a que los busques.

Luego agrupa hasta 16 tendencias “utópicas” y 8 tendencias “distópicas“. Es evidente, por la dinámica del estudio, y adecuado también, que haya más visiones positivas que negativas. A pesar de ello, en el ámbito “social” es donde hay mas dudas, y donde se prevén de forma equiparable utopias y distopias sociales. Vaya por delante que me parece un ejercicio muy interesante, digno de leer, y que probablemente contenga bastantes ideas o tendencias que se irán haciendo realidad en los próximos años.

Hay que tener esas ideas en cartera, pues cuando haya signos evidentes de que se “materializan” estaremos más preparados para actuar en consecuencia. No obstante, ello no quiere decir que su probabilidad sea necesariamente alta. Más bien será baja, por mucho que nos ilusionen algunas de ellas, o temamos otras.

La estrategia a seguir, desde un punto de vista “rentable” sería la que recomienda NN. Taleb (ya sabéis, el de El Cisne Negro) para las inversiones en bolsa: hacer apuestas seguras (de bajo riesgo) para la mayoría de nuestro “capital”, pero dedicar una pequeña cantidad del mismo para apuestas “inseguras”, siempre y cuando, si se cumplen, representarían para nosotros un inmenso beneficio.

Dicho esto, habría que establecer dos condiciones de contorno de este estudio, quizás bastante obvias, pero para que nadie se llame a engaño:

  • Es un estudio sobre el futuro de las Tecnologías de la Información, por lo tanto, asume que las TI seguirán existiendo, y tendrán un papel dominante, en ese futuro. Descarta por tanto la hipótesis de “catástrofe digital”: El Cántico a San Leibowitz no está entre estos futuros posibles.
  • Es un estudio hecho por humanos, por lo tanto, también los humanos sobrevivimos y tenemos un papel dominante en ese futuro. Hipótesis del estilo de Matrix o Terminator (mundos dominados por máquinas) no tienen pues cabida.

Tras todo esto, el ejercicio hecho por Gartner, notable, interesante e innovador. ¿Están incluidas en el mismo las Administraciones Públicas?. Por supuesto, siempre y cuando las AAPP sigan desempeñando su papel vertebrador en la sociedad, lo cual, ¡esperamos que así sea!.

¿Deberían las Administraciones Públicas hacer estudios de prospectiva sobre la evolución de la aplicación de la tecnología en ellas, en plazos superiores a 10 años?. Hombre, no sería mala idea.

Realmente no he visto todavía un estudio de estas características, pero sí tenemos por ejemplo, como referencia cercana, el artículo de Gerardo Bustos 10 rasgos del empleado público en 2050. Inquietante también este artículo: anticipa, por ejemplo, la aparición de “funcionarios robots”.

Hmmmm… ¿No os dá un poquitito de miedo? D:

Categorías
Tecnologías de la Información

El PDF como puente entre el mundo físico y el mundo digital

Con frecuencia hablamos de Servicios de Tecnología, de Aplicaciones Informáticas o de Sistemas de Información, pero con menos frecuencia hablamos de la información en sí, en particular de cómo está esa información construida, almacenada y transmitida. Queremos hablar hoy del formato de la información digital.

Hay miles de formatos de ficheros digitales diferentes. En la Wikipedia se recogen unos 10.000, pero ella misma dice que no están ni mucho menos todos. Tradicionalmente, solo un programa o aplicación era capaz de abrir un determinado tipo de formato, porque para cada programa el programador se inventaba el formato de los datos que quería.

Hasta tal punto esto era general que solo una mínima parte de estos formatos son abiertos, es decir con especificaciones públicas sobre su contenido, y aún menos los reconocidos como estándares oficiales u oficiosos.

pdf_iconUno de los más importantes formatos de archivo, si no el más, es el formato PDF.  Como se indica en Wikipedia,

Cada fichero PDF encapsula una descripción completa de un documento plana de diseño fijo , incluyendo el texto, tipos de letra , gráficos y otros datos necesarios para que aparezca. En 1991 , el co-fundador de Adobe Systems,  John Warnock, esbozó un sistema llamado “Camelot” que dió origen al PDF

El PDF es un formato orientado a la página, destinado a verse pero no a modificarse. No es un buen formato intermedio para recuperar información a incluir en otros formatos de documentos. El éxito de PDF se puede explicar porque, debido a su estructura final y fija, hace que sea un buen medio de intercambio y almacenamiento de información a largo plazo.

Sin embargo, yo creo que hay una razón más profunda y más humana: el PDF es lo más parecido que encontramos dentro de un ordenador a un documento tradicional en papel. Los no-nativos digitales hemos ido a la escuela cargados de libros y de cuadernos de papel. Hemos estudiado la universidad e incluso hemos trabajado muchos años con diversos tipos de hojas, folletos y documentos “materiales” que vienen usándose desde la época de los egipcios.

Ahora tenemos ordenadores y en ellos desarrollamos la mayor parte de nuestro trabajo, sin embargo añoramos todavía esas hojas de papel que se deslizaban por nuestras manos. Nos gusta, y por eso nos gusta el PDF, porque nos lo recuerda. Nos hace también confiar más en él, de forma instintiva.

Otro aspecto psicológico importante es el de la perdurabilidad. Cuando veis un documento en vuestra pantalla, ¿no os parece que en cualquier momento puede desaparecer, o modificarse, o cambiar los márgenes o los colores o lo que sea?. Tenemos tendencia a desconfiar de la solidez de lo digital.

Pero de entre todos, el PDF nos promete una mayor inalterabilidad y permanencia, y no sólo es una impresión subjetiva: es también un hecho que se ha hecho realidad gracias a la evolución de este formato una de cuyas variantes estándares se denomina precisamente PDF/A (PDF for Archive) y está destinado a ser guardado durante muchos años y luego recuperado y poder seguir recuperando correctamente su contenido.

Cintas Univac. Fuente: Wikipedia
Cintas Univac. Fuente: Wikipedia

Me viene a la memoria unas cintas que teníamos, hace muchos años, en el CPD del Industria. Se trataba de unas cintas de nuestro UNIVAC 1100, y que probablemente contenían datos históricos de algunos sistemas que llevaba el Ministerio de Industria.

Al cabo de un año, mas o menos, de llegar yo, como resultado de un proceso de “downsizing“, el UNIVAC fué desmontado, y reemplazado por “sistemas abiertos”, pero allí quedaron las cintas guardadas… cintas que no sólo no se podían leer, sino que incluso aunque encontrásemos la forma de leerlas (había empresas que se dedicaban a ello), simplemente no podríamos interpretar su contenido.

Así que la perdurabilidad de la información digital es una cuestión importante. Recuerdo también que, muchos años después, cuando se empezaba a cacharrear con la firma electrónica y los PKI, los documentalistas y los notarios plateaban una cuestión de durabilidad. En efecto, había documentos legales que tenían efectos por más de 50 años. Si hay que verificar la firma electrónica de un documento dentro de 50 años, ¿quién nos asegura que la empresa o entidad que gestiona la correspondiente PKI sigue existiendo entonces?.

Ya hemos dicho que existe una versión del formato PDF que está diseñada para la perdurabilidad (PDF/A), pero debemos añadir también una inteligente característica de este formato, y es que mantiene siempre la compatibilidad “hacia atrás”, es decir, que cada nueva versión del formato, acompañada de una nueva versión del lector, permite ademas seguir leyendo todas las versiones anteriores.

De modo que hasta ahora tenemos dos cosas:

  • Un formato digital, PDF (propietario), que se ha generalizado con el uso, ya que cumple muy bien una necesidad básica, la representación de la información física en el mundo digital de forma aceptable por los humanos.
  • Una característica necesaria, la perdurabilidad, que en general escasea en el mundo digital.

Pero aún nos faltan otras tres cosas:

  • La adición de características y funciones de garantía, en relación al contenido, en relación a la autoría del mismo y a posibles validaciones (firma digital), en relación al momento en que el documento ha sido firmado y por lo tanto cobra validez (sellado de tiempo), y en relación a que todo esto pueda comprobarse en el futuro aunque las fuentes externas de prueba ya no estén disponibles (autocontenido).
  • Un estándar formal y abierto, que nos otorgue conformidad e interoperabilidad en el uso.
  • Un proceso de adopción oficial con valor legal por los organismos públicos que otorgue validez a todos los efectos de la información representada en este formato digital, y que regule y promueva la publicación oficial en este formato, incluso llegando a eliminar la tradicional publicación en papel.

Como os podéis imaginar, estos tres puntos están bastante relacionados entre sí. El proceso de generalización del uso del PDF y su adecuación a un conjunto de necesidades analógico-digitales se vió acompañado y reforzado con los procesos de estandarización, de los que algunos de los más importantes son:

  • PDF/A-1, estandarizado como ISO 19005-1:2005, basado en un subconjunto de la especificación PDF 1.4 de Adobe
  • PDF/A-2 y PDF/A-3 estandarizados posteriormente como ISO 19005-2:2011 e ISO 19005-3:2012 basados en ISO 32000-1:2008, a su vez apoyado en la especificación PDF 1.7 de Adobe
  • PAdES (PDF Advanced Electronic Signatures), que es un conjunto de restricciones y extensiones de la ISO 32000-1 para adecuarla al uso de la firma electrónica avanzada en el marco de la Directiva UE 1999/93/EC. Este estándard ha sido publicado por ETSI (European Telecommunication Standards Institute) como TS 102 778.

DNIE ejemploEn este punto, ya vemos los avances realizados en la evolución e integración del PDF con la firma electrónica y su estandarización, pero además ya vemos que comienza la plena eficacia legal de los documentos PDF firmados electrónicamente.

Así la adopción oficial ha ido avanzando, y según publicaba Adobe a modo de ejemplo, hay ya muchas organizaciones que establecen, recomiendan, o aceptan el formato PDF o PDF/A para el archivo a largo plazo de documentos digitales:

Organización Standard Aplicación
U.S. Library of Congress PDF/A Recomienda
U.S. National Archives and Records Administration (NARA)  PDF/A Acepta
European Commission (MoReq)  PDF/A  Recomienda
German government (SAGA v4 )  PDF/A  Recomienda
French government  PDF/A  Recomienda
Dutch government  PDF/A  Obliga
National Archives of Sweden  PDF/A  Acepta
Austrian National Library  PDF/A  Recomienda
National Archives of Norway  PDF/A  Recomienda
Organization for the Promotion of Automated Accounting  PDF/A  Recomienda
Brazilian federal legislature  PDF/A  Obliga
U.S. Courts  PDF  Obliga
Victoria, Australia, Public Record Office  PDF  Obliga
Italian government archiving standard  PDF  Acepta
Taiwan National Central Library  PDF  Recomienda

Y por supuesto es obligado mencionar que la Guia Técnica del Esquema Nacional de Interoperabilidad del Catálogo de Estándares establece el estándard PAdES (ETSI TS 102 778-3) así como los formatos PDF y PDF/A como estandares en el Estado español.

En cuanto a la utilización con plenos efectos legales de documentos en formato PDF, habría infinidad de ejemplos, pero vamos a citar únicamente dos:

En definitiva, el “humilde” PDF, es una pieza clave en nuestro viaje desde el mundo físico al mundo digital, tanto por factores sicológicos como tecnológicos y legales.

Bueno, hasta aquí vamos a llegar por hoy. Hemos pasado de un artículo mas bien filosófico a otro un poco mas “próximo”. ¿Cuál os ha gustado más?.

Categorías
Organización y TIC

¿Cómo puede revertirse la entropía del universo?

La última pregunta se formuló por primera vez, medio en broma, el 21 de mayo de
2061, en momentos en que la humanidad (también por primera vez) se bañó en
luz.

Isaac Asimov. La última pregunta.

En este delicioso cuento corto de Isaac Asimov plantea la que supuestamente sería la última pregunta del universo, ya que, según la teoría termodinámica, la cantidad de entropía total en el universo siempre aumenta, y por lo tanto el destino final del universo es la desaparición de cualquier forma de energía útil, y por lo tanto, su extinción.

Pero no vamos a adelantar, aún, la respuesta a esta pregunta, puesto que el motivo  de este artículo no es hablar de respuestas, sino, precisamente, de las preguntas.

Juzga más al hombre por sus preguntas que por sus respuestas. Voltaire.

El “white paper” What are Key Performance Questions?, del Advanced Performance Institute, trata de un elemento clave en la implantación de la estrategia de las organizaciones, que se encuentra entre la estrategia de alto nivel y la generación de indicadores (KPI) para medir la ejecución de esa estrategia: las Preguntas Claves (KPQ – Key Performance Questions).

Es bastante frecuente en las organizaciones que nos encontremos con, a veces, numerosos indicadores y cifras que pretenden reflejar nuestra actividad o la de los servicios que prestamos. Pero también con frecuencia, no está muy claro que esa superabundancia de cifras tenga algún significado útil.

Muchas veces no se mide lo que se necesita medir, sino lo que es fácil medir. Otras veces se obtienen cifras globales y genéricas, que cuesta mucho relacionar con la efectividad de nuestro funcionamiento, y sobre todo de nuestro propósito o misión como organización.

Como consecuencia, tenemos mucha información, pero no resulta útil para analizar si lo estamos haciendo bien y tampoco qué podemos hacer para mejorar. Esto crea un trabajo extra de recogida de información que se percibe como una carga más que como una ayuda, y también produce desconcierto tanto en el que genera información como en el que la recibe.

¿Porqué pasa todo ésto?. Porque buscamos las respuestas sin haber buscado antes las preguntas correctas. En muchas ocasiones, es incómodo hacer preguntas. Resulta incómodo que nos interroguen sobre aspectos de nuestro trabajo. Pensamos que se nos está sometiendo a un escrutinio porque se desconfía de nosotros.

Sin embargo, la esencia del progreso, así reconocido en el método científico, es la elaboración de preguntas. El documento antes mencionado afirma:

“Las preguntas tienen un impacto físico, mental y emocional en nosotros como seres humanos. Una vez que alguien nos ha hecho una pregunta, desencadena un mecanismo de búsqueda en nuestro cerebro. Este es el comienzo de un proceso de reflexión y pensamiento que constituye el inicio del aprendizaje.”

El documento del Advanced Performance Institute hace luego unas propuestas de cómo deben ser las Preguntas Claves (KPQ):

  • las Preguntas Claves tienen que estar enlazadas con la estrategia de la organización
  • hay que involucrar a la gente implicada en el diseño de las Preguntas Claves
  • las Preguntas Claves tienen que ser abiertas (no cerradas)
  • las Preguntas Claves tienen que enfocarse en el presente y en el futuro (no en el pasado)
  • las Preguntas Claves deben ser cortas y claras
  • las Preguntas Claves  se refinan con el uso

Así podemos ver si “La última pregunta” de Asimov cumple todos estos requisitos:

  • La (posible) reversión de la entropía esta claramente relacionada con el destino del universo.
  • La pregunta la plantean los humanos, los cuales están claramente implicados (suponemos).
  • La pregunta es abierta: no dice si es posible sino cómo podría hacerse.
  • Se dirige al futuro
  • Es corta y clara
  • Si leéis el cuento de Asimov, veréis cómo se va planteando una y otra vez, mejorando con el uso.

Estas reflexiones se pueden aplicar no sólo al proceso de diseño y ejecución estratégico, sino a cosas más humildes como cualquier proyecto informático. En un proyecto informático típico, tenemos cuatro fases principales:

  1. Definición (diseño)
  2. Construcción (desarrollo)
  3. Transición (pruebas, validación, entrega)
  4. Operación (explotación)

Las fases más difíciles son, sin duda alguna, la primera y la tercera, porque es donde se hacen las preguntas: “¿qué es lo que queremos hacer?” y “¿hemos hecho lo que queríamos?“, pero también son las más importantes, pues son las que mayor impacto tienen en el producto o servicio final: Si el producto es realmente lo que necesitamos, y si funciona realmente como necesitamos que funcione.

Por todo ello, es en estas dos fases más críticas donde se necesita gente más preparada y conocedora tanto del negocio como de la tecnología.

Desgraciadamente, son justo estas dos fases donde menos recursos se suele destinar. En la fase de definición, muchas veces se concluye con unas especificaciones cuando menos vagas y “volubles”. En la fase de pruebas, incluso aunque esté correctamente planificada, es frecuente que sea víctima de un “salto” producido por el retraso de las actividades de construcción y la presión del negocio para la entrega del producto en las fechas acordadas.

Estos son problemas tan frecuentes que se han creado las denominadas metodologías ágiles que precisamente abordan el problema de las difíciles preguntas (y respuestas) en diseño y pruebas mediante un método iterativo de “ensayo y error”.

En general, la provisión de servicios TI será siempre un proceso iterativo, pues no sólo hay que refinar los servicios para mejorar la eficacia y eficiencia, sino que el escenario que genera la demanda del servicio es continuamente cambiante y por lo tanto es preciso una adaptación constante a las demandas y al entorno:

continuous-improvement-cycle-web-full

Pero la mejora contínua, recordémoslo, no es posible si no nos hacemos, una y otra vez, las preguntas clave adecuadas.

Para acabar, volvamos a la famosa pregunta:

¿Cómo puede revertirse la entropía del universo?

Sólo diré, sin ánimo de destripar el cuento, que la pregunta se la hacen a Multivac, la mente mecánica super- evolucionada, y que, hasta la respuesta final, siempre responde lo siguiente:

DATOS INSUFICIENTES PARA RESPUESTA ESCLARECEDORA

Si no fuera una máquina, diríamos que está intentando escurrir el bulto. Pero claro, ya sabemos que las máquinas (por lo menos tal como se veían en 1959) son excesivamente literales. Carecen de ambiguedades y de sutilezas.

Aún así, finalmente encuentra la respuesta, y todo lo que puedo contar es que la respuesta a la última pregunta es la primera de las respuestas. Para el que quiera saber más que se lea el cuento.

Sin embargo, esto es lo que respondería Multivac. Pero yo me atrevo a hacer un par de elucubraciones diferentes, una bastante pesimista, y la otra un poco mas optimista:

  • Por su propia naturaleza, la entropía es irreversible. Por lo tanto, cualquier intento por alterar cualquier cosa, incluido el curso de la entropía, generará más entropía, y por lo tanto sólo conseguirá acelerar el fin del universo.
  • El universo no sólo se compone de materia y energía, sino de materia, energía e información. En el microcosmos (nivel atómico) y en el macrocosmos (galaxias), la relevancia de la informacion frente a las otras dos es infimo, pero en el mesocosmos, donde se desarrolla la vida, es al contrario. Así que la vida puede llegar a revertir finalmente la entropía mediante el dominio de la información. Tal como dice N N Taleb, podemos llegar a ser “antifrágiles”.

En otras palabras, ¿no estamos, tu y yo, querido lector, luchando contra la entropía del universo constantemente?. ¿No es eso la esencia de la vida?.

Categorías
Administración Electrónica

El impacto de la Administración Electrónica en el Servicio Público

Este es el título de la ponencia que Montaña Merchán y yo hemos presentado al XI Congreso Español de Ciencia política y de la Administración, convocado por la Asociación de Ciencia Política y de la Administración, en la que se aborda un planteamiento general sobre el papel de las Tecnologías de la Información en la sociedad en general y en la Administración Pública en particular.

Para ello, se analizan tres servicios de eAdministración en los que, para nosotros, se ponen de manifiesto las posibilidades de las TI como elemento de innovación en servicios, procesos y organización, con las ventajas que, tanto para la sociedad como para la Administración, se obtienen.

A continuación se hace un análisis de impacto de las TI en la Administración, desde el punto de vista no sólo de la disponibilidad de los servicios administrativos electrónicos y de su grado de utilización, sino también desde el punto de vista de la satisfacción de sus destinatarios, los ciudadanos y las empresas.

Se aborda luego la evolución de la eAdministración hacia un concepto más amplio denominado “Gobierno Abierto” el cual es habilitado por el desarrollo de las Tecnologías de la Información aplicadas a la Administración Pública.

Para finalizar se analiza el fenómeno de la nueva Sociedad Conectada, de las incertidumbres que plantea, y se hacen propuestas para que la Administración mantenga su papel vertebrador de la sociedad, para lo cual inevitablemente la Administracion ha de evolucionar hacia una organización mucho más adaptable de lo que es hoy en día.

Aquí os dejo el artículo, en formato PDF:

El impacto de las tecnologías en el servicio público
Categorías
Funcionario Innovación

Innovación en la Administración Pública

El Club de Innovación ha lanzado una iniciativa denominada Club de Innovadores Públicos – CIP “… con la única misión de hacer compatibles los factores “innovación” y “sector público”, apoyando y divulgando las iniciativas de aquellos que, de alguna manera, emprenden o promueven fórmulas imaginativas de ahorro y eficacia en el seno de sus responsabilidades en la administración pública.

Yo creo que la Innovación es, fundamentalmente, una actitud, una visión, una forma de ver las cosas y de afrontar los problemas y de enfocar tanto los grandes proyectos como los pequeños detalles del día a día.

Es más un camino que se recorre que un sitio al que se llega (un poco como la felicidad).

Innovación está asociada con el cambio, pero con el cambio positivo. Innovación supone anticipación, supone tomar las riendas antes que adoptar una actitud pasiva. 

Innovación no siempre supone éxito. A veces innovar supone fracaso, porque requiere intentar, y cuando se intenta, a veces se consigue y a veces no. Sin embargo, siempre se aprende. Y el aprendizaje es, en si mismo, un logro, y una vivencia. Y también, evolución.

¿Es necesaria la innovación en las Administraciones Públicas?

Cuando entré en la Administración, descubrí con sorpresa que la Administración cambiaba internamente mucho más de lo que me había imaginado. Por poner un pequeño y simple ejemplo, las reorganizaciones internas eran tan frecuentes que, al contrario de lo que se hacía hasta entonces, propuse que los nombres de todas las unidades orgánicas del Ministerio, así como su dependencia jerárquica, fuesen variables en el código del software y no constantes como se hacía hasta entonces.

Pero, además, las Administraciones están llamadas a cambiar mucho más profundamente porque la sociedad está cambiando cada vez más rápidamente. Y la principal razón de existir de las Administraciones es precisamente servir a la sociedad. Si la Administración no cambia no podrá realizar ese cometido. Y el cambio que debe realizar no es tomar otra forma distinta: es flexibilizarse, estar preparada para una evolución o cambio contínuo.

La innovación debe pasar a ser, pues, parte del genoma de la Administración Pública.

La innovación más simple, más inmediata, es la innovación tecnológica. Introducir tecnología nueva es cotidiano, también en la Administración. Pero esa tecnología no debe servir para tecnificar un procedimiento: debe permitir innovar en el procedimiento, en el trámite, o si no perderemos la mayor parte de las ventajas que la tecnología nos puede aportar. El siguiente escalón de innovación, en dificultad, es el organizativo. La innovación organizativa llevará más tiempo que las anteriores, pero es necesaria para que el impulso conseguido con la innovación tecnológica y de procedimientos se mantenga y se extienda.

Pero la innovación más difícil, pero la más importante, es la innovación en las personas. Cuando las personas asumen por si mismas la actitud innovadora, es cuando podemos decir que la innovación pasa a formar parte del genoma de la Organización.

Puede no ser más que un gesto, pero si crees que alguna de las ideas que componen el compromiso del innovador público te resulta familiar, o simplemente si te gustaría intentarlo, te animo a que firmes con los más de cien que ya lo han hecho en el formulario de aceptación  del Club de Innovación o remitiendo un mail a red@clubdeinnovacion.es con todos tus datos profesionales.

Este es el “COMPROMISO DEL INNOVADOR PÚBLICO“:

“COMPROMISO DEL INNOVADOR PÚBLICO”

Como innovador en la Administración Pública,
Me comprometo:
  • A creer que una Administración mejor es posible y no rendirme nunca en la demanda de mejoras y cambio.
  • A fomentar la transferencia de conocimiento, la cultura de cambio y la innovación abierta.
  • A promover la eficiencia y los principios éticos.
  • A mantener una actitud de aprendizaje continuo, beta permanente, dispuesto al cambio y no cerrarme a nuevas oportunidades, abriendo ventanas dónde me encuentre puertas cerradas.
  • A colaborar e interoperar, a forjar conexiones con todos aprovechando sus potencialidades y buscar y apoyar a aquellos que compartan estos compromisos.
En el trabajo
Me comprometo:
  • A implicarme en las nuevas iniciativas, conseguir objetivos y a aceptar el fracaso.
  • A analizar cada situación como si fuera nueva huyendo del “siempre se hizo así”.
  • A integrar el capital intelectual disperso alrededor de nuevos proyectos.
  • A no condicionarme por políticas o jerarquías y trabajar por aquello en lo que creo.
  • A formarme y buscar la excelencia .
Con el equipo
Me comprometo:
  • A potenciar la creatividad y estar abierto a nuevas propuestas.
  • A fomentar un entorno participativo y la implicación del equipo.
  • A escuchar, compartir y delegar, a generar confianza y a confiar.
  • A fomentar el gusto por el trabajo bien hecho.
  • A formar, informar y motivar.
Con la Administración
Me comprometo:
  • A poner en práctica los valores de lo público: equidad, servicio, transparencia y colaboración, tanto hacia adentro como hacia afuera.
  • A hacerlo de forma simple, rápida y ubicua.
  • A trabajar con criterios de legalidad, transparencia, eficiencia en el gasto y solidaridad.
  • A mantenerme formado y a pedir y dar ejemplo de excelencia en el trabajo.
  • A prestigiar y humanizar mi Administración, mejorar su valoración por los ciudadanos y trabajar por sus objetivos.
Con los ciudadanos
Me comprometo:
  • A situar al ciudadano en el centro de mi actividad profesional.
  • A escucharle fomentando los canales de participación y comunicación.
  • A buscar y apoyar las mejores soluciones, facilitando su acceso a los servicios públicos.
  • A hacerles partícipes, coautores y corresponsables del diseño y prestación de los servicios públicos.
  • A tratar a cada persona de manera individual, con ética pública, transparencia y agilidad.
(1) Hemos intervenido en la creación del documento VerAlberto Ortiz de Zárate, Antonio Arias, Antonio Díaz Méndez, Antonio Galindo, Ascen Moro, Bartolomé Borrego, Borja Colón de Carvajal, Carlos E. Jiménez, Carlos Guadián, David Rey Jordan, Emilio García García, Estefanía Serrano, Felix Serrano, Guillermo Yáñez, Iñaki Ortiz, J. Diaz Rguez, J. Ignacio Criado, Jordi Graells, Jorge Campanillas Ciaurriz, Jose Antonio Latorre, Julian Valero, Marc Garriga Portolà, Mario Alguacil, Marta de Miguel, Miguel de Bas, Montaña Merchan, Núria Vives, Óscar Cortés, Pablo Muiño, Roberto Santos, Víctor Almonacid, Virginia Moreno.

Categorías
Tecnologías de la Información

Computer Music (notas y bits)

Robot tocandoMiguel habló:
– Oye MICA, vamos a tocar un tema siguiendo el ritmo del viejo Dizzie Gillespie, ya sabes, con un poco de sonido latino y sin dejar el ambiente festivo. Yo empezaré tocando unos compases de entrada y luego tú me sigues.
Algunas luces parpadearon en la consola.
Una partitura se dibujó en la pantalla y un metrónomo comenzó a repetir el regular “TOC-TOC”. Una voz asexuada dijo:
-Cuando quieras, Miguel.
y ambos empezaron a tocar.

Alrededor de 1990 escribí un artículo para publicar en la revista de mi empresa, Fujitsu España. El artículo versaba sobre la relación entre las computadoras y la música. En él hice un didáctico repaso a las múltiples relaciones entre la tecnología y la música, en el estado del arte de aquel entonces, llegando incluso a abordar el asunto de la Inteligencia Artificial aplicada a las herramientas de ayuda y colaboración en las tareas de diseño e interpretación musical.

En este artículo se abordaban interesantes cuestiones como la gestión de las emociones y sentimientos por parte de los ordenadores, o la explotación de las matemáticas fractales de Mandelbrot como fuente de inspiración para la composición musical.

Como curiosidad, en el artículo se mencionan varios instrumentos digitales innovadores, entre ellos el denominado “VideoHarp”, el cual fué patentado en 1990 en USA con la patente US4968877  (A)  –  VideoHarp.

Por aquella época yo era miembro de la ICMA (International Computer Music Association) e incluso asistí a alguno de sus congresos internacionales, en concreto uno que se realizó en San José, California, en 1992.

Mi sueño era entonces diseñar un programa o sistema que realizase un acompañamiento automático, basado en algunas instrucciones simples de tipo general, y luego el programa “escuchaba” lo que el músico tocaba y generaba un acompañamiento adecuado.

Curiosamente, y a pesar de todos los avances en la tecnología, aún parece que estamos lejos de llegar a ver sistemas como éstos.

La música ha sido desde hace muchos años un gran “driver” de la tecnología. Quiero decir que varias ramas de la tecnología electrónica primero, y digital después, se aplican de forma intensiva en el diseño de instrumentos musicales, así como de los sistemas de grabación, procesado, almacenamiento y transmisión. Por ello se puede aprender mucha tecnología estudiando simplemente la tecnología musical.

Durante muchos años me interesaron estos temas. Aparte de mis limitados conocimientos musicales, y de participar esporádicamente en una banda con amiguetes, también diseñé y construí algunos instrumentos musicales electrónicos con tecnología digital. Tenía grandes ideas para hacer algo mejor pero no tenía ni el dinero ni el tiempo. Lamentablemente no se me ocurrió patentar estos diseños. Quizás si lo hubiese hecho habría conseguido pingües beneficios por la explotación de estas patentes por marcas como Yamaha, Casio, Roland, o Kurtzweil.

Para los interesados en esta lectura arqueológica tecnológica de verano, aquí les dejo mi artículo:

1990 Felix Serrano – Computer Music Notas y Bits (PDF)

 

Categorías
Administración Electrónica

¿Email certificado o notificación telemática certificada?

certificadoHace poco apareció la siguiente noticia: El e-mail certificado, una prueba irrefutable en una causa judicial. Según el artículo, “la sala primera del Tribunal Supremo ha confirmado la validez jurídica de una notificación realizada vía e-mail entre un procurador y un cliente moroso.”

Aunque la noticia no enlaza con el Auto del Tribunal Supremo mencionado, gracias a las nuevas tecnologías no es difícil hacer una búsqueda en Google, una vez que hemos averiguado que el ponente del auto era Xavier O’Callaghan Muñoz, y que la fecha del auto era bastante reciente.

Una vez localizado el Auto ATS 2501/2013, que por todos los indicios parece ser al que se refiere el artículo, observamos que en el texto del mismo no contiene la expresión “e-mail certificado”, sino que habla en todo momento de notificaciones electrónicas:

“… el procurador de los tribunales obtuvo la efectiva notificación y requerimiento en forma telemática, con los certificados electrónicos acreditativos de la práctica de ello emitidos por un prestador de servicios de certificación.”

¿Se trata de una simple cuestión de nomenclatura, o realmente hay diferencias conceptuales entre un email certificado y una notificación telemática certificada?

Empecemos por decir que el email, o correo electrónico -ese que usamos habitualmente- se compone de un conjunto de elementos como son las redes, los servidores, los clientes, y las aplicaciones, todos los cuales utilizan para comunicarse varios protocolos de Internet. El más importante es el SMTP, que define la transferencia de los mensajes entre los servidores o desde los clientes a los servidores, pero hay también otros como POP3 e IMAP que sirven a los clientes para acceder a los buzones situados en un servidor.

Pero en todos estos protocolos no existen, al menos de forma generalizada, previsiones que nos permitan certificar ni el envío ni la entrega de los mensajes, incluyendo la autenticidad del emisor, del receptor, del contenido, y del acto de acceso al contenido por el destinatario de un mensaje determinado (lo que implica la funcionalidad de “no repudio”).

Esto es así por diseño. Aunque después, para mejorar la seguridad y funcionalidad del correo, se ha puesto en marcha el protocolo S/MIME, el hecho es que no es de uso generalizado, por lo que no es una herramienta práctica para las notificaciones de correo electrónico certificado.

¿Cual es la solución?. Básicamente lo que se hace es que las operaciones de identificación de remitente, certificación de contenido, identificación de destinatario, y certificación de entrega, son realizadas por un tercero de confianza. Para ello, además del uso de sistemas de firma electrónica, normalmente basados en una infraestructura de clave pública (PKI), se necesita una base de datos donde se almacenen de forma segura todos los elementos, un sellado de tiempo para certificar cuándo se han realizado las operaciones, y un servidor web al que acceden los clientes (remitente y destinatario) para hacer las operaciones de envío, recepción, verificación, etc.

En este contexto, el uso del correo electrónico puede servir de ayuda, pero las operaciones de certificación son completamente ajenas al mismo.

Si comparamos este sistema de certificación con el existente en la certificación del correo postal, vemos que hay similitudes, pero también algunas diferencias importantes:

  • Las operaciones de identificación, firma, certificación, y acuse de recibo, se siguen haciendo, pero en el sistema postal, es el propio proveedor de correo quien las hace, mientras que en el sistema electrónico es alguien externo al mismo.
  • Los sistemas de firma electrónica requieren el uso de un proveedor de firma reconocido, mientras que los de firma manuscrita, no.
  • En el correo postal certificado, la entrega se hace muchas veces en el domicilio del destinatario; en cambio en la notificación electrónica siempre hay que acudir a la web del tercero de confianza para recoger el contenido y firmar el acuse de recibo.

En realidad lo que pasa es que lo fácil es hacer la similitud entre el concepto “correo postal” y el concepto “correo electrónico”, y extenderlas a funcionalidades tales como el “correo certificado”, pero como ocurre con frecuencia, tal asimilación puede llevarnos a errores de interpretación importantes, por lo que lo prudente es estudiar un poco el asunto y llamar a las cosas por su nombre.

Este artículo no es una critica a ninguno de los servicios de certificación de notificaciones existentes, algunos de los cuales se citan en el artículo antes mencionado. Al revés, son servicios necesarios pues como hemos visto el correo de Internet no las tiene, y por lo tanto es bueno que se pueda utilizar, con todas las garantías legales, cuando sea necesario.

Sin embargo si que hay algo con lo que tenemos que tener cuidado: hacer paralelismos entre el mundo virtual y el mundo físico nos puede ayudar a tener una comprensión rápida del mundo virtual, pero también puede llevarnos a errores conceptuales. Para trabajar bien con el mundo virtual (y aprovechar sus ventajas), es necesario comprender su funcionamiento y las diferencias con el mundo físico.

Además, es importante que los que trabajamos en las Administraciones Públicas utilicemos la nomenclatura correcta cuando hablamos de estas cosas. En ese sentido, el Auto ATS 2501/2013 es ejemplar, tanto en lo que resuelve como en los argumentos expuestos para resolverlo.

Dicho sea de paso, lo que este Auto confirma es la validez jurídica de las notificaciones electrónicas como prueba en las relaciones entre particulares. Pero debemos recordar que la Administración española ya lleva usando las notificaciones telemáticas con plena validez legal varios años, ya que así fué establecido en la Ley 11/2007, artículo 28, así como en el Real Decreto 1671/2009, artículos 35 a 40.

Curiosamente, en el artículo Artículo 39 del RD 1671/2009 se admite “la práctica de notificaciones en las direcciones de correo electrónico que los ciudadanos elijan siempre que se genere automáticamente y con independencia de la voluntad del destinatario un acuse de recibo que deje constancia de su recepción y que se origine en el momento del acceso al contenido de la notificación.” Sin embargo, como hemos visto, el correo de Internet no cumple estas condiciones, por lo que lo habitual es que las notificaciones electrónicas sean por comparecencia, de modo muy similar a como la realizan los servicios comerciales de notificaciones electrónicas antes mencionados.

Ello no obstante, no excluye definitivamente uso del correo electrónico en las comunicaciones entre las Administraciones y los ciudadanos. Bien al contrario, es muy útil, pero tenemos que ser cuidadosos en no denominarlas “notificaciones electrónicas” sino “comunicaciones electrónicas” pues el alcance y valor legal de unas y otras es muy diferente.

Bueno, aquí lo dejo por hoy.

¡Buen fin de semana a todos!

Categorías
Gobernanza Organización y TIC

Metodologías Ágiles en las Administraciones Públicas

chicken-pigs-cartoon

Hace pocos días he recibido un curso de SCRUM. Se trata de una metodología (Román, mi profesor, prefiere llamarlo una cultura) adecuada para proyectos de desarrollo ágil, que se utiliza alternativamente al tradicional modelo en cascada.

En el modelo tradicional de desarrollo, se empieza por definir las especificaciones, luego se planifica, se construye, se prueba y finalmente se pone en explotación la aplicación o el servicio.

En cambio, en SCRUM,  todo este proceso se subdivide en una serie de ciclos (sprints en la jerga SCRUM) durante los cuales se van implantando alguna de las características. El proceso de definición, creación, entrega de características del producto se va refinando cíclicamente. Esta forma de trabajar tiene varias ventajas, entre las que cito:

  1. Se dispone mucho antes de los primeros resultados, aunque no sean todos ni definitivos, pero eso ayuda mucho en la posterior marcha del proyecto.
  2. Con frecuencia las especificaciones o requisitos no están claros cuando se arranca el proyecto, por lo que es fácil ir adaptando la marcha del proyecto mientras se van refinando mejor esos requisitos.
  3. También es mucho más fácil adaptar el proyecto a sucesos externos imprevistos (económicos, tecnológicos, políticos, etc.)
  4. Además, la forma de trabajo, en la que se comparte toda la información entre los participantes y se toman muchas decisiones por consenso entre ellos aumenta mucho la motivación y a la postre la productividad.

Incidentalmente, este enfoque tiene mucho que ver con el proceso de ensayo y error que, según la teoría de Nassim Nicholas Taleb, permite descubrir la convexidad de los procesos y aprovechar los cisnes negros positivos, es decir, los sistemas antifrágiles.

En un larguísimo artículo que publiqué hace algo más de dos meses, titulado La meta (de las unidades TIC de la Administración), y cómo alcanzarla, ya se abordaba una de las metodologías ágiles, o más bien marcos (frameworks) más utilizados, el Lean Development, o desarrollo magro, diseñada para minimizar los desperdicios en el proceso de fabricación, y hablaba de una hipotética aplicación a la optimización de las unidades TIC de la Administración.

En el caso de SCRUM, otra de las más metodologías comunmente usadas para el desarrollo ágil de software, lo interesante es que la optimización de los procesos se realiza de forma adaptativa, no solamente respecto al proceso de producción en sí, sino también en cuanto a la definición del producto y sus características, lo cual en muchas ocasiones puede llegar a ser verdaderamente complejo. La Guia de Scrum lo dice así:

SCRUM es un marco de trabajo dentro del cual las personas pueden afrontar complejos problemas adaptativos, a la vez que entregan productos del máximo valor posible de forma productiva y creativa.

Por otra parte, Scrum se fundamenta en la teoría empírica de control de procesos, o empirismo:

El empirismo asegura que el conocimiento procede de la experiencia y de tomar decisiones basándose en lo que se conoce. Scrum emplea una aproximación iterativa e incremental para optimizar la predictibilidad y controlar el riesgo. Tres pilares soportan toda implementación del control empírico de procesos: transparenciainspección y adaptación.

No voy a ahondar ya más en SCRUM. Sólo decir que el total de lo que he aprendido, y es bastante, me ha gustado mucho. Lo recomiendo a todos los que se interesan por formas alternativas de funcionar en proyectos que puedan mejorar los resultados, no sólo en los entregables del proyecto en sí,  sino también resultados indirectos como la satisfacción y motivación de los participantes, tanto si son cerdos como si son pollos.

El asunto de los pollos y los cerdos (véase el comic de inicio de este atículo) es bastante famoso en el marco SCRUM ya que se usa para definir los diferentes roles que se desempeñan: los usuarios, los jefes, y otros interesados (stakeholders) están involucrados, como los pollos, que forman parte del plato porque ponen los huevos;  los integrantes del equipo Scrum, incluido el propietario de producto y el maestro Scrum (Scrum Master) están comprometidos, como los cerdos, pues ponen algo más “íntimo” que los pollos, o sea se juegan mucho más, al estilo del Mercader de Venecia.

Resulta fácil pues hacer un ejercicio de aplicación de esta metáfora al caso del CIOAGE y la Agencia TIC (así como al resto de medidas de carácter netamente TIC) en el informe CORA: podemos ver que en estas medidas, la CORA está involucrada, pero los los TIC de la Administración estamos comprometidos.

En fin, ahí lo dejo. Quiero concluir sin embargo con un pequeño desafío: sería muy interesante hacer el ejercicio de aplicar SCRUM a las 217 medidas propuestas por CORA, e ir planificando y ejecutando dichas medidas según una metodología ágil.

¿Alguien se atreve?

Categorías
Funcionario

Españoles TIC por el mundo

De lo más interesante que hubo en el pasado ASTICNET 2013 fué la entrevista que Victor Izquierdo hizo a Francisco García Morán. Paco lleva casi 23 años trabajando para la Comisión Europea (CE), y ha sido durante más de ocho años Director General de Tecnologías de la Información de la CE.

En la entrevista se relatan interesantes proyectos realizados, desde la informatizar la red provincial del Ministerio de Educación, durante la primera mitad de los 80, que se fusionó finalmente con las transferencias a las CCAA, hasta su participación en la división de informática encargada de los servicios la traducción de la CE, explicando las tecnologías existentes en materia de traducción automática.

La entrevista pasa luego a relatar sus las contribuciones al consejo asesor que ayudó a la elaboración de la Ley 11/2007, en colaboración primero con Juan Miguel Marquez y luego con Fernando de Pablo, siguiendo la iniciativa del Ministro Jordi Sevilla.

En referencia a las actividades en marcha para la reforma de la Administración de CORA,  y en concreto a la parte de las TIC dentro de este ámbito,  Francisco García Morán recomienda tener en cuenta tres elementos fundamentales: la Gobernanza de las TIC, la identificación, dentro de la cadena de valor, de los elementos que son actualmente “commodities“, los cuales al ponerlos en común (consolidarlos) generan beneficios, y usar esos beneficios para invertir en innovación. Y por último, la identificación y aprovechamiento de los elementos que permiten la colaboración, y su intercambio en modo servicio (quizás enfocado hacia una federación de servicios). Esos, según sus palabras, son los planteamientos actuales dentro de la Comisión Europea.

En cuanto a la pregunta sobre la relación entre las TIC y el negocio, la opinión de Paco García Morán es que las TI son realmente muy relevantes y que recortar en TI es ahorrar en el chocolate del loro. Por ello recomienda mejorar el estilo de comunicación para poner de relieve lo que han hecho, y hacen, las TIC por el negocio (“nosotros tenemos que ser las buenas noticias”). Además recomienda optimizar el backoffice para mantener los servicios del frontoffice, que es donde se prestan los servicios al ciudadano.

Para finalizar, el consejo para los profesionales TIC, en base a su experiencia personal: “Ningún complejo todos los que estáis aquí: sois los mejores. Probablemente, la organización que tenemos haya hecho que todo el potencial no se haya aprovechado. Pero en calidad, aquí la hay a raudales.”

Para los interesados, me permito reproducir aquí la entrevista, publicada también en la Web de la Fundación ASTIC:

Otros españoles TIC por el mundo

A lo largo de mi carrera profesional, he coincido también con otras personas de mi profesión que han tenido también un notable éxito a nivel internacional, como Maria de los Angeles Marced, con quien coincidí en mi primera etapa en SECOINSA, y que llegó a ser Vicepresidenta Mundial de INTEL y Directora General para Europa, Oriente Medio y África.

Y más recientemente hemos conocido el caso de Bernardo Hernández, quien ha trabajado bastantes años para Google como Director de Producto y a quien recientemente propusieron para #CIOAGE en twitter.

En mi caso particular he hecho también mis pinitos, el primero y más largo cuando participé durante 15 meses en equipo de diseño del modem V.32 en la fábrica de Fujitsu en Minamitama (Tokyo), junto con dos españoles más: Jose Manuel Salgueiro y María Martínez. Desde aquí, un saludo para ellos.

Posteriormente, y ya en la Administración, participé en varios grupos de trabajo internacionales, primero en I+D en TIC en CISTRANA, y después en otro dedicado a las pequeñas y medianas empresas (PYMES), eBSN. Incluso llegué a participar en alguna reunión en Bruselas representando a la DG para la Sociedad de la Información, donde expuse mi propuesta “Internet gratis para todos“, que luego trasladé a un post en mi recién inaugurado blog eFuncionario.

En fin, no puedo terminar sin recordar alguno de los numerosos compañeros de ASTIC que han emprendido carrera internacional, como Rafael Chamorro, actualmente en la Oficina Española de Turismo en Oslo y autor del blog Sociedad En Red. Rafa: echamos de menos tus interesantes contribuciones. O Fernando Martín, que actualmente está nada menos que en la Universidad de Melbourne. Y entre las nuevas generaciones de ASTIC tenemos a Guadalupe Muñoz, trabajando como experto en innovación TIC para la Comisión Europea, o Clara Galán, trabajando para la European Network and information Security Agency (ENISA) en las áreas de servicios de confianza e identidad electrónica. Y seguro que me dejo muchos más en el tintero.

Según mi experiencia personal, y tal y como seguramente pueden confirmar nuestros compañeros que trabajan actualmente en el extranjero, y haciendo mías las palabras de Paco García Morán, los españoles TIC que trabajan por el mundo están al menos tan preparados como cualquier otro profesional de cualquier otro país. Para el que quiera plantearse una carrera profesional fuera de España tiene todas la posibilidades, aunque, como también dice Paco, se trata de un proyecto vital, y así hay que entenderlo.

Me gustaría que, del mismo modo que Francisco García Morán nos ha contado su experiencia y nos ha ilustrado con sus sabios consejos, todos estos españoles que están por el mundo nos contasen también cómo les va para aprender, y quizás para darnos un poco de envidia.

Porque, según me dijo el que entonces era mi jefe, Victor Izquierdo, “Salir fuera te abre la mente”.