Todo va a cambiar (26 page)

Read Todo va a cambiar Online

Authors: Enrique Dans

Tags: #Informática, internet y medios digitales

BOOK: Todo va a cambiar
12.03Mb size Format: txt, pdf, ePub

¿Cuál es la razón para el brusco incremento de popularidad de una gama de ordenadores menos potente que la existente, con teclados en los que es preciso teclear con las puntas de los dedos y pantallas menores de diez pulgadas? Los ultraportátiles resultan notablemente incómodos para trabajar un tiempo prolongado con respecto a un portátil o sobremesa convencional, pero cuestan entre cuatro y ocho veces menos, y tienen un planteamiento muy diferente al de éstos: de hecho, quien adquiere un ultraportátil pensando que se trata simplemente de “un ordenador pequeñito” suele acabar frustrado, porque el concepto es completamente diferente. La idea de un ultraportátil, todavía no completamente llevada a la práctica, es la de ofrecer una máquina que arranca en segundos al abrir su tapa, que tiene un sistema operativo completamente minimalista, seguro y a prueba de bomba en su estabilidad, y que es capaz de detectar el estado de conexión del momento: si está en una zona con conectividad inalámbrica en abierto o en una red de la que tiene la clave, se conecta automáticamente. De no ser así, lanza la conexión telefónica con el operador correspondiente a la tarjeta que lleve puesta (muchas de estas máquinas se venden subvencionadas en conjunción con un contrato de telefonía ligado a un compromiso de permanencia determinado). Y en caso de interrupción de la conexión, trabajan sobre el almacenamiento de la máquina (habitualmente, una tarjeta de memoria Flash) de manera temporal utilizando como referencia la última copia sincronizada hasta que recuperan la conexión, momento en el cual vuelven a sincronizar los cambios. Se trata de máquinas que no tienen sentido sin la red, sin la llamada “nube”: trabajan sobre servicios provistos por empresas que, a cambio de un pago periódico o de la provisión de publicidad, proporcionan al usuario tanto una aplicación determinada como el espacio de almacenamiento necesario para guardar los archivos del usuario.

Las primeras aplicaciones de este tipo que empezaron a ganar popularidad lo hicieron a nivel de usuarios particulares, no de empresa. El caso de Gmail, el correo electrónico de Google, fue especialmente interesante: en un mercado dominado por proveedores como Hotmail o Yahoo! Mail, que ofrecían en sus versiones gratuitas unos pocos megas de espacio de almacenamiento y no permitían ficheros adjuntos grandes, apareció de repente un competidor, Gmail, que ofrecía nada menos que un giga de espacio de almacenamiento y ficheros adjuntos de un tamaño muy elevado. El servicio, que se ofrecía únicamente en beta cerrada y por invitación, comenzó a crecer muy rápidamente en popularidad: los que lo usaban, se daban cuenta de que era diferente. Al tener una disponibilidad de espacio tan elevada, los usuarios dejaban simplemente de borrar correos, y se dedicaban a almacenarlo todo salvo lo puramente prescindible, apoyándose en el hecho de que la búsqueda permitía encontrar cualquier correo en cuestión de segundos recordando únicamente algún detalle del mismo. El crecimiento en popularidad de Gmail fue muy rápido, y forzó de manera casi inmediata cambios en las ofertas de los otros competidores para intentar que el ridículo al que les había sometido con su llegada al mercado durase un poco menos. Desde el momento de su lanzamiento, que Google hizo coincidir, en un guiño humorístico, con el día 1 de Abril,
April Fools
, de 2004 (el equivalente en el mundo anglosajón al día de los Santos Inocentes), Gmail tardó hasta Febrero de 2007 en abrir el servicio al público en general, pero en Julio de 2009 alcanzaba ya los ciento cuarenta y seis millones de usuarios en todo el mundo.

La popularidad de Gmail hizo que muchos usuarios empezasen a plantearse que cuando utilizaban el correo gratuito de Google, se encontraban muchas mejores prestaciones que al recurrir a sus cuentas de correo corporativas. En general, Gmail presentaba estadísticas de disponibilidad mucho mejores que cualquier correo gestionado por una empresa, mejor seguridad, mejor filtro antispam (los filtros antispam de Gmail son colaborativos, de manera que cada usuario “enseña” al sistema y éste acaba detectando la gran mayoría del spam de manera automática) y, sobre todo, mejor accesibilidad, particularmente desde dispositivos móviles. La experiencia de uso llevó a un número cada vez mayor de directivos a introducir reglas de redirección permanente en sus correos corporativos, reenviándolos a sus cuentas de Gmail personales. Los responsables de tecnología de las empresas se rasgaban las vestiduras: ¿cómo puedes manejar la información sensible de la empresa en una cuenta externa y gratuita? Y sin embargo, el resultado era contundente: no solo no planteaba problemas de seguridad, sino que ofrecía mejores prestaciones.

Tras Gmail, Google fue ofreciendo progresivamente otras prestaciones, tales como agenda y, finalmente, documentos. La funcionalidad de Google Docs eran sumamente simples en comparación con un programa de ofimática convencional (el 90% del mercado de las suites ofimáticas estaba dominado por el Office de Microsoft), pero... ¿qué porcentaje de las funcionalidades de una
suite
ofimática utilizaban realmente los usuarios? Las estadísticas afirmaban que dicho porcentaje se encontraba por debajo del 5%: la mayor parte de los usuarios tecleaban textos, los imprimían o enviaban, modificaban algún formato como tipo de letra, negrita, cursiva o subrayado, y poco más. Pero la diferencia a la hora de trabajar en grupo resultaba contundente: mientras los usuarios de Office se tenían que enfrentar a un “control de cambios” completamente enervante e incómodo en su uso, los de Google Docs simplemente invitaban a sus colaboradores mediante correo electrónico, y trabajaban todos ellos sobre el mismo documento, contando incluso con una ventana de mensajería instantánea para coordinarse. Y sobre todo, surgía una gran ventaja: en la metodología convencional, cuando dos personas trabajaban juntas, se generaba una dinámica de envío de versiones que acababa resultando sumamente engorrosa: cada usuario enviaba no el documento, sino una copia del mismo, copia innecesaria y que introducía una nueva versión en estado diferente de actualización a la que cada uno de los miembros del equipo tenía consigo. Esas diferencias incrementales en las versiones provocaban problemas de coherencia, y generaban complejidad. Utilizando un documento online, todos los conflictos de versiones se eliminaban automáticamente: todos los participantes trabajaban sobre un único documento. De hecho, era posible quedarse mirando el documento en la pantalla, y verlo cambiar a medida que otros miembros del equipo iban introduciendo modificaciones en cualquiera de sus partes. A pesar de la sencillez del programa en términos de funcionalidades, la diferencia a la hora de trabajar en grupo era como comparar la edad de piedra y el futuro.

A medida que la oferta de este tipo de programas “en la nube” crecía, empezó a ponerse de manifiesto que sus necesidades de máquina eran absolutamente espartanas: cualquier ordenador, o incluso un teléfono, capaz de arrancar un navegador servía para acceder a este tipo de funcionalidades. Los ultraportátiles, por tanto, diseñados no para funcionar como un ordenador convencional, sino para trabajar sobre la red, parecían un soporte ideal. Pero ¿es esto una limitación?

En realidad, trabajar sobre la red tiene ventajas muy interesantes: en primer lugar, los archivos del usuario pasan de estar en un disco duro, expuestos a averías, problemas, pérdidas o intrusiones, a estar en un servicio gestionado profesionalmente por especialistas, que pueden ofrecer protocolos de seguridad dotados de una eficiencia muy superior. Intuitivamente, el concepto funciona justo al revés: cualquier persona acostumbrada a pensar en términos analógicos, creerá erróneamente que sus posesiones están más seguras cuanto más cerca las tenga de sí mismo, al alcance de sus ojos. Sin embargo, el concepto es erróneo, como demuestra el hecho de que subcontratemos la custodia de muchos objetos valiosos depositándolos en la caja de seguridad de un banco. Hay muchísimos más robos de propiedades particulares en hogares que en las cajas de seguridad de bancos, que exigen un tipo de preparación muy superior por parte del delincuente. Y la razón por la que no llevamos al banco todas nuestras posesiones es que la caja de seguridad del banco puede ser efectivamente muy segura, pero no es especialmente conveniente: ¿se imagina teniendo que planificar qué ropa, qué reloj o que joyas se pone un día o unos días antes, coincidiendo con los horarios de apertura del banco? En algunos casos, como el de joyas, relojes muy valiosos o documentos de gran importancia, es posible que se haga. Pero en otros, resultaría claramente ineficiente. De la misma manera, mientras no hemos tenido una infraestructura de comunicaciones suficientemente desarrollada, lo razonable era tener el almacenamiento de datos dentro de las empresas, donde podía ser consultado de manera operativa. Pero en el momento en que dicha infraestructura de comunicaciones pasa a ser rápida y a tener una disponibilidad elevada, resulta claro que el mejor lugar para nuestros datos no está en nuestra empresa, que no es especialista en su almacenamiento ni se dedica profesionalmente a ello, sino en un proveedor especializado. De la misma manera, mientras no existió una infraestructura desarrollada para el transporte de agua o electricidad, muchas fábricas cavaban sus propios pozos o contruían minicentrales eléctricas, algo que hoy en día nos resultaría completamente aberrante o que sería incluso ilegal. En el momento en que la madurez de la infraestructura tecnológica lo ha permitido, ha ocurrido lo que era lógico que ocurriese: que la tecnología se ha convertido en algo que, en el momento en que lo necesito, prefiero “abrir un grifo” y que venga desde un proveedor.

Depender de un tercero especializado tiene una serie de implicaciones interesantes: al desarrollarse el mercado de proveedores de servicios de este tipo, pasaremos a tener, como en todo mercado, proveedores buenos, regulares y malos, posiblemente con diferentes precios. La calidad se pacta en un acuerdo de nivel de servicio (
Service Level Agreement
o SLA), y su incumplimiento conlleva penalizaciones pactadas de acuerdo con el perjuicio producido al cliente. Pero no lo olvide: contrariamente a lo que su intuición analógica le dice, en el mundo digital es imposible que usted, en su empresa dedicada a algún tema no relacionado, tenga mejores protocolos de actualización o seguridad que un proveedor especializado en ello y que aspire a ganar dinero prestando dichos servicios. La nube puede fallar como todo en esta vida, pero su porcentaje de fallos siempre será menor que el de una infraestructura con prestaciones equivalentes mantenida por un no especialista.

Sin embargo, a pesar de las grandes ventajas de funcionalidad, seguridad y prestaciones que este tipo de sistemas generan, el desarrollo de los mismos en el entorno corporativo está siendo relativamente lento: ¿a qué se debe esta lentitud? Recuerde el capítulo dedicado a la resistencia tecnológica: a la presencia de personas en las empresas, particularmente los encargados de gestionar los centros de datos y las infraestructuras tecnológicas corporativas, que se negarán a aceptar las evidencias digan lo que digan los datos. Para el responsable de la informática corporativa, salvo honrosas excepciones, un centro de datos remoto siempre será un peligro para la seguridad, nunca estará tan bien atendido como en la propia empresa y tendrá un nivel de servicio infinitamente inferior. No solo lo afirmará con vehemencia, sino que tendrá varios casos que citar, varias historias para no dormir recogidas de las habladurías y exageraciones de sus compañeros de profesión, que demuestran exactamente lo contrario. La evidencia, simplemente, contradice su experiencia, su aprendizaje, la esencia de su trabajo, el cómo se hacían las cosas antes de que la tecnología cambiase. Y pone decididamente en peligro su puesto de trabajo: ante la externalización de muchos servicios, es indudable que el dimensionamiento de los departamentos de tecnología dentro de las empresas se verá en cierta medida reducido. Algo que no es fácil de aceptar para nadie.

La transición a la nube, por tanto, está determinando la evolución desde sistemas operativos grandes, pesados y cargados de funcionalidades de todo tipo hacia plataformas cada vez más minimalistas que simplemente se utilizan para la interacción básica con los componentes de la máquina, arrancan en cuestión de segundos, y dan paso rápidamente a un navegador en el que el usuario lleva a cabo la mayor parte de su trabajo. A todos los efectos, el cambio de tendencia, el momento culmen de los sistemas operativos de la generación anterior, se produjo con el lanzamiento de Windows Vista. Tras el fracaso de Vista, los sistemas operativos han comenzado una evolución hacia la ligereza, una evolución progresiva hacia el reduccionismo: algunos ultraportátiles llevan versiones de Linux tan aligeradas, que su sistema operativo recuerda al de los teléfonos móviles. De hecho, algunos fabricantes han incorporado en su línea modelos de ultraportátiles que utilizan el sistema operativo Android, desarrollado por Google en conjunción con una plataforma de cuarenta y ocho fabricantes de hardware y software más, precisamente para teléfonos móviles. La propia Google, siendo coherente con la filosofía reduccionista, ha anunciado el lanzamiento de un sistema operativo construido alrededor de su navegador, Chrome: el sistema operativo ya es tan sencillo, que hereda el nombre del navegador que el cliente tiene delante de sus ojos. En no mucho tiempo, el sistema operativo será simplemente algo embebido en los chips de la propia máquina, en la BIOS: la mínima expresión de lo que en su momento se llegó a definir como el componente más estratégico en la relación con el usuario, sobre el que se edificó el dominio de una empresa como Microsoft. Desde el “domina el sistema operativo y dominarás el mundo”, a ser un mínimo componente embebido en la BIOS de la máquina. En menos de diez años.

El desplazamiento de muchas actividades a la nube conlleva necesariamente una concentración de los centros de datos. Las empresas que aspiran a ofrecer servicios de este tipo precisan enormes granjas de ordenadores, que son además la parte más crítica e importante de su negocio, el constituyente fundamental del mismo. Centros de datos que deben funcionar con total fiabilidad, con redundancia ante posibles fallos de componentes individuales, y sobre todo, con una eficiencia en costes que jamás se había exigido a instalaciones de este tipo. Para una empresa convencional de cualquier industria, el coste del centro de datos es un número más en una cuenta de gastos generales, y un número que además, por principio, no se toca: a “los informáticos” se les mide por las estadísticas de funcionamiento, por la estabilidad, porque el sistema no se caiga, pero no por el gasto de corriente eléctrica en el que incurran. Para una empresa proveedora de servicios, el gasto energético es el ser o no ser, la posibilidad de ser más competitivo que otros, la esencia de su ventaja competitiva. Una dinámica que nos va a llevar, en muy pocos años, a la desaparición de la inmensa mayoría de los centros de datos corporativos, sustituidos por inmensos centros de datos situados en lugares donde el ahorro energético resulta más propicio: a medida que vayan cayendo los mitos de la inseguridad, el control y la privacidad presas de análisis medianamente serios, solo continuarán manteniendo centros de datos propios aquellas empresas con la escala suficiente como para ser razonablemente competitivas en costes.

Other books

The Lady and Her Doctor by Evelyn Piper
The Bamboo Stalk by Saud Alsanousi
Spell For Sophia by Ariella Moon
The Moonstone Castle Mystery by Carolyn G. Keene
The Shifting Fog by Kate Morton
Rock and Roll Fantasy by Isabelle Drake
Salem's Daughters by Stephen Tremp
Grayson by Lynne Cox
The Rock by Daws, Robert