La infraestructura como ventaja competitiva

Google es uno de los temas de moda. No como la primera vez, cuando usaba Altavista y un compañero de la facultad (¿me estará leyendo el Juanma?) me dijo que había «otro mucho mejor: "gógel", con dos "o"». No como cuando revolucionó el webmail aumentando en tres órdenes de magnitud la capacidad ofrecida por los webmails de aquel momento (y sobre esto vamos a hablar ahora). No. Google es uno de los temas de moda porque está empleando una de las estrategias más agresivas que hemos visto en internet para conseguir y mantener una posición ventajosa en la red como ninguna otra empresa ha tenido nunca en ella.

Y esa estrategia agresiva no es otra que la de utilizar la intraestructura como una ventaja competitiva. Por supuesto, no son los primeros que lo han hecho en el mundo, pero son los que se están llevando el gato al agua en la red. Enseguida paso a explicar eso que digo. Voy a intentar ser conciso para que el tema no se me alargue.

En primer lugar, aunque tengo posts bastantes viejos que versan sobre este tema (la concentración de la red y la red que se pierde en la nube), no es hasta hace un tiempo (ya bastante, este post es uno de esas reflexiones eternamente inconclusas) que comenzó a tomar forma esta idea.

Antes he hablado de la aparición de GMail. Sucedió en 2004. En aquel momento el buzón de correo promedio tenía un tamaño de unos pocos megabytes (2MB Hotmail, 5MB Terra, 10MB Lycos) y había decenas de proveedores de correo electrónico gratuito vía web. Google lanzo el «gigamail» y en cuestión de meses la inmensa mayoría de proveedores de correo desaparecieron. Fueron borrados del mapa, arrasados por el huracán G. ¿Qué había hecho Google? Proponer su vasta infraestructura como una ventaja competitiva frente a otros proveedores de webmail. Ganar una parte del mercado a base de anteponer una barrera de entrada muy elevada (y el control absoluto del público más técnico a base de proponer una aplicación bien resuelta y elegante, que por cierto no es libre).

Desde abril del 2004 a septiembre del 2008, Google no ha cesado de dar pasos en la misma dirección, un camino que les apareció virgen visto el enorme éxito cosechado con el webmail. Google se lanzó a la carrera de ofrecer aplicaciones online. Así Google te ofrece editor de texto, hoja de cálculo, o almacenamiento de imágenes y vídeos, entre las varias decenas de productos que oferta. Todos tienen en común una cosa: se apoyan en la infraestructura del gigante para reducir a la competencia. La culminación de esta estrategia llegó con Google App Engine, en la que ofrecían «computación distribuida» para todo el que quiera hospedar sus proyectos con ellos. Lo llaman la computación en nube (palabra tan gastada ya como la web 2.0) y pese a que no dudo de la capacidad técnica de Google para desarrollar un proyecto de ese tamaño, me temo que mis objeciones no son técnicas, no al menos en primera instancia. La red es lo que es (lo que a todos nos gusta, ese lugar donde encontrar cualquier cosa que buscamos desde información a música, gente afín o descargas) porque era altamente distribuida. Si Google centraliza servicios y continúa acumulando peso (por hablar en términos de ponderación matemática) dentro de la misma, la red no puede considerarse verdaderamente distribuida.

Por supuesto, y como se argumenté en su día en una conversación en el blog de Acalpixca, no estamos aún en la GoogleNet (afortunadamente). Pero, como ella apuntaba, Google gana preeminencia en casi todos los frentes de mercado de Internet y corremos el riesgo de que se convierta en un monopolio incontestable. Y si no pudiéramos acceder más que a páginas de Google, ¿quién levantaría la voz? Mejor aún: ¿te dejaría Google (y su algoritmo) acceder a esas páginas que levantasen la voz?

Ahora mismo, Google tiene decenas de miles de computadoras y un montón de datacenters repartidos por el globo para que tu busqueda sea resuelta en centésimas de segundo. ¿Para hacerte más feliz ahorrando tiempo? Decir sí a esa pregunta es dar una parte de la verdad pero obviar el resto. Lo cierto es que dándote la búsqueda en 0.04 segundos en lugar de en 0.09, Google te ahorra tiempo. También te da el doble de búsquedas por unidad de tiempo (el doble de anuncios por unidad de tiempo, el doble de clicks, el doble de pasta que se llevan). Pero lo terriblemente cierto es que al rebajar ese tiempo al máximo lo que sí consiguen es expulsar de la carrera por “ofrecer resultados rápidos” a cualquier otro competidor. ¿Tienes un buscador maravilloso? Más te vale tener cientos de miles de máquinas tirando del carro (se calcula que Google tiene todas esas computadoras)… o estarás perdido en la batalla por ofrecer buenos resultados en tiempo récord.

Alguien dirá que si la manera de expulsar al resto de competidores es mejorar los productos, ¿dónde está el problema? El problema es que una vez expulsas al resto de competidores, no existe la necesidad de invertir para mejorar los productos. Cuando no puedes ganar cuota de mercado y nadie te la puede quitar, el mayor rendimiento pasa por no mover un dedo en cambiar nada y dejar que la maquinaria permanezca en un status quo inamovible. El problema es que cuando estás sólo en el mercado, puedes imponer condiciones draconianas a los compradores/usuarios. ¿Cuántas funciones nuevas ha incluído Microsoft Office 2007 que no estuvieran ya en MS Office 2000? ¿De verdad 7 años sólo para eso?

Google ha puesto rumbo hacia la concentración de la red bajo su control. Y quizá «no tuvieran elección». Es posible que con la tecnología de búsquedas actual, Google no se pueda permitir otro tipo de estructura de red que no sea la estrictamente centralizada sobre sí mismo. Puede que sea cierto que en una red cada vez más grande, la infraestructura necesaria para conectar dos puntos de internet en el tiempo que demandamos tenga que ser enorme y controlada por una única entidad. Es la paradoja del control de internet, y sin duda alguna Google se siente cómodo en esta situación, debido al papel que le toca desempeñar: en una internet cada vez más grande, son cada vez menos los que tienen la infraestructura necesaria para conectar dos nodos cualesquiera de la red en el tiempo que le pedimos a la red.

Jose Alcántara
Resolviendo problemas mediante ciencia, software y tecnología. Hice un doctorado especializado en desarrollo de hardware para análisis químico. Especialista en desarrollo agile de software. Más sobre Jose Alcántara.

5 comentarios

  1. Alguien me sugiere cliente de correo y un host virtual económico? Soy de los que no gustan de google pero me veo obligado, yahoo no me convencie, en fin… acepto sugerencias urgentes..

    Saludos!
    Gustavo

  2. Pingback: http://www.biankahajdu.com/2012/01/25/propiedad-de-datos-y-analitica-web/.

    … —una solución muy buena, por cierto— pero en el campo de la analítica esto no es suficiente porque su valor añadido viene precisamente de la agregación de estos datos que requiere de instalaciones muy distintas a un hosting propio. La pregunta clave parece ser no tanto quién es el propietario de los datos sino quién puede hacer analítica y poner los datos a …

Los comentarios están cerrados.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad