El engaño Google (4 page)

Read El engaño Google Online

Authors: Gerald Reischl

Tags: #Ensayo

BOOK: El engaño Google
11.42Mb size Format: txt, pdf, ePub

Es de suponer que si Yahoo! y Microsoft llegasen a un acuerdo, Google presentaría, también por venganza, una demanda por violación de las normas antimonopolio ante la Comisión Federal del Comercio de Estados Unidos (FTC). Ambas empresas ya se habían unido para, como se detallará más adelante, interponer también un recurso
antitrust
contra Google al anunciarse la compra de DoubleClick. Pero como la alianza Google-DoubleClick fue autorizada en Estados Unidos, todo apunta a que la FTC también daría su beneplácito a la adquisición de Yahoo! por parte de Microsoft. En Europa, sin embargo, la alianza tendría que superar las trabas de la Comisión Europea, que desde hace ya algún tiempo se muestra crítica con las prácticas lucrativas de Microsoft en el sector de las TI. Muestra de ello son las multas que ya le ha impuesto y las dos nuevas causas presentadas contra la empresa en enero de 2008.

Un
striptease
de datos

Desde el momento en que nos conectamos, dejamos un rastro de datos susceptible de ser utilizado, en mayor o menor medida, por terceros. «Escriba entonces un libro sobre Facebook y no sobre Google», me dijo desafiante Esther Dyson, la famosa experta y asesora de empresas de TI, también conocida como la «primera dama de Internet», durante un desayuno en un hotel de San Francisco. Facebook es una plataforma donde estudiantes y universitarios de todo el mundo se conectan entre sí y crean
sus propios
perfiles. Cada día se registra un promedio de 200.000 usuarios nuevos en este portal, nacido en el año 2004 como una página web de estudiantes donde los usuarios ponen a la vista de todos su vida privada en forma de fotos y vídeos. Según Dyson, «en los sistemas de Facebook hay almacenados datos mucho más interesantes que los que tiene Google». Admito que, en un primer momento, la «primera dama» me hizo dudar. ¿No será Google tan mala como parece y será fiel su lema
«Don’t be evil
»? «La tecnología no es ni moral ni inmoral», afirma Stephen Arnold, «porque no es ni buena ni mala». De acuerdo, pero ¿puede decir lo mismo de las personas que están detrás de la tecnología y la venden?

Dos días después de aquel desayuno, conocí a un
xoogler
(así se llama a los antiguos empleados de la empresa) que me reforzó en mis planteamientos y me ayudó a disipar cualquier duda. Cuanto más profundicé en la materia, más claro tuve que en Google todo permanece oculto. A diferencia de Facebook, donde los usuarios introducen voluntariamente la información que ellos desean, Google recopila los datos que dejamos involuntariamente. Ésta es la gran diferencia y el origen del peligro. Lo queramos o no, somos objetos de coleccionismo. No hay que utilizar Google, de acuerdo, pero los números dicen que es el buscador más visitado.

El atractivo de las nuevas tecnologías induce a la gente a verter en una página web toda la información privada que puede, y ésta es una parte de la problemática que trae consigo la novedosa y participativa Web 2.0. En páginas como MySpace, YouTube, Facebook, Xing, StudiVZ o Flickr, los usuarios revelan voluntariamente detalles privados sin llegar a pensar en las consecuencias que este
striptease
informativo puede acarrear. Naturalmente, los servicios de la Web 2.0 que utilicemos o la elección de Google como buscador es algo que depende de cada uno.

Hay dos tipos de internautas. Unos son los que valoran su esfera privada y, por ello, deberían conocer lo que pasa con sus datos y qué información se recopila y utiliza. A los otros les da igual lo que se sepa de ellos, ya sea porque les da realmente lo mismo («no tengo nada que esconder») o porque piensan que en la era de Internet es imposible impedir que se descubran sus datos, puesto que es el precio que hay que pagar para acceder a la información y al saber.

Sin embargo, no es justo entonar el mea culpa cuando encontramos inesperadamente
nuestros datos
personales en la página inicial de Slashdot u otra parecida. Así lo expresó Danny O'Brian, coordinador internacional de la Electronic Frontier Foundation
[1]
en una entrevista para la ORF-ÖI en septiembre de 2007. «Incluso a personas versadas en la materia les sorprende que los pocos datos que han introducido aparezcan de repente relacionados entre sí en un contexto completamente distinto.»

«Somos transparentes y decimos a todo el mundo lo que hacemos con sus datos y cuándo los anonimizamos», declaró Eric Schmidt en septiembre de 2007 al diario alemán
Bild
. «Nadie está obligado a revelar datos personales cuando realiza una búsqueda con Google en Internet.» Habría que definir mejor qué se entiende por datos personales, porque incluso cuando no queremos se genera una cantidad información que muchos tildan frivolamente de ridicula, pero que otros tantos consideran
como
estrictamente privada. De esto trata este libro, de poner en claro qué información colecciona Google y qué datos se almacenan.

El truco de Google

El engaño Google
también describe cómo una empresa, bajo el credo de la maximización de beneficios, pone en marcha unas acciones que sólo deberíamos aceptar con un análisis y reflexión previos.

El truco de Google es, por sí mismo, muy banal. Consiste en aplicar la máxima «dar y recibir» con un equilibrio que la propia empresa se encarga de administrar. Google ofrece gratuitamente la fundón de búsqueda, amén de otros programas, y a cambio recoge información sin pedirla realmente. Servidos gratuitos a cambio de tu esfera privada. Te dejan usar una multitud de herramientas sin pagar mientras estás revelando datos que ayudan a un consorcio a aumentar sus ingresos por publicidad y sus beneficios. Lo normal sería desconfiar, pero nadie lo hace de una empresa que regala tantas y tan prácticas herramientas y servicios y trata a sus empleados como a cualquiera le gustaría que le tratase su jefe. Aparte del truco «todo gratis», están sobre todo las patentes que Google registra continuamente para asegurarse el futuro en el mundo de las tecnologías de la información. Se patentan desde paneles publicitarios digitales hasta
software
de análisis procedente de la industria de la vigilancia. Además, Google no deja de comprar empresas de los sectores más dispares y acomete iniciativas en las que sus fundadores no habrían pensado lo más mínimo hace algún tiempo. Ni Page ni Brin se habrían imaginado nunca que se dedicarían a tender un cable submarino en el océano Pacífico (el proyecto Unity).

Google es, ante todo, una página web que se ha convertido en sinónimo de búsqueda en la Red. Por este motivo, en la 23.
a
edición del diccionario de lengua alemana Duden publicada en 2004 se introdujo el verbo
«googeln»
(«googlear»). La definición escogida para el neologismo fue «buscar en Internet», pero tras las objeciones hechas por los abogados de Google, que temían una pérdida de los derechos de la marca si
«googeln»
se convertía en un concepto genérico, la definición de la 24.
a
edición se sustituyó por «buscar en internet con Google». Dos años después, los diccionarios de lengua inglesa
Oxford English Dictionary y Merriam-Wehster Collegiate Dictionary
también admitieron el vocablo
«to google»
en sus páginas. Hace tiempo que Google dejó de ser una empresa dedicada exclusivamente a los motores de búsqueda. La firma de Mountain View también vende
software
y, muy pronto, entrará en el mercado de las telecomunicaciones y los análisis de ADN. Google planifica nuestras vidas, como un Gran Hermano con un ojo digital que todo lo vigila.

3

PAGERANK:
LA BASE DEL ÉXITO DE GOOGLE

El método PageRank debe su nombre a su inventor, Larry Page, pero también a la posición que ocupan las páginas web
(web page)
en un
ranking
. El éxito de Google se debe al algoritmo PageRank, que mide la popularidad de una página web y utiliza esta medición para clasificar la página en una lista de resultados. Larry Page registró en 1998 la patente
«Method for node ranking in a linked database»
, con la que desarrolló lo que el resto de buscadores habían intentado conseguir en vano durante años: un método para crear un orden de relevancia en una base de datos en función de las relaciones existentes entre los propios datos.

En el método PageRank, las páginas web se evalúan y ponderan teniendo en cuenta los enlaces: cuantos más
links
remitan a un sitio, más importante será el sitio. Pero no sólo se valoran los enlaces, sino también las páginas de las que proceden dichos enlaces. Cuanto más relevantes sean las páginas de procedencia, más valiosos serán los enlaces y, por consiguiente, la página referida subirá en la jerarquía.

El planteamiento de PageRank tiene sus raíces en el campo de la ciencia, tal como explica David Vise en su libro
La historia Google
: «A Page los enlaces le recordaban la forma de clasificar los ensayos científicos en función de la frecuencia de las citas». Cuanto más se nombra un trabajo científico en otro, mejor y más importante será su puesto en la clasificación. Esta misma sistemática también se podría aplicar a páginas web, pero hay un problema: cantidad no implica calidad. Para resolver este inconveniente, Larry Page añadió el «elemento cualitativo»: los enlaces procedentes de páginas importantes tendrán mayor peso y aportarán puntos extra, por llamarlos de algún modo, que repercutirán a su vez en el
ranking
. Toda esta perspicacia está integrada en el algoritmo de PageRank, uno de los secretos mejor guardados de Google. Pero, ¿es realmente objetivo?

Los trucos de búsqueda

De hecho, PageRank y, por consiguiente, los robots de búsqueda de Google que escudriñan la totalidad de la World Wide Web, crean los índices de búsqueda y establecen el orden de importancia, se dejan engañar. Los buscadores emplean
crawlers y bots
, unos programas que analizan automáticamente las páginas web. En caso de que Google amenazara con no indexar una página (es decir, que la página ya no se encontraría con el buscador), existen algunos métodos muy extendidos que lo evitan. Uno de los más populares es el truco de la página satélite, consistente en repetir montones de veces los términos relativos a un determinado tema en una página invisible, de manera que los robots de búsqueda de Google consideran relevante esta página y le hacen subir puestos en la clasificación. En 2006 se consideró a BMW culpable de utilizar este ardid y durante un tiempo no se pudo encontrar ninguna página suya con Google.

Otro truco muy extendido es el del color de fondo. Consiste en escribir los términos en la página web con una fuente del mismo color que el fondo para que no se vean. Esta trampa se descubre con facilidad si abrimos la página en modo de código fuente (en el Internet Explorer, seleccionando «Ver» y «Código fuente»), pero prácticamente nadie lo hace cuando navega.

También se suele aplicar el
truco
de los enlaces. Como Google clasifica los sitios web como más relevantes cuando muchas otras páginas remiten a ellos, se puede influir en la relevancia del sitio que se desee acumulando enlaces al mismo. El truco de los
links
está muy extendido en foros y blogs, donde se pueden incluir enlaces al final de los comentarios.

Los trucos de programación también son habituales: se crea una página de manera que el robot de búsqueda la reconozca y utilice el texto que considere relevante sin que los internautas lo vean, pero, de hecho, esto es lo que ha pasado siempre con cualquier página bienintencionada que quiere ser encontrada. Otra posibilidad, más bien mezquina, es el truco del servidor, consistente en alojar en un servidor miles de páginas que se remitan mutuamente, con lo cual aumenta su relevancia. Esta trampa la utilizan sobre todo los proveedores de pornografía para que sus páginas aparezcan lo más arriba posible en la lista de resultados.

Una artimaña a la que Google declaró la guerra con un nuevo algoritmo a principios de 2007 es el
Google bombing
. Se trata de un método con el que, a partir un texto ancla (texto con un hipervínculo), se activan cientos de vínculos en la Red. Al buscar este texto, en los resultados aparece la página con el enlace y la página a la que remite el enlace. Los activistas de Internet emplean este sistema para que, al introducir un determinado concepto de búsqueda, aparezca en el primer lugar de la lista de resultados, o como mínimo en la primera página, el sitio web de algún político u organismo conocidos. Antes, cuando buscábamos el término
«failure»
(fracaso), esta manipulación nos remitía a la página de la Casa Blanca, y si tecleábamos «
liar
» (mentiro so) aparecía el sitio oficial del anterior primer ministro británico Tony Blair. El ministro de Economía austríaco, Karl Heinz Glaser, también aparecía en primer lugar cuando el usuario introducía
«vollige Inkompetenz»
(incompetencia total) en el cuadro de búsqueda de google.at y pulsaba «Voy a tener suerte».

No hay encuentros casuales

El breve recorrido por la estructura básica de Google demuestra que es perfectamente posible manipular los resultados de búsqueda y que cualquiera puede hacerlo. De la misma manera, también podemos suponer que Google influye en el
ranking
. «No se venden enlaces normales, sólo se valora la relevancia de la página», asegura el máximo responsable de investigación de Google, Peter Norvig. «Nuestro algoritmo de búsqueda es una combinación de lo que la gente quiere y lo popular. Cuando encontremos un método mejor, lo incorporaremos a nuestros algoritmos de búsqueda.»

Sin embargo, dos experimentos indican que el método PageRankno es del todo objetivo. Uno de ellos demuestra que Google favorece a la Wikipedia. En el estudio
«Report on dangers and opportunitiesposed by large search engines, particularly Google»
, publicado en el otoño de 2007 por unos expertos en TI dirigidos por el profesor Hermann Maurer de la Universidad Tecnológica de Graz, se investigó el trato que distintos buscadores daban a las entradas de la enciclopedia virtual. El experimento, que se hizo introduciendo cien términos en alemán y cien en inglés en cuatro buscadores distintos (Google.de/.com, Yahoo!.de/.com, AltaVista.de/.com y Live.de/.com) dio como resultado que Google prefiere a la Wikipedia.

Las entradas de la enciclopedia libre aparecieron en el primer lugar de los resultados de google.de en un 70% de las búsquedas, mientras que en sus competidores el porcentaje fue en un 70% de las búsquedas, mientras que en sus competidores el porcentaje fue
claramente menor
(Yahoo!, 50 %; AltaVista, 45 % y Live, 21%). En las versiones inglesas de los buscadores, la cuota de aparición de la Wikipedia fue menor. En google.com sólo llegó a un 43 % de entradas en la primera posición. sólo llegó a un 43 % de entradas en la primera posición.

Other books

The Present and the Past by Ivy Compton-Burnett
Sweet Inspiration by Penny Watson
Nightwing by Martin Cruz Smith
Trout Fishing in America by Richard Brautigan
The Waitress by Melissa Nathan
The American by Martin Booth
Glorious Sunset by Ava Bleu