Google limpia su buscador

Instituto Europeo Campus Stellae
Área NTIC
Formación y Becas de estudio

Máster en Derecho de Internet y NTIC. Becas y prácticas en más de 70 países. Matricula 1200€
www.campus-stellae.com
info@campus-stellae.com
+0034 981522788


  • La última actualización de su algoritmo es la más agresiva que ha hecho desde abril de 2012
  • Identifica a las páginas con enlaces “artificiales” y las penaliza bajándolas de posición

Juan Carlos Bow Madrid 1 AGO 2013 - 18:51 CET


Una joven usa Google para buscar datos sobre la agencia de protección de datos. / C. Alvarez

"Ha sido positivo para todos. Es dejar de robar, y hacer las cosas bien. Ya no vamos a ser piratas", afirma Tomás Santoro, director de Bocetos Marketing, cuando se refiere a los cambios que ha aplicado Google en su algoritmo, enfocados a limpiar el buscador de las páginas web que han ganado posiciones gracias a prácticas tramposas.

La última actualización del algoritmo se ha llamado Penguin 2.0, y fue liberada oficialmente el 22 de mayo. Días antes Matt Cutts, encargado del buscador de Google, había afirmado en un vídeo que "sería excitante y divertido" ver cómo estos sitios "se vendrían abajo" para finales de verano.

Penguin 2.0 es una actualización agresiva de su predecesor Penguin 1.0 (liberado en abril de 2012), que en palabras de Santoro ha obligado a los SEO (administradores de las páginas web, también conocidos como webmasters) a desechar las prácticas "piratas" para posicionar a sus clientes, mientras los impulsa a dotar de verdadero contenido (notas de prensas, gráficos, artículos interesantes o estudios de mercado) a los sitios para que ganen popularidad.

En el buscador de Google los primeros tres puestos son exclusivos para los clientes que pagan, mientras la posición de los demás lugares se define atendiendo el contenido y popularidad del sitio. Como el contenido no se puede cambiar por completo diariamente, los webmasters crean una popularidad artificial para estar entre los de arriba.

Santoro explica que compraban en subastas páginas web o dominios caducados, que luego enlazaban al cliente. Otra práctica era crear una red de blog, dividida en capas, que iban a unirse al sitio del cliente. "En India se pueden comprar redes de decenas de miles de blog. Por 50 euros les contratabas cientos de enlaces", añade.

Con la nueva actualización del algoritmo, Google realiza un análisis más profundo y exhaustivo de las páginas, identifica a las que tienen enlaces "artificiales" y las penaliza bajándolas de posición en el buscador, por lo que en los primeros puestos "estarán las que tienen buen contenido", según Santoro, que comenta que en su empresa mezclaban técnicas legales con irregulares, por lo que a sus clientes más antiguos (de cinco o cuatro años) les ha afectado el cambio, mientras a los recientes les ha beneficiado porque a estos "les hemos conseguido nuevos enlaces buenos" y sus competidores han descendido.

"Teníamos una red de 4.000 blog divididos en capas, pero la hemos quitado para que no nos puntúen negativamente", asegura Santoro, que agrega que eso es lo que deberían hacer los demás webmasters para mantenerse en el negocio, al que según Cutts ayudan con los cambios en el algoritmo, pues harán el trabajo de estos "más uniforme y constante".

Monitorizar los sitios

Santoro afirma que cualquiera puede ser un SEO, pero que las agencias confiables en España no pasan de la treintena. Además, que existen algunas que se dedican a enviar “enlaces negativos” a la competencia de sus clientes, por lo que deben monitorizar constantemente sus páginas.

Una vez detectados, los SEO utilizan la herramienta Disable Tool para solicitarle a Google que desautorice esos enlaces y que no quieren que les puntúe ni positiva ni negativamente. Ese proceso tarda como máximo siete días, por lo que “sino los pillas a tiempo te penalizan”, según Santoro.

Explica que existe otra herramienta (Master Tool), a través de la que Google avisa a los SEO que están recibiendo “enlaces no naturales” para que estos actúen. “Lo único que la comunidad le pide a Google es que también digan cuáles son, para no pasar más tiempo monitorizando enlaces que mejorando el contenido”, añade.

Fuente: El País.

No hay comentarios: