Posicionamiento web

¿Qué son los algoritmos de búsqueda?

Es uno de los conceptos que más se repite cuando trabajas en el posicionamiento web, especialmente en SEO. Sin embargo, no siempre hay claridad en la utilidad de los algoritmos de búsqueda. En este artículo, lo explicamos.

algoritmo-google-ida

Los algoritmos de búsqueda son programas informáticos que buscan información para entregarte una respuesta exacta a lo que necesitas. Si lo llevamos a la práctica, es cuando un usuario ingresa a un motor de búsqueda y escribe una palabra clave o frase, que permite que Google le muestre respuestas óptimas a sus necesidades.

Lo que ese usuario desconoce es que para esa consulta existen millones de opciones de páginas web que podrían sugerir una potencial respuesta, sin mayor discriminación. Con los algoritmos de Google, esas páginas son tomadas por el robot y ordenadas según una serie de “señales” informáticas para generar una mejor respuesta.

Además, como las búsquedas de los usuarios van evolucionando con el tiempo, Google también evoluciona a la par en su tecnología para obtener resultados eficientes. Y en Inside Search lo explican claramente: “nuestro objetivo es conseguir que obtengas la respuesta que estás buscando más rápidamente, creando una conexión casi perfecta entre el usuario y el conocimiento que este busca”.

¿Qué proceso sigue Google para idear una nueva mejora en los algoritmos? La compañía cuenta con una metodología de trabajo clara para eso. “Un cambio algorítmico típico comienza como una idea de uno de nuestros ingenieros acerca de cómo mejorar la búsqueda. Adoptamos un enfoque basado en datos y todos los cambios algorítmicos propuestos se someten a una amplia evaluación de la calidad antes de su lanzamiento. Los ingenieros suelen comenzar llevando a cabo una serie de experimentos, retocando pequeñas variables y obteniendo la opinión de colegas hasta que están satisfechos y listos para lanzar el experimento a un mayor número de usuarios”, según la información publicada en el mismo sitio.

¡Y así surge la magia!

La lucha contra el spam

Sin embargo, no todo es tan fácil ni tan mágico. El gran problema de Internet es el spam que se genera desde distintas fuentes de tráfico y que entorpece la obtención de resultados óptimos. Existen muchas formas de realizar spam y, en ese escenario, los algoritmos de búsqueda ayudan a frenar el posicionamiento de sitios que brindan malas prácticas.

Cada algoritmo cuenta con directrices que hacen posible que los sitios logren o no posicionamiento en el motor de búsqueda Google, obligándolos a mejorar su calidad. A continuación, te presentamos los algoritmos vigentes y una pequeña descripción sobre su funcionamiento.

Google Panda

Es un algoritmo que en su salida en 2011 afectó a más de un 12% de los resultados de búsqueda. Dentro de los aspectos básicos que debes tener en cuenta cuando optimices un sitio, es que tu contenido debe ser de calidad, original y un aporte para el usuario, sin excesos de enlaces o publicidad

Actualmente, se encuentra vigente la versión 4.2 de Panda, que es un refresh de la versión 4.1, donde se creó un filtro diseñado para penalizar el contenido “delgado” o pobre, afectando aproximadamente entre el 3 y el 5% de las consultas de búsqueda.

Google Penguin

Penguin es un algoritmo de búsqueda lanzado en 2012, que penaliza los enlaces entrantes de spam en los sitios web de baja calidad, como la compra de enlaces y las granjas de enlaces hechas para aumentar los rankings de un sitio. La premisa es eliminar los enlaces negativos con la herramienta de desautorizar enlaces de GWT, para evitar el spam.Actualmente, se encuentra vigente la versión 3.0 del algoritmo, que ha afectado alrededor de un 1% de las consultas de búsqueda. Sin embargo, según diversas fuentes profesionales de Search, este algoritmo tiene updates “fantasmas”, pero aún no ha sido confirmado por Google.

Google Hummingbird

Fue lanzado el 2013, y es un update de Caffeine, versión anterior del buscador de Google lanzada en 2010. Este algoritmo nos invita a realizar cambios a nivel de búsqueda semántica, con el fin de brindar resultados de búsqueda más precisos y con mayor rapidez. Esto implica tanto cambios a nivel técnico como en contenido, donde la forma de utilizar palabras es la clave para ser encontrado en la búsqueda. Junto con esto, se generó la inclusión del Knowledge Graph en el buscador, como un método para hacer más eficiente la búsqueda de los usuarios, dándole una visión completa de la información asociada a la búsqueda, mejorando la experiencia del usuario y ahorrando el tiempo de búsqueda.

Google Pigeon

Este algoritmo contemporáneo, lanzado en 2014, está enfocado en presentar al usuario resultados de búsqueda locales útiles, relevantes y precisos, afectando principalmente la plataforma de Maps y los resultados de búsqueda web tradicionales.

Actualmente, se expandió a Reino Unido, Canadá y Australia, por lo que pronto tendremos noticias sobre su expansión al resto de los países.

Ahora que ya conoces los grandes algoritmos, debes saber que no se reemplazan los unos a otros, sino que se complementan en su trabajo, porque actúan en conjunto para mejorar la calidad del contenido web y minimizar el spam.

Además, los algoritmos no se eliminan, van teniendo actualizaciones constantes. Puedes revisar estos cambios en esta página de Moz para estar al día y poder actuar de manera eficiente, evitando cualquier penalización por parte de Google.

Si quieres implementar una estrategia de optimización SEO para tu sitio, pero no sabes cómo hacerlo, el área de Métricas y posicionamiento de IDA puede ayudarte. Contáctanos.

178f277
Encargada de Analítica Web y Posicionamiento
El proceso de estandarización para la correcta medición de cada sitio web y el monitoreo diario de indicadores clave de rendimiento me permiten tener una amplia visión sobre las acciones que deben realizarse en los distintos medios. Mi objetivo es crear estrategias digitales 100% enfocadas en la conversión.

Comentarios