-Ïîèñê ïî äíåâíèêó

Ïîèñê ñîîáùåíèé â Lomholt_Tuttle

 -Ïîäïèñêà ïî e-mail

 

 -Ñòàòèñòèêà

Ñòàòèñòèêà LiveInternet.ru: ïîêàçàíî êîëè÷åñòâî õèòîâ è ïîñåòèòåëåé
Ñîçäàí: 24.04.2020
Çàïèñåé:
Êîììåíòàðèåâ:
Íàïèñàíî: 207


guía para enamorar al algoritmo de Google

×åòâåðã, 16 Èþëÿ 2020 ã. 18:23 + â öèòàòíèê

Hoy te hablaré de
Google Penguin cuatro.0, uno de los dos algoritmos más populares y cañeros de Google ...y, seguramente, el que más cefaleas ha levantado a SEOs y Administradores web.


Más sobre esto


La verdad es que, aprovechando esta actualización de Google aprovecharé para contarte vida y milagros del pingüino más famoso del planeta.


Así que, prepárate pues ésto va sobre links, análisis de perfiles de enlaces, penalizaciones, y herramientas… pero todo ésto con el Penguin cuatro.0 como telón de fondo.


Antes de comenzar, me marcho a permitir regresar a lo esencial y recordarte concisamente de que trata Google Penguin y por qué tiene sentido que exista.


¿Qué es Google Penguin?



Google Penguines un algoritmo que analiza las webs en pos de patrones de enlaces sospechosos de haber sido generados para manipular ely evita que lo haga.


Desde que el huevo del primer pingüino de Google eclosionó (hace ya 4 años) todo cambió para los SEOs en lo que a Link building se refiere.


A lo largo del tiempo el algoritmo ha ido padeciendo actualizaciones para progresar la forma en la que advierte y evita estas manipulaciones de Page Rank.



El origen de Penguin cuatro.0


Google Penguin nace con una misión muy simple (que sigue manteniendo tal cual): evitar que generemos links que nos ayuden a prosperar el ranking en las SERPs.


Pero “el pecado original” de todo esto lo cometió Google, puesto que, fue él quien decidió en un comienzo que los enlaces generados cara una web eran una señal de que su contenido era relevante… y claro, los SEOs primitivos (que no eran tontos) se pusieron a generar links a “tutiplén”, puesto que así mejoraban el posicionamiento en las Search Engines Ranking Positions.


Este sistema para determinar la popularidad de una página (el PageRank), considera los enlaces entrantes a una página como “votos” que realizan otras páginas... mas es demasiado manipulable.


Llegó un instante en que fundamentarse en estos criterios ya no aseguraba que los resultados ofrecidos fuesen realmente relevantes para el usuario, y por consiguiente había que buscar una solución.


Así es como nació el primer pingüino en Mountain View.


Cuando apareció el(el veinticuatro de septiembre de 2012) se presentó como un algoritmo de “spam web”, mas enseguida se le rebautizó como “Penguin”.


Un año después lanzaron la versión 2.0 del algoritmo, y en octubre de 2014.


Esta tercera actualización prometía como gran novedad: actualizaciones más usuales del algoritmo.


Se hablaba de que podrían ser aun mensuales mas, al final, nos tuvieron esperando más que nunca a la próxima actualización de Penguin.


Y así, llegamos al Penguin 4.0 “El pingüino en tiempo real”.


A la vista de la evolución del algoritmo ya podemos tener clara una cosa: la regla de oro para eludir cualquier pingüinazo es recordar que...


A Google solamente le agradan los links naturales, es una cosa que preocupa hasta a Batman y a Robin.








La paradoja del Linkbuilding natural


Si a Google Penguin solamente le valen los links naturales es tentador pensar que la mejor manera de hacer linkbuilding es no hacer nada.


adwords murcia enlaces se generen de forma natural y espontánea… o bien simplemente que no se generen.


Pero seamos sinceros: a cualquier posicionamiento en buscadores que le afirmes que no haga nada para lograr links le va a dar la risa.


Mientras éste siga siendo un factor clave para determinar la relevancia de una web habrá que desarrollar estrategias que sean capaces de producir un perfil de links congruente.



Para conseguir producir estos enlaces tenemos dos posibilidades:



  • Generar mismos los enlaces (ya sea comprándolos o colocándolos en otras páginas) de manera que parezcan lo más “naturales” posible.

  • Provocar lacon estrategias de inbound marketing cómo el Linkbaiting.


Con la primera opción te la estarás jugando constantemente.


Porque por muy bien que lo hagas, por muy bien configurada que tengas tu PBN o bien por mucho cuidado que pongas en cómo y dónde compras los links, la verdad es que entras de lleno en el black hat seo y estás engañando a Google.


Eso, tarde o temprano se acaba pagando.


Por lo tanto, no te invito a que produzcas este tipo de enlaces si no estás segurísimo de lo que haces y, sobre todo, nunca con un proyecto que te da de comer.


Por definición: hacer Linkbuilding es producir links y esto es cualquier cosa menos natural.


Sin embargo, provocar la generación de enlaces naturales a través de contenidos de valor y bien orientados a nuestros usuarios es siempre y en toda circunstancia una apuesta segura.


Al fin y al cabo estamos trabajando con el mismo objetivo que Google: satisfacer las esperanzas del usuario.



Descubre Enlace Building tool


y mejora tu posicionamiento con enlaces de calidad


Novedades de Penguin cuatro.0


“El Pingüino en tiempo real”, ésta semeja ser la presentación de la nueva versión del algoritmo que promete analizar enlaces y efectuar... pero además promete hacerlo en tiempo real.


Esto va a suponer ciertas ventajas y ciertas desventajas en el momento de gestionar nuestros perfiles de enlaces.


Penalizaciones sobre la marcha


Hasta ahora el algoritmo revisaba los perfiles de enlaces cada vez que se refrescaba y cambiaba de versión.


Entonces, si hallaba un patrón de enlaces spam su filtro se ponía en marcha y ya tenías tu penalización algorítmica.


A partir de ahora, el Pingüino estará examinando perfiles de links continuamente y según vaya encontrando backlinks tóxicos irá repartiendo penalizaciones algorítmicas.


Monitorización constante de nuestro perfil de enlaces


Este nuevo funcionamiento del algoritmo supondrá algunos cambios en nuestra forma de gestionar los links entrantes.


Eso que hacíamos de realizar una auditoría de links muy en ocasiones, o simplemente cuando sabíamos que Google iba a sacar una nueva actualización de Penguin… eso ya no vale.


Eso era como ponerse a estudiar la noche precedente a un examen… ¡Mal! eso siempre estuvo mal.


A partir de ahora deberemos realizar una tarea dede una manera mucho más frecuente.


Al fin y al cabo, Penguin nos puede penalizar en cualquier momento.


Recuperaciones más rápidas


En la otra cara de la moneda, está la enorme ventaja que supone que el pingüino esté funcionando de forma constante.


Si tenemos al algoritmo revisando los enlaces continuamente no sólo detectará los enlaces spam rápidamente, sino que también tardará mucho menos en ver que hemos eliminado ciertos links tóxicos.


Más sobre esto


Esto va a suponer un verdadero balón de oxígeno para muchos sitios web que una vez penalizados tenían que esperar hasta que el algoritmo se refrescase de nuevo para poder ver revertida su situación.


Esto significaba un auténtico “purgatorio” para muchos negocios online que tenían que aguardar meses sufriendo pérdidas esenciales de tráfico orgánico mientras que veían que su negocio no aguardaba a absolutamente nadie.


A partir de ahora una rápida detección del problema y una inmediata acción correctiva (eliminar los enlaces tóxicos) puede suponer que se salga de la penalización algorítmica rápidamente.


Mayor complejidad para identificar las penalizaciones


Cuando una web es penalizada existen 2 posibilidades: que se trate de una penalización manual o bien de una penalización algorítmica.


En el primer caso no hay duda.


La penalización manual la efectúa una persona, por lo que sabremos que hemos sido penalizados al recibir el correspondiente mensaje en.


Por el contrario, cuando se trata de una penalización algorítmica la primera cosa que nos preocupa es identificar el algoritmo que nos ha penalizado para poder solventarlo.


La comprobación que se suele hacer entonces es comparar la data en la que comenzamos a perder tráfico orgánico con las fechas en las que los algoritmos (normalmente Penguin o Panda) se actualizaron.


Pero desde el instante en que Panda formaya no conocemos las datas en las que se actualiza… y aquí se plantea una cuestión interesante: ¿qué pasará con las próximas actualizaciones de Penguin?


En principio, que Google Penguin funcione en tiempo real no desea decir que sus actualizaciones también lo sean, pero el momento de recibir una penalización del pingüino ya no va a coincidir necesariamente con el momento en el que el algoritmo se actualice.


A menudo, el instante de la penalización será cuando tengamos nuevos enlaces spam (o más bien cuando Penguin los detecte).


La solución pasa de nuevo por realizar un mantenimiento periódico de nuestro perfil de enlaces.


Pero además, cuando recibamos una bajada de tráfico orgánico a raíz de una penalización algorítmica debemos repasarlo todo (perfil de links, contenidos… )


¿Cómo comportarse con Penguin 4.0?


Ya lo he dicho antes, mas no me cansaré de repetirlo: a partir de ahora no vale prepararse para la salida de una nueva versión de Penguin.


Con la actualización en tiempo real deberemos cuidar nuestro perfil de enlaces constantemente.


Por lo tanto, lo que debes hacer para estar de buenas con Penguin es, en buena medida, lo que repetirás periódicamente para repasar la salud de tus enlaces.


En realidad son los 2 mismos aspectos que hay siempre y en toda circunstancia que observar para estar a salvo de cualquier pingüino:


Estrategia de Linkbuilding


Como ya mencioné antes, la primera cosa que tenemos que tener claro al conseguir enlaces para un sitio web es que todos y cada uno de los links que apunten a nuestra web han de ser “naturales” ...o al menos semejarlo de forma muy convincente.


Para que tu perfil de links sea “convincentemente natural” hay algunos aspectos que debes cuidar:




  • Calidad en frente de cantidad




Calidad en frente de cantidad


Es siempre y en toda circunstancia mejor tener pocos enlaces pero buenos que muchos malos.




  • Enlaces Dofollow y Nofollow




Enlaces Dofollow y Nofollow


Obviamente un perfil de enlaces en el que todos son Dofollow llama un poco la atención.


Si para cualquier persona es evidente que no es natural… para Google Penguin no cabe la menor duda de que ahí hay spam.


Lo mejor es hallar diseño tiendas online cuenca los dos tipos de links.


La pregunta del millón: ¿qué proporción de enlaces hay que tener de cada tipo?


Bueno, pues aquí hay margen de sobra.


Pero por mi experiencia lo ideal es que los links “Dofollow” estén siempre y en toda circunstancia por encima del 50 por ciento del total de enlaces, mas que no alcancen cifras superiores al setenta y cinco por cien


Pero también te digo que si tus links son todos naturales prácticamente seguro que estarán entre estas cantidades.




  • Enlazar desde páginas de exactamente la misma temática




Enlazar desde páginas de exactamente la misma temática


Si las webs que te enlazan son de exactamente la misma temática el link te dará más relevancia ante Google.


Linkbaiting


Sin duda, la mejor estrategia para conseguir links naturales es que los enlaces sean realmente naturales.


Para lograr que nos enlacen así, la mejor estrategia es el Linkbaiting.


Esta estrategia se fundamenta en delimitar muy bien a nuestro “buyer persona” para ser capaces de acotar qué géneros de contenido le resultarán irreprimibles y le incitarán a compartir y enlazarlo.


Lo que llamamos generar el cebo (bait) más efectivo.


Auditoría de Backlinks


Siempre que te caiga un Pingüinazo acabarás haciendo este proceso de auditoría y limpieza de backlinks.


Pero esta es también una labor que deberíamos efectuar periódicamente,sobre todo, puesto que el pingüino de Google va a rastrear los links sin parar.


También es una gran idea efectuarla ahora mismo si queremos caerle bien al nuevo Penguin sin perder ni un minuto más.


De lo que se trata es de repasar nuestro perfil de enlaces y eliminar aquellos que nos puedan perjudicar.


Pero vamos a ver los pasos que hay que proseguirse para efectuar una auditoría y limpieza de enlaces tóxicos.


Paso 1.- Recopilación de backlinks


No por obvio es menos necesario tener un listado lo más extenso posible de todos los enlaces que apuntan a nuestra web.


Para ello vamos a poder utilizar multitud de herramientas… y aconsejo usarlas todas y cada una (o bien por lo menos múltiples de ellas) puesto que ninguna será capaz de encontrar la totalidad de links entrantes.


Dos de las herramientas que puedes emplear para compilar estos enlaces son:


Así, el listado que consigamos de una herramienta podrá llenar el que hayamos conseguido de la otra.


Paso dos.- Consolidar y clasificar los links entrantes


Ahora que ya tenemos una lista extensa de enlaces (o más bien múltiples listas obtenidas de diferentes herramientas) que apuntan a nuestra web, deberemos consolidar estos listados e identificar cuáles nos pueden perjudicar y cuáles no.


Para ello, puedes usar algunas de las herramientas que existen en el mercado, mas yo te invito a que pruebes la herramienta Backlink Audit de SEMrush, y que vale la pena por varios motivos:


1.- Enlaza con los datos de Search Console, con lo cual te evitas tener que recurrir a la fuente información más importante en lo que se refiere a enlaces entrantes se refiere: Google. Sin duda los enlaces que conoce Google deberían de ser los que más nos interesen por obvias razones.


2.- Te deja importar de forma sencilla los links que hayas podido recopilar en otra herramienta de las nombradas.


3.- El “Toxic Score” que ofrece valora de 0 a cien en nivel de confianza de cada enlace y está calculado basándose en el número de links de sitios de confianza que recibe el dominio que nos enlaza.


Así que, lo primero que debemos hacer, si no lo hicimos ya, es vincular nuestro proyecto de SEMrush con la cuenta de Search Console correspondiente.








Ahora, debemos importar los links que recopilamos de otras fuentes y consolidarlos con los de Search Console y SEMrush.


Tendremos que añadirlos a la herramienta de SEMrush importándolos en un archivo CSV en el que simplemente se incluirá una URL por línea.


Pulsamos en añadir backlinks








….y dependiendo del número de links añadidos le llevará más o menos tiempo analizarlos.








Enseguida vamos a tener todos los enlaces que compendiamos consolidados y analizados en nuestra herramienta.








Una vez analizados todos y cada uno de los links entrantes en SEMrush (tanto los detectados por la herramienta como los importados de Search Console) deberíamos clasificar cada link de forma individual comenzando por los que tienen un índice de toxicidad más alto.








En esta fase de la clasificación de links, debemos hacer una revisión de forma manual para comprobar si cada uno de ellos de los enlaces proviene de un sitio que pueda dañar nuestro perfil de enlaces.


Lo vamos a hacer, eso sí, empezando con los clasificados con un índice de toxicidad I (“Toxic Score”).


Durante esta revisión podemos ir clasificando los links según diferentes criterios que más tarde nos ayudarán a tomar la decisión de eliminarlos o bien no.


Paso 3.- Suprimir enlaces tóxicos


Una vez identificados todos los links tóxicos debemos tratar de suprimirlos.


A la hora de quitarlos nos podemos encontrar con 2 escenarios bien diferentes:


Si realmente fuimos los que pusimos el enlace en otra página o en una PBN propia será más fácil pues vamos a tener control sobre estos enlaces.


Sin embargo, si los enlaces están en sitios de terceros, deberemos hacer un pequeño trabajo de investigación para conseguir una dirección de contacto del webmaster de la página web que nos enlaza y pedirle que elimine el link.


Bueno, esto es lo que quiere Google que hagamos cuando la penalización es manual.


En ese caso no nos queda más antídoto que intentar eliminar los links, pues deberemos informar de estos intentos alque será revisada por una persona real.


Este vídeo es del año 2012, pero su contenido prosigue absolutamente vigente y en él Matt Cutts explica cómo deberíamos de documentar los intentos de eliminación de enlaces que hemos efectuado.


Lo que quiere Google realmente, es que dediquemos cuando menos un mínimo esfuerzo a quitar los links como el que efectuamos al ponerlos.


Sí, Google siempre y en todo momento considera que somos malos y los hemos puesto .


Sin embargo, si lo que tenemos es una penalización algorítmica no deberemos reportar a absolutamente nadie, por lo que podríamos desautorizar estos enlaces directamente… aunque no debemos.


¿Por qué no debemos?


Pues porque no es exactamente lo mismo eliminar un link que desautorizarlo.


Cuando conseguimos eliminar un enlace este desaparece y con él desaparecerá la penalización en cuanto Google Penguin advierta que ya no está… lo cual con Penguin 4 será “ya” (o bien algo parecido).


Sin embargo, cuando desautorizamos un enlace lo que hacemos es pedirle a Google que no tenga en cuenta ese link.


Esto es simplemente una sugerencia que Google puede tomar en consideración o no (aunque en general lo hace).


Paso cuatro.- Desautorizar links tóxicos con Disavow Tool


De cualquier forma, lo cierto es que la mayoría de las veces ponerse en contacto con los webmaster de estos sitios acostumbra a ser una misión imposible.








Tenemos que tener claro que cuando hablamos de desautorizar enlaces ante Google lo haremos empleando la herramientade Search Console.


Tal y como acabo de explicarte en el punto anterior, esta herramienta debería ser un último recurso y deberás emplearla con aquellos links que estimas que son tóxicos y que no has podido quitar o bien pedir su eliminación.








Formato del archivo para Disavow Tool


Para utilizar esta herramienta de, simplemente tenemos que generar y subir un archivo de texto (con extensión .txt) que incluye las páginas y dominios de los que queramos que no se tengan presente los enlaces cara nuestra web.








Este fichero debe tener un único dato (registro) por línea y estos datos pueden ser:



  • Enlaces (p.e.: -toxico/pagina-que-enlaza.html) cuando desautorizamos una página concreta que nos enlaza.

  • Dominios (p.e.: dominio-toxico) cuando tenemos múltiples páginas que precisamos desacreditar de un mismo dominio es mejor desacreditar de este modo el dominio completo.

  • Comentarios, que comienzan por # (p.e.: #Esto es un comentario). Estos comentarios no son tenidos en cuenta por Google mas nos sirven para organizar el fichero apartando dominios de páginas y también incluyendo alguna anotación.


El funcionamiento es simple, pero aún así son bastante corrientes los ficheros con fallos que entonces Google no podrá validar.


Pero despreocúpate porque late lo pone fácil.


Si has ido clasificando en ella los links tóxicos tendrás el apartado Disavow una lista de páginas y dominios que querrás desacreditar.


Pulsando en el botón “Export” nos descargamos el archivo txt para enviar a Search Console con perfección formateado.


Para subirlo sencillamente entramos en la herramienta Disavow Tool eny escogemos la propiedad de Search Console sobre la que vamos a trabajar.








En la próxima ventana se nos informa de que Disavow Tool se trata de una función avanzada y que únicamente se debería de utilizar si se sabe lo que se está haciendo y en caso de tener un número notable de links.








Y en la siguiente ventana ya podemos subir nuestro archivo con las URLs y dominios que queremos desautorizar.








¿Y si me confundo al desautorizar links?


Bueno, lo primero que te diré es que no puedes subir un segundo fichero.


La herramienta únicamente deja un archivo de texto por cada propiedad de Search Console.


Lo que puedes hacer es volver a subir el archivo original modificado.


En el caso de que quieras alterarlo y no hayas conservado el fichero original siempre podrás descargarte el listado de páginas y dominios mandados.


Eso sí, que sepas que no te estarás descargando el fichero txt que mandaste.


Lo que te descargarás será únicamente el listado de URLs y dominios (sin los comentarios) y en formato CSV o bien Google Docs.








También tienes la posibilidad de eliminar el archivo si quieres que Google vuelva a estimar los enlaces que habías desautorizado.


Y ahora a esperar… ¿o no?


Efectivamente.


Hasta ahora, cuando se enviaba un fichero había que esperar… y por lo general había que esperar mucho.


En teoría, las desautorizaciones de los enlaces mandados no surgían efecto hasta que Google volvía a rastrear e indexar esas URLs pero, la verdad es que muchas veces había que esperar a que se refrescase el pingüino y sacasen una nueva versión.


Éstas esperas son cosa del pasado por el hecho de que con el nuevo Penguin cuarenta, Google promete revisión constante de los enlaces.


Esto puede suponer una mayor agilidad a la hora de desautorizar y reautorizar los links que incluyamos en este fichero.








Y tú, ¿qué piensas de Google Penguin cuarenta? ¿Es un algoritmo realmente ágil examinando enlaces?


Foto (de Google):Shutterstock


 

Äîáàâèòü êîììåíòàðèé:
Òåêñò êîììåíòàðèÿ: ñìàéëèêè

Ïðîâåðêà îðôîãðàôèè: (íàéòè îøèáêè)

Ïðèêðåïèòü êàðòèíêó:

 Ïåðåâîäèòü URL â ññûëêó
 Ïîäïèñàòüñÿ íà êîììåíòàðèè
 Ïîäïèñàòü êàðòèíêó