-Ïîèñê ïî äíåâíèêó

Ïîèñê ñîîáùåíèé â Lomholt_Tuttle

 -Ïîäïèñêà ïî e-mail

 

 -Ñòàòèñòèêà

Ñòàòèñòèêà LiveInternet.ru: ïîêàçàíî êîëè÷åñòâî õèòîâ è ïîñåòèòåëåé
Ñîçäàí: 24.04.2020
Çàïèñåé:
Êîììåíòàðèåâ:
Íàïèñàíî: 207


Cómo hacer un análisis SEO on-site legendario

Ñðåäà, 20 Ìàÿ 2020 ã. 14:13 + â öèòàòíèê

Cuando un nuevo proyecto posicionamiento en buscadores cae en mis manos siento la irrefrenable necesidad de empezar a hacer cosas, cuando veo algo que puede estar tenuemente mejor necesito arreglarlo, pero esto no es una gran idea, lo mejor es calmarse, respirar hondo y comenzar a hacer una buena planificación partiendo de un buen estudio de la web y de la.



Antes de comenzar a hacer cualquier análisis o bien estudio lo primero que hay que hacer es navegar por la páginapara hacernos una idea lo más profunda posible de a lo que nos estamos enfrentando.



Hay muchos pasos que hay que proseguir en el momento de hacer un análisis on-site que pase a los anales de la historia, mas se pueden agrupar fácilmente en cuatro:



  • Accesibilidad

  • Indexabilidad

  • ¿Has sido penalizado?

  • Factores de posicionamiento on-site


Accesibilidad


Si Google o bien los usuarios no pueden acceder a una página, también podría no existir, que sería lo mismo. Así que
lo primero en que hay que fijarse es si nuestra página web es perceptible a los ojos de los motores de búsqueda.


Archivo
robots.txt


El fichero
robots.txtse usa para impedir a los motores de búsqueda que accedan e indexen ciertas partes de tu web, si bien es muy útil, puede darse la situación de que bloqueemos el acceso a nuestra página web sin darnos cuenta.


En este caso extremo, el archivo
robots.txtestá bloqueando el acceso a toda la web:


User-agent: *

Disallow: /


Lo que debemos hacer es revisar manualmente que el archivo robots.txt (generalmente la URL acostumbra a ser
/robots.txt) no está bloqueando ninguna parte esencial de nuestra web. También podemos hacer esto a través de.


Meta etiquetas
robots


Las meta etiquetas se emplean para decirle a los robots de los motores de búsqueda si pueden o bien no indexar esa página y proseguir los links que contiene. En el momento de analizar una página
debemos de revisar si existe alguna meta-etiqueta que por error esté bloqueando el acceso a los robots. Este es un caso de como se ven estás etiquetas en el código HTML:


<meta name=»robots» content=»noindex, nofollow»>


Códigos de estado
HTTP


En el caso de que alguna URL devuelva un fallo (errores 404, 502, etc., los usuarios y los motores de búsqueda no podrán acceder a esa página . A lo largo de este paso se deben identificar todas y cada una de las URLs que devuelvan fallo,para más tarde arreglarlas.


Para identificar estas URLs recomiendo utilizar, te enseña rápidamente el estado de todas las URLs de tu página, aunque en la versión gratuita solo te deja ver 500, aún si, si la página web no es muy grande nos servirá de mucha ayuda. También en
Google Administrador web Toolspodemos ver esto, mas a mi parecer es menos fiable.



Aprovecharemos este paso para saber si hay alguna redirecciónen la página web y si es así, si es una redirección temporal 302 (en esté caso la convertiríamos en un redirección permanente trescientos uno) o bien si es una redirección permanente trescientos uno pero redirige a una página que no tenía nada que ver con ella, entonces lo redirigiremos a donde debe.


Sitemap



El sitemap es literalmente un mapa para Googlecon el que nos cercioramos de que Google halla todas las páginas importantes de nuestra página web. Hay varios puntos esenciales a tener en cuenta con el Sitemap:



  • Si el mapa no sigue lospara ello, Google no lo procesase apropiadamente.

  • ¿Se encuentra el desarrollo de tiendas online ?

  • ¿Hay páginas en la web que no aparecen en el Sitemap? Si es así habrá que actualizar el Sitemap.

  • Si encuentras alguna página en el sitemap que Google no ha indizado significa que no las ha podido hallar, asegúrate de que al menos un enlace en la página web apunte hacia ella y que no estamos bloqueando el acceso por fallo.


Arquitectura de la web


Haz un esquema de toda la página web en el que se pueda ver fácilmente los niveles que tiene desde la home hasta la página más profunda y cuantos «clicks» hacen falta para llegar a ellas. También busca si todas las páginas tienen al menos un enlace interno apuntando hacia ellas. Se puede revisar fácilmente confiltrando los links solo por internos. Esto es pues Google tiene un tiempo limitado para rastrear una web, cuantos menos niveles deba saltar para llegar a lo más profundo, mejor.


Navegación Flash o bien Javascript


Aunque en los últimos años se ha vuelto más inteligente a la hora de leer esta clase de tecnologías, es mucho mejor no usarlas para evitar posibles inconvenientes.


Para revisar esto solo tienes que navegar un par de veces a través de la web: una con el Javascript activado y otra con él desactivado. Usandonos será mucho más fácil.


Velocidad de la web


Es bien sabido que un de los factores del aumento del porcentaje de rebote es la velocidad de carga de una página, pero hay que tener en cuenta que el robot de
Google también tiene un tiempo limitado a la hora de navegar por nuestra página, cuanto menos tarde cada página en cargar a más páginas conseguirá llegar.


Puedes utilizar varias herramientas para poder ver la velocidad de carga de la página web.ofrece una gran cantidad de datos acerca de lo que ralentiza la carga de la página web así como consejos de.


también nos da de forma más gráfica los diferentes elementos que se cargan en nuestra web y el tiempo que le toma a nuestro navegador hacerlo.


Indexabilidad


Ya hemos identificado cuales son las páginas a las que pueden acceder los motores de búsqueda, ahora lo que tenemos que hacer es identificar cuantas de esas páginas están siendo verdaderamente indexadas por ellos.


Comando de busqueda
Site:


Google ofrece de la posibilidad hacer búsqueda con el comando «site:» Con este comando lo que hacemos es hacer una búsqueda en una web detalla, lo que nos da un idea muy aproximada del número de páginas que Google tiene indizadas.



Esto nos sirve para cotejar la cantidad de páginas que Google tiene indexadas con el número real de las páginas de la página web, que sabemos ya por el sitemap y haber navegado por la web previamente. Pueden ocurrir tres cosas:



  1. El número en ambos es muy parecido…¡¡BIEN!!

  2. El número que aparece en la búsqueda de Google es menor, lo que significa que Google no está indexando muchas de las páginas

  3. El número que aparece en la búsqueda de Google es mayor, esto prácticamente siempre y en toda circunstancia quiere decir que la página web tiene un problema de contenido copiado.


En el segundo caso lo que haremos es repasar todos y cada uno de los puntos de accesibilidad por si se nos ha pasado algo. En el tercer caso revisaremos que nuestra página no tenga contenido duplicado, cosa que explicaré más adelante.


Páginas relevantes


Para saber si las páginas que están posicionan mejor son las realmente esenciales solo debemos buscar de nuevo con el comando «site:», lo lógico sería que la home apareciese en primer lugar seguida de las páginas más importantes de la web, si no es así debemos investigar porqué (lo veremos más abajo)


Búsqueda de marca


Después de saber si las páginas esenciales están bien posicionadas debemos saber si la web está posicionando bien para un búsqueda con el propio nombre de la página web.


Si la página web aparece en las primeras posiciones, todo está bien, si la página web no semeja por ninguna parte, tenemos un problema: es posible que Google haya penalizado la web, es hora de descubrirlo.


¿Te ha penalizado Google?



Si te has parado en este punto, es que posiblemente tengas un problema con nuestro amigo Google. Es parcialmente fácil saber si has sido plenamente penalizado por Google, mas lo optimo es averiguar hasta la más mínima penalización que el Gran Hermano haya podido regalarnos.


He hablado ya sobre, mas también hay que tomar en consideración que la perdidas de tráfico también se pueden deber a cambios en el algoritmo de Google, con lo que hay que seguir 2 pasos para asegurarse de que verdaderamente es una penalización:


1. Asegurarnos de qué es lo que pasa


Lo primero que hay que hacer es una búsqueda de nuestra marca en Google, si no aparecemos por ningún lugar es posible que sea un penalización, mas también es posible que estemos bloqueando el acceso a Google a la web, si es así hay que continuar nuevamente los pasos que he explicado más arriba.


Una vez que hayamos comprobado que todo está bien en lo que analisis web , vamos a hacer una búsqueda de la URL de la página web en Google (sin el comando
site:) y vamos a ver sí todas y cada una de las páginas importantes aparecen en primera página; después vamos a hacer búsquedas de las URLs de cada género de página, si se tratase de un y también-commerce sería categoría,sub-categoria, producto, fabricante,etc.


2. Identificar la causa


Una vez que estés seguro que alguna parte de la página web está siendo penalizada hay que ponerse a ello y averiguar la razón. empresas diseño paginas web sevilla un análisis exhaustivo de cualquier factor interno o externo: mismo anchor text en multitud de links internos o externos, palabra clave stuffing en el contenido de la páginas, links desde web de calidad dudosa…la razones pueden ser muchas, solo hay que tener paciencia.


El último paso sería corregirlo y enviar unaa Google desde Webmaster Tools, pero eso lo trataremos en otros post.


Factores de posicionamiento on-site


Ya hemos analizado la accesibilidad y la indexabilidad de la web, ahora le toca el turno a los
factores que afectan de manera directa al posicionamiento en Google. Este paso es bien interesante porque es donde vamos a encontrar más ocasiones para prosperar cosas en la página web.


URLs


Para analizar las URLs de las páginas debemos hacernos 5 preguntas:




  1. ¿Es la URL demasiado larga?Lo aconsejable es que no sobrepase los ciento quince caracteres


  2. ¿Tiene la URL keywords relevantes?Es importante que la URL describa el contenido de la página, puesto que es la puerta de entrada de Google cara la web


  3. ¿Hay demasiados parámetros en la URL?Lo optimo sería usar URLs estáticas, mas si no es posible, como puede darse en e-commerce, evitaremos el uso excesivo además de registrarlos en Google Webmaster Tools (
    configuración > parámetros de URL)


  4. ¿Se están usando «barras bajas» en lugar de guiones?Desde Google se aconseja el uso de guiones para separar las palabras en la URL


  5. ¿Redirige de forma correcta la URL?Con esto me refiero a si por servirnos de un ejemplo
    redirige de «no www» a «www»o sí
    redirige de «.html» a «no .html». Esto evitara problemas de contenido duplicado


El contenido



Creo que ha quedado bastante claro por parte de Google que
el contenido el rey, ofrezcamosle un buen trono entonces.


Para hacer un buen análisis del contenido de nuestra página web tenemos unas cuantas herramientas a nuestra disposición, pero al final lo más útil es usar la página cacheada por Google para poder ver la versión en solo texto, de esta manera vamos a ver que contenido está leyendo Google realmente y en que orden está preparado.


A la hora de hacer el análisis del contenido de las páginas nos haremos varias preguntas que nos guiaran en el proceso:




  • ¿Tiene la página suficiente contenido?No hay una medida estándar de cuanto es «suficiente», pero por lo menos debería contener 300 palabras


  • ¿Es el contenido relevante?El contenido ha de ser util para el lector, simplemente preguntándonos si leeríamos eso, nos daremos la contestación.


  • ¿Tiene el contenido keywords esenciales?¿Aparecen estas palabras clave en los primeros párrafos?


  • ¿Tiene el contenido palabra clave stuffing?Si el contenido de la página tiene exceso de keywords, a Google no le hará ninguna gracia


  • ¿Está el contenido bien escrito?Es decir,
    ¿hay faltas de ortografía?¿fallos en la sintaxis?¿en la puntuación?


  • ¿Es el contenido fácil de leer?Si no se nos hace tediosa la lectura, estará bien.


  • ¿Puede Google leer el texto de la página?Tenemos que evitar que el texto esté en Flash, imágenes o javascript


  • ¿Está el contenido bien distribuido?Esteexplica muy bien como sería la distribución perfecta


  • ¿Hay múltiples páginas centradas en exactamente las mismas palabras clave?Si es así estaremos cayendo en lo que tiene por nombre «canibalización de keywords», lo que deberemos hacer es añadir una etiqueta «rel=canonical» hacia la página más importante.


La mejor forma para comprobar todo esto, además de tener paciencia, es hacer un fichero excel en el que apuntar para cada una de las páginas las keywords en las que se centra y todos y cada uno de los fallos que vallamos viendo en ellas, así en el momento de comprobarlo para su mejora lo tendremos mucho más fácil.


Contenido duplicado


Tener contenido copiado quiere decir que
para múltiples URLs tenemos el mismo contenido, puede ser contenido copiado interno o bien externo. En otro artículo he hablado de varios.


Para advertir el contenido copiado podemos ha medida que has hecho la navegación por la web apuntando los posibles casos de contenido duplicado, entonces copias un párrafo del texto y haces la búsqueda en Google entre
[corchetes], esto no dará como resultado todas y cada una de las páginas tanto internas como externas que poseen ese párrafo. También son útiles herramientas como.


Etiquetas HTML


No hay que infravalorar el código de la página a la hora de hacer el análisis, contiene buena parte de los factores de posicionamiento más esenciales.


Antes de iniciar con puntos específicos del código HTML debemos asegurarnos que cumple los estándares, W3C ofrece unde HTML que nos mostrara cualquier fallo del código.



Title


El título de la página es quizás el elemento más importante.
Es la primera cosa que aparece en los resultados en Google y es lo que se muestra cuando la gente pone el link en las redes sociales(excepto Twitter).


Para examinar el título seguiremos también (como no) una serie de pasos:



  • El título no debe de sobrepasar los 70 caracteres, si no aparecera cortado.

  • El título debe de ser descriptivo con respecto al contenido de la página

  • El título debe de contener keywords esenciales, a poder ser al comienzo, toda vez que no pierda la lógica

  • Nunca debemos abusar de las palabras clave en el titulo, esto hará que los usuarios desconfíen y que Google piense que estamos procurando engañarlo


Otra cosa a tener en cuenta es donde poner la «marca», es decir, el nombre de la página web, por lo general se suele poner al final para dar más relevancia a las keywords importantes, separando estas del nombre de la página web con un guión o una barra vertical. Podemos ver fácilmente todos y cada uno de los títulos de las páginas con



Meta Descriptions


Aunque no es un factor de posicionamiento, afecta de forma notable a la tasa de clics (click-through rate) en los resultados de búsqueda.


Para la meta description proseguiremos exactamente los mismos principios que con el título, solo que la longitud de está
no debe de sobrepasar los ciento cincuenta y cinco caracteres. Tanto para lo títulos y la descripciones debemos de eludir la duplicidad, esto lo vamos a poder comprobar en Webmaster Tools (
optimización > mejoras HTML).


Otras elementos HTML





  • Meta Keywords –Simplemente elimínalas si existen, Google no las usa para nada


  • Etiqueta «rel=canonical» –Si hay alguna página usando esta etiqueta debemos de asegurarnos de que dirija a la página correcta.


  • Etiquetas «rel=prev ; rel=next» –Si hay páginas usando estás etiquetas, lo mismo, asegurarnos que apuntan cara las páginas adecuadas.


  • Etiquetas H1, H2, H3…-Debemos de examinar si todas y cada una de las páginas emplean estas etiquetas y de si en ellas se incluyen keywords relevantes para el contenido.


Imágenes


A la hora de analizar la imágenes debemos de tener en cuenta 3 factores:




  1. El peso de la imagen –Con esto me refiero a su peso Kb, para ello hay que comprobar si están comprimidas, si tienen redimensión, etc. Esta información nos la aportara


  2. La etiqueta «alt» –Esta debe de ser gráfica respecto a la imagen y contenido que rodea a la imagen


  3. Título de la imagen –Lo mismo que en el punto anterior


Enlaces


Es fundamental analizar el numero de links, tanto externos como internos, y a donde están enlazando, para ello (otra vez, que pesado el tío con las listas) haremos una lista con los factores más importantes:



  • El número de enlaces por página no debe superar los 100 y todas las páginas deben de tener un numero de links similar

  • Los enlaces externos deben apuntar a sitios esenciales y relevantes para el contenido de la web

  • El anchor text de los links deberá de tener palabras clave esenciales, pero tampoco vamos a deber utilizar exactamente las mismas keywords para todos los enlaces

  • No debe de haber ningún enlace roto ni apuntado a páginas con fallos 404

  • Puede que haya links que apunten a páginas con redirecciones, si es así, se cambiaría la URL por la página de destino final

  • Debe de haber un buen ratio entre enlaces
    followy
    nofollow, no todos deben de ser
    followni todo
    nofollow


También debes asegurarte que las páginas esenciales reciban enlaces de las otras páginas importantes de la web y de que todas las páginas en la página web tengan por lo menos un link apuntando hacia ellas.


¡Por fin!


Siguiendo todos estos pasos vamos a hacer un análisis posicionamiento en buscadores on-site de cualquier web con el que vamos a poder tirarnos horas delante de la pantalla para entonces dejarla impecable. Me gusta mucho incidir en que por mucho link-building que sea haga, si esos links apuntan a páginas que nos hagan plañir, no valdrán para nada.


 

Äîáàâèòü êîììåíòàðèé:
Òåêñò êîììåíòàðèÿ: ñìàéëèêè

Ïðîâåðêà îðôîãðàôèè: (íàéòè îøèáêè)

Ïðèêðåïèòü êàðòèíêó:

 Ïåðåâîäèòü URL â ññûëêó
 Ïîäïèñàòüñÿ íà êîììåíòàðèè
 Ïîäïèñàòü êàðòèíêó