Cómo efectuar una auditoría posicionamiento web en buscadores punto por punto de tu WordPress |
Para realizar cualquier estrategia encaminada a conseguir una meta, primero debemos determinar, de la forma lo más aproximada posible, cuál es nuestra situación actual y, a partir de ella, qué acciones o bien tácticas podemos llevar a cabo.
Es decir, saber dónde nos encontramos para saber qué caminos o bien alternativas tenemos disponibles que nos acerquen a nuestra meta.
Las estrategias deno escapan a esta realidad y las auditorías posicionamiento web son el mecanismo que nos permiten establecer el estado de un sitio web y, en función del objetivo,
diseñar la mejor estrategia.
Una auditoría posicionamiento SEO también da un “diagnóstico” de la calidad de un sitio, no solo en lo que se refiere a su contenido y la estructura de éste, sino más bien a otros aspectos como el rendimiento, la experiencia de usuario, su navegabilidad o su relevancia.
Aspectos muy relacionados con las propias directrices que Google aconseja para optimar el posicionamiento orgánico de las páginas de un sitio y que, por su parte, forman parte de los factores de posicionamiento de sus algoritmos de búsqueda.
Por tanto, el grado de éxito de nuestras estrategias de posicionamiento web en buscadores sobre un sitio web dependerá de forma directa del nivel de calidad y alcance de la auditoría posicionamiento web realizada.
Ahora bien,
¿en qué consiste una auditoría posicionamiento en buscadores y cuál es su alcance?¿Qué contestaciones nos ofrece y qué podemos hacer con ellas?
A continuación veremos en detalle todos y cada uno de los aspectos fundamentales que el análisis SEO de un sitio web debe contemplar y nos marque las pautas para optimar su posicionamiento y desarrollar una estrategia posicionamiento web en buscadores óptima.
Antes de nada, debemos comprender que, para efectuar una auditoría posicionamiento en buscadores, es necesario que el sitio web exista y esté publicado. Además, normalmente, también tendrá ya múltiples meses o años de vida.
Tiene sentido: después de todo, la auditoría posicionamiento SEO pretende
analizar el “estado actual”de un sitio.
Sin embargo, esto no quiere decir que primero deba aguardarse a que un sitio esté construido y lleve unos meses en Internet para hacer una auditoría SEO y entonces optimarlo para las búsquedas orgánicas.
Una auditoría posicionamiento web se efectúa sobre un producto ya existente (lo afirma la propia palabra: algo sobre lo que “auditar”), pero también se puede edificar un sitio, desde cero, siguiendo unos parámetros mínimos de calidad para la optimización posicionamiento web en buscadores.
En este caso, dejaría de una labor de una auditoría como tal, sino correspondería a una de consultoría o asesoría, en la que el profesional SEO es parte del equipo multidisciplinar de trabajo que construye el sitio web y les guía o bien asesora durante este proceso de construcción.
Aún así, esta labor de asesoría no exonera de efectuar un análisis posicionamiento web siguiente, una vez construido el sitio, para asegurar que está de conformidad con las recomendaciones de consultoría, singularmente las relativas al apartado técnico y de contenido.
Llegados a este punto, ya sabemos cuál es el propósito de una auditoría posicionamiento en buscadores (optimar el sitio web para el posicionamiento) y cuándo efectuarse, mas ¿en qué consiste y
cómo hacer una auditoría SEO? En otras palabras, ¿qué labores debemos acometer a lo largo de esta auditoría?
Si bien la auditoría posicionamiento SEO se efectúa sobre un producto claramente definido (esto es, un sitio web operativo) la diversidad de elementos, tanto estructurales como de contenido y funcionales, que constituyen un sitio web hace que tenga distintas áreas de aplicación en función de su propósito o cometido.
En líneas generales, estas áreas serían las siguientes:
La auditoría posicionamiento web verifica que la organización y relación de las páginas web (esto es, la arquitectura del sitio) coinciden con la jerarquía pretendida y que ésta quede clara tanto a los usuarios como a los rastreadores.
Aunque lo haya enumerado aparte, este apartado depende de manera directa de áreas como el técnico o la estructura del contenido.
¿Cómo se distingue? ¿Qué les hace mejores? ¿Qué podemos aprender de ellos? ¿Cómo posicionan? Analizar los sitios web de la competencia, de sus éxitos y sus descalabros nos ayudará a mejorar nuestro propio análisis.
La auditoría posicionamiento web verifica que la organización y relación de las páginas web (esto es, la arquitectura del sitio) coinciden con la jerarquía pretendida y que ésta quede clara tanto a los usuarios como a los rastreadores.
Aunque lo haya enumerado aparte, este apartado depende de forma directa de áreas como el técnico o la estructura del contenido.
¿Cómo se diferencia? ¿Qué les hace mejores? ¿Qué podemos aprender de ellos? ¿Cómo posicionan? Analizar los sitios web de la competencia, de sus éxitos y sus fracasos nos ayudará a prosperar nuestro análisis.
Como resultado final de hacer una auditoría posicionamiento en buscadores se emite un informe en el que se recogen todas y cada una de las incidencias detectadas, recomendaciones para su resolución así como de mejora, y una primera propuesta de la estrategia de posicionamiento orgánico.
Hasta ahora hemos visto que si deseamos diseñar una estrategia óptima de posicionamiento orgánico, debemos comenzar con el análisis posicionamiento web del sitio. Éste sería el fin último de la auditoría y casi su fundamente de ser.
Sin embargo, detrás de esta premisa, realizar una completa auditoría SEO aporta un conjunto de ventajas que debemos tener en mente tanto a lo largo del desarrollo de la auditoría como en el momento de implantar las recomendaciones del informe resultante:
Conocer cuáles son estas palabras clave puede asistirnos a diseñar una estrategia que aproveche su potencial para reforzar la autoridad del sitio web.
Por ejemplo, creación de nuevos contenidos, productos o bien servicios, optimización para nuevas palabras clave, o identificación de nichos prometedores ignorados por nuestra competencia, entre otros.
De nada sirve tener millones de visitas si ninguna se detiene para interactuar con el sitio web.
Conocer cuáles son estas palabras clave puede asistirnos a diseñar una estrategia que aproveche su potencial para fortalecer la autoridad del sitio web.
Por ejemplo, creación de nuevos contenidos, productos o bien servicios, optimización para nuevas palabras clave, o bien identificación de nichos prometedores ignorados por nuestra competencia, entre otros muchos.
De nada sirve tener millones de visitas si ninguna se detiene para interaccionar con el sitio web.
Vistos los fundamentos, la justificación, las ventajas y cómo hacer auditorías posicionamiento web en buscadores, ahora detallaremos qué pasos debería tener.
Dependiendo de la dificultad del sitio, ciertos pasos serán superfluos o triviales, pero a medida que el sitio aumenta de tamaño, mayores serán también los requisitos de análisis y evaluación en cada paso.
Para facilitar su comprensión y puesto que el campo de aplicación de una auditoría engloba varios apartados de diversa índole técnica, dividiremos esta secuencia siguiendo esos apartados.
Aunque no es imprescindible continuar estrictamente el orden planteado, sí que es conveniente hacerlo. Por una parte, para imponer un cierto orden en nuestro trabajo del análisis posicionamiento web en buscadores de una auditoría, mas también pues algunos pasos, que vamos a ir identificando, pueden necesitar las conclusiones de pasos precedentes.
En este apartado valoraremos aspectos directamente relacionados con la plataforma tecnológica que aloja el sitio web y lo pone a disposición a través de Internet.
Aunque la mayoría de las veces no requieren un alto grado de cualificación técnica, modificar algunos de estos parámetros puede afectar muy negativamente al sitio e incluso que deje de marchar, con lo que deben tocarse con precaución y siempre y en todo momento con las garantías necesarias.
El archivo robots.txt incluye indicaciones de cómo deben los motores de búsqueda rastrear el sitio web, desde qué directorios pueden acceder hasta qué tipos de ficheros deben ignorar.
Existen directrices que pueden enseñar a uno o bien otro rastreador a fin de que NO rastreen el sitio, por lo que un archivo robots.txt mal configurado puede hacer que las partes más esenciales de un sitio web sean ignoradas, por muy optimados que estén. En verdad, muchas veces, el mejor robots.txt es… ¡no tenerlo!
Este fichero administra el funcionamiento del servidor web (no confundir con el gestor de contenidos) y su adecuada configuración puede afectar al rendimiento del servidor (es decir, reducir su tiempo de respuesta), prosperar la seguridad ante posibles ataques de piratas o bien para optimizar las redirecciones 30x.
No debe tocarse a menos que se esté MUY seguro de lo que se hace. Al paso que el archivo robots.txt podría impedir que los motores de búsqueda rastreasen un sitio web, un fichero .htaccess mal configurado puede hacer que deje de responder.
El archivo sitemap incluye una suerte de índice o bien guía de las páginas y recursos de un sitio (como imágenes o bien documentos).
Aunque los rastreadores actuales son suficientemente inteligentes para terminar “deduciendo” la estructura de un sitio web, a través del sitemap nos aseguramos que “ven” la estructura y contenido que nos interesa, no su “particular” visión, que puede coincidir o bien no con la nuestra.
Además de tener un fichero sitemap adecuadamente configurado y actualizado (existen herramientas o plugins automáticos para esto), debemos indicarlo a los buscadores web (en Google, a través de su consola de búsqueda):
Haz click en la imagen para ampliarla
Aunque solo sea un paso, su alcance puede abarcar muchas áreas del sitio, puesto que una velocidad de descarga lenta puede ser debida a muchos factores. Desde los puramente técnicos (que quizás se resuelvan con el archivo .htaccess) hasta otros relativos al contenido (tamaño de las imágenes).
Existen múltiples herramientas para esta evaluación (como GT-Metrix, Pingdom Tools o Google PageSpeed Insights), que además de asignar una puntuación del nivel de rendimiento del sitio, emiten sendos informes con los elementos que tienen margen para la mejora.
Los usuarios utilizan cada vez más los dispositivos móviles para navegar a través de Internet. Debemos asegurarnos, por consiguiente, que el sitio tenga un diseño responsivo, que se adapte a las dimensiones de la pantalla de visualización.
Google da una herramienta () que verifica si un sitio web es amigable y está social media manager castellón móviles. Además, la consola de búsqueda, en el menú “Tráfico de búsqueda”, también incluye una opción que analiza la usabilidad móvil:
Haz clic en la imagen para ampliarla
Actualmente, la mayoría de sitios web se efectúan sobre algún gestor de contenidos, como Wordpress o bien Joomla, que deja administrar y actualizar su contenido a través de interfaces de usuario basados en formularios muy fáciles de utilizar.
Como una parte de la plataforma que aloja y sirve el sitio web, debemos revisar su configuración para comprobar que esté adaptada y optimizada para las características del sitio web. En Wordpress, por ejemplo, un problema frecuente suele venir por la instalación excesiva de plugins que pueden ser superfluos o redundantes.
El archivo robots.txt incluye directrices de cómo deben los buscadores rastrear el sitio web, desde qué directorios pueden acceder hasta qué tipos de archivos deben ignorar.
Existen directrices que pueden enseñar a uno o bien otro rastreador para que NO rastreen el sitio, por lo que un archivo robots.txt mal configurado puede hacer que las partes más esenciales de un sitio sean ignoradas, por muy optimizadas que estén. De hecho, en muchas ocasiones, el mejor robots.txt es… ¡no tenerlo!
Este archivo administra el funcionamiento del servidor web (no confundir con el gestor de contenidos) y su adecuada configuración puede afectar al desempeño del servidor (es decir, reducir su tiempo de respuesta), prosperar la seguridad ante posibles ataques de piratas o para optimizar las redirecciones 30x.
No debe tocarse salvo que se esté MUY seguro de lo que se hace. Al tiempo que el archivo robots.txt podría impedir que los motores de búsqueda rastreasen un sitio, un fichero .htaccess mal configurado puede hacer que deje de contestar.
El fichero sitemap incluye una suerte de índice o guía de las páginas y recursos de un sitio (como imágenes o documentos).
Aunque los rastreadores actuales son lo suficientemente inteligentes para finalizar “deduciendo” la estructura de un sitio web, a través del sitemap nos aseguramos que “ven” la estructura y contenido que nos resulta de interés, no su “particular” visión, que puede coincidir o bien no con la nuestra.
Además de tener un fichero sitemap adecuadamente configurado y actualizado (existen herramientas o plugins automáticos para esto), debemos indicarlo a los buscadores web (en Google, a través de su consola de búsqueda):
Haz clic en la imagen para ampliarla
Aunque solo sea un paso, su alcance puede englobar muchas áreas del sitio web, pues una velocidad de descarga lenta puede ser debida a muchos factores. Desde los puramente técnicos (que quizás se resuelvan con el fichero .htaccess) hasta otros relativos al contenido (tamaño de las imágenes).
Existen múltiples herramientas para esta evaluación (como GT-Metrix, Pingdom Tools o bien Google PageSpeed Insights), que además de asignar una puntuación del nivel de rendimiento del sitio web, emiten sendos informes con los elementos que tienen margen de mejora.
Los usuarios utilizan cada vez más los dispositivos móviles para navegar a través de Internet. Debemos asegurarnos, por consiguiente, que el sitio tenga un diseño responsivo, que se adapte a las dimensiones de la pantalla de visualización.
Google da una herramienta () que verifica si un sitio web es afable y está optimizado para dispositivos móviles. Además, la consola de búsqueda, en el menú “Tráfico de búsqueda”, también incluye una opción que analiza la usabilidad móvil:
Haz clic en la imagen para ampliarla
Actualmente, la mayoría de sitios web se efectúan sobre algún gestor de contenidos, como Wordpress o bien Joomla, que deja gestionar y actualizar su contenido a través de interfaces de usuario basados en formularios muy fáciles de emplear.
Como parte de la plataforma que aloja y sirve el sitio web, debemos revisar su configuración para revisar que esté amoldada y optimizada para las características del sitio web. En WP, por servirnos de un ejemplo, un inconveniente usual acostumbra a venir por la instalación excesiva de complementos que pueden ser superfluos o redundantes.
Los motores de búsqueda muestran sus resultados basándonos en unas palabras clave introducidas por los usuarios. La pertinencia de las palabras clave de nuestro sitio web y su correlación con las búsquedas de los usuarios resultan esenciales para optimar nuestra presencia en los buscadores web. En consecuencia, es un aspecto que no debemos obviar cuando hagamos la auditoría posicionamiento web en buscadores.
Ya lo hemos mencionado: por el simple hecho de existir en Internet, casi seguro que el sitio ya ha sido rastreado por los buscadores web y asociado con unas determinadas palabras clave de búsqueda. De nuevo, la consola de búsqueda de Google aporta información a este respecto:
Haz click en la imagen para ampliarla
Aunque quizás estas palabras clave no coincidan con las que de entrada nos interesen, resulta conveniente tenerlas en consideración, puesto que pueden abrirnos nuevas oportunidades para seguir produciendo contenidos o bien identificar qué contenidos debemos alterar para evitarlas.
Mientras que el punto precedente se centra en cómo estamos posicionados, este apartado se focaliza más en cómo nos gustaría estar posicionados; o sea, con qué palabras clave queremos aparecer en las búsquedas.
Para ello, utilizaremos herramientas como keywordtool.io, KW Finder o el Planificador de Palabras Clave de Google, que nos dejan analizar y valorar diferentes combinaciones de palabras clave y escoger aquellas que sostengan un buen compromiso entre nivel de competencia y volumen de búsqueda en nuestro área de interés.
La canibalización se genera cuando 2 o bien más páginas de un mismo sitio compiten por la misma palabra clave. Una posible consecuencia negativa de este escenario es que los buscadores solo indexen y posicionen una de ellas, la que consideren más oportuna.
Otra consecuencia es que, al repartir una palabra clave entre varias páginas, estamos distribuyendo la fuerza que tendría una sola página para esa palabra entre varias páginas, por lo que restaría en su posicionamiento en los buscadores web.
La consola de búsqueda de Google, en la “Analítica de búsqueda” en el menú de “Tráfico de búsqueda”, también puede ofrecernos muchas pistas en este sentido.
Sabemos cómo lo hacemos nosotros, pero ¿cómo y qué está haciendo la competencia? Mediante métodos indirectos y con herramientas como SemRUSH o bien Ahrefs, podemos descubrirlas y analizar su aptitud para considerarlas en nuestro sitio web, en función de su grado de competencia, dificultad o nivel de búsqueda.
Ya lo hemos mencionado: por el simple hecho de existir en Internet, casi seguro que el sitio ya ha sido rastreado por los buscadores web y asociado con unas determinadas palabras clave de búsqueda. Nuevamente, la consola de búsqueda de Google aporta información a este respecto:
Haz click en la imagen para ampliarla
Aunque quizás estas palabras clave no coincidan con las que de entrada nos interesen, resulta conveniente tenerlas en cuenta, puesto que pueden abrirnos nuevas ocasiones para seguir produciendo contenidos o bien identificar qué contenidos debemos alterar para evitarlas.
Mientras que el punto anterior se centra en cómo estamos posicionados, este apartado se centra más en cómo nos gustaría estar posicionados; esto es, con qué palabras clave queremos aparecer en las búsquedas.
Para ello, utilizaremos herramientas como keywordtool.io, KW Finder o el Planificador de Palabras Clave de Google, que nos permiten examinar y evaluar diversas combinaciones de palabras clave y seleccionar aquellas que mantengan un buen compromiso entre nivel de competencia y volumen de búsqueda dentro de nuestro área de interés.
La canibalización se produce cuando 2 o más páginas de un mismo sitio web compiten por la misma palabra clave. Una posible consecuencia negativa de este escenario es que los buscadores web solo indexen y posicionen una de ellas, la que consideren más oportuna.
Otra consecuencia es que, al repartir una palabra clave entre múltiples páginas, estamos distribuyendo la fuerza que tendría una sola página para esa palabra entre varias páginas, por lo que restaría en su posicionamiento en los buscadores.
La consola de búsqueda de Google, dentro de la “Analítica de búsqueda” en el menú de “Tráfico de búsqueda”, también puede ofrecernos muchas pistas en este sentido.
Sabemos cómo lo estamos haciendo nosotros, pero ¿cómo y qué está haciendo la competencia? A través de métodos indirectos y con herramientas como SemRUSH o Ahrefs, podemos descubrirlas y examinar su viabilidad para considerarlas en nuestro sitio web, en función de su grado de competencia, complejidad o bien nivel de búsqueda.
Identificar qué aspectos internos del sitio web, extraños al apartado técnico que ya hemos analizado, pueden examinarse para optimarlo.
Para distinguirlo del posicionamiento SEO técnico, que también es “sobre el sitio”, el posicionamiento web On Site es independiente de la plataforma y tecnología usadas, centrándose en el contenido, la estructura de las páginas o bien el enlazado entre ellas.
Para el análisis podemos ayudarnos de diferentes.
Ya sea a través de la consola de búsqueda de Google, o bien con el comando “site:” del buscador, podemos ver el grado de indexación del sitio y cuántas de sus páginas están indizadas. Una discrepancia con los valores reales pueden señalar inconvenientes de rastreabilidad (sea en el robots.txt o en el sitemap).
También debemos revisar el valor de autoridad del dominio del sitio web (con herramientas como Moz o bien Majestic) y también identificar posibles penalizaciones, que quizás hagan aconsejable desistir de ese dominio.
Debemos asegurarnos que cada página web del sitio web tiene un título acorde con su contenido y optimizado para las palabas clave de esa página, al igual que su metadescripción, eliminando cualquier repetición o, muy frecuente, que estén en blanco o valores por defecto.
La consola de búsqueda de Google, dentro de las “Mejoras de HTML” en el menú “Apariencia en el buscador” nos mostrará cuando hay títulos o metadescripciones duplicadas, pero será tarea nuestra revisar página a página que estén optimizadas:
Haz click en la imagen para ampliarla
Asignatura MUY pendiente aún a día de hoy. Aunque las imágenes suelen estar optimizadas en lo que se refiere al tamaño del archivo, sigue siendo muy frecuente localizar imágenes de enormes dimensiones (miles y miles de píxeles de alto y ancho, incluso) para ser mostrados en un cuadro mucho más pequeño.
Debemos asegurarnos que todas y cada una de las imágenes estén optimados para la ubicación donde se mostrarán, tanto por lo que respecta a sus dimensiones como al tamaño del archivo.
Cada página ha de estar redactada con unas palabra clave como objetivo, utilizándolas apropiadamente a lo largo del texto. O sea, no solo concordancias precisas, sino también usando alteraciones ortográficas, metáforas, expresiones similares, etc.
Además, hay que usar adecuadamente los recursos HTML de formato de texto (titulares H1, H2 y H3; negritas; cursivas; lista enumeradas) para recalcar los elementos importantes del texto, de forma que puedan ser fácilmente identificados tanto por los usuarios como por los rastreadores.
Una URL inteligible, con significado semántico y relacionado con las palabras clave que hayamos identificado previamente, también aporta información al usuario sobre el contenido de la página, y a los rastreadores, a la hora de posicionar.
Puede ampliar o complementar la información que, de por sí, el título de la página (no confundir con el titular H1) ya incluye.
Un aspecto fundamental de un sitio web, como ya se ha mencionado, es cómo están organizados los contenidos (esto es, las páginas) y cómo están relacionados entre sí (o sea, su enlazado interno), siguiendo una estructura jerárquica que sean fácil de entender y proseguir por usuarios y rastreadores.
En este apartado verificamos que la arquitectura del sitio responde a esta estructura, con los contenidos o páginas más importantes situados en niveles destacados de la arquitectura y adecuadamente enlazados para facilitar la navegación entre ellos.
Cuando un enlace no lleva a ninguna parte, genera frustración en el usuario, que puede decidir irse a otro sitio web, y nos hace perder cuota de rastreo del buscador, que ha seguido un enlace que no lleva a ninguna parte. Detectarlos resulta una labor costosa, mas herramientas online como Dead Link Checker o plugins comolo hacen automáticamente.
También debemos analizar las redirecciones, tanto permanentes (301) como temporales (302), y decidir su conveniencia; esto es, quitar la redirección y poner la URL definitiva en su sitio (solo posible si hablamos de links internos).
Desde el punto de vista del rendimiento, si se emplea WP con un plugin de redireccionamiento, se debe evaluar si realmente es necesario, puesto que se puede lograr prácticamente lo mismo, y de forma mucho más eficaz, con el fichero .htaccess.
El marcado estructurado de los datos deja asignar significado semántico a la información que contienen las páginas web para que los rastreadores de los buscadores puedan identificarla e interpretarla.
Por ejemplo, al tiempo que para una persona es fácil reconocer una dirección postal, al tiempo que para un rastreador solo es una cadena de texto que no se distingue del resto.
Un correctopermite que los buscadores generen los fragmentos enriquecidos (“rich snippets”) de los resultados de búsqueda, que hagan destacar aún más nuestros enlaces:
Haz clic en la imagen para ampliarla
En el caso de sitios web de comercio electrónico, el adecuado marcado de datos se vuelve crítico, puesto que quiere decir que nuestros productos puedan llegar a salir de forma directa en las páginas de resultados de Google, con todo lo que ello podría aportar en términos de visitas cualificadas.
Ya sea a través de la consola de búsqueda de Google, o con el comando “site:” del buscador, podemos ver el grado de indexación del sitio web y cuántas de sus páginas están indizadas. Una discrepancia con los valores reales pueden indicar problemas de rastreabilidad (sea en el robots.txt o en el sitemap).
También debemos revisar el valor de autoridad del dominio del sitio (con herramientas como Moz o Majestic) y también identificar posibles penalizaciones, que quizás hagan aconsejable desistir de ese dominio.
Debemos asegurarnos que cada página web del sitio web tiene un título acorde con su contenido y optimado para las palabas clave de esa página, de la misma manera que su metadescripción, suprimiendo cualquier repetición o, muy frecuente, que estén en blanco o valores por defecto.
La consola de búsqueda de Google, dentro de las “Mejoras de HTML” en el menú “Apariencia en el buscador” nos mostrará cuando hay títulos o metadescripciones duplicadas, pero será tarea nuestra comprobar página a página que estén optimizadas:
Haz clic en la imagen para ampliarla
Asignatura MUY pendiente aún a día de el día de hoy. Si bien las imágenes suelen estar optimizadas en cuanto al tamaño del fichero, sigue siendo muy habitual localizar imágenes de enormes dimensiones (miles y miles de píxeles de alto y ancho, incluso) para ser mostrados en un cuadro mucho más pequeño.
Debemos asegurarnos que todas y cada una de las imágenes estén optimizadas para la ubicación donde se mostrarán, tanto por lo que respecta a sus dimensiones como al tamaño del archivo.
Cada página ha de estar redactada con unas palabra clave como objetivo, utilizándolas adecuadamente a lo largo del texto. Es decir, no solo concordancias precisas, sino también utilizando alteraciones ortográficas, metáforas, expresiones similares, etc.
Además, hay que emplear apropiadamente los recursos HTML de formato de texto (titulares H1, H2 y H3; negritas; cursivas; lista enumeradas) para remarcar los elementos esenciales del texto, de forma que puedan ser fácilmente identificados tanto por los usuarios como por los rastreadores.
Una URL legible, con significado semántico y relacionado con las palabras clave que hayamos identificado anteriormente, también aporta información al usuario sobre el contenido de la página, y a los rastreadores, a la hora de posicionar.
Puede ampliar o bien complementar la información que, de por sí, el título de la página (no confundir con el titular H1) ya incluye.
Un aspecto esencial de un sitio web, como ya se ha citado, es cómo están organizados los contenidos (esto es, las páginas) y cómo están relacionados entre sí (es decir, su enlazado interno), siguiendo una estructura jerárquica que sean fácil de comprender y proseguir por usuarios y rastreadores.
En este apartado comprobamos que la arquitectura del sitio responde a esta estructura, con los contenidos o bien páginas más importantes ubicados en niveles señalados de la arquitectura y convenientemente enlazados para facilitar la navegación entre ellos.
Cuando un enlace no lleva a ninguna parte, genera frustración en el usuario, que puede decidir irse a otro sitio web, y nos hace perder cuota de rastreo del buscador, que ha seguido un link que no lleva a ninguna parte. Detectarlos resulta una labor costosa, mas herramientas online como Dead Link Checker o bien complementos comolo hacen automáticamente.
También debemos analizar las redirecciones, tanto permanentes (301) como temporales (302), y decidir su conveniencia; esto es, eliminar la redirección y poner la URL terminante en su sitio (solo posible si charlamos de enlaces internos).
Desde el punto de vista del desempeño, si se utiliza Wordpress con un plugin de redireccionamiento, se debe valorar si realmente es preciso, pues se puede conseguir casi lo mismo, y de forma mucho más eficiente, con el fichero .htaccess.
El marcado estructurado de los datos permite asignar significado semántico a la información que contienen las páginas web para que los rastreadores de los buscadores puedan identificarla y también interpretarla.
Por ejemplo, al tiempo que para una persona es fácil reconocer una dirección postal, al paso que para un rastreador solo es una cadena de texto que no se distingue del resto.
Un correctopermite que los buscadores generen los fragmentos enriquecidos (“rich snippets”) de los resultados de búsqueda, que hagan destacar aún más nuestros enlaces:
Haz clic en la imagen para ampliarla
En el caso de sitios web de comercio electrónico, el conveniente marcado de datos se vuelve crítico, pues quiere decir que nuestros productos puedan llegar a salir directamente en las páginas de resultados de Google, con todo cuanto ello podría aportar en términos de visitas cualificadas.
Por sí mismo, un sitio web eficiente y contenidos optimados no aseguran un buen posicionamiento, sino que también es preciso que tenga relevancia y “contactos” con el exterior. Este apartado de las auditorías posicionamiento web en buscadores lo evalúa, así como un análisis de cómo está la competencia.
Entre los factores de posicionamiento utilizados por los buscadores, la estructura de enlaces externos entrantes a un sitio forma uno de los más señalados puesto que, en cierta medida, mide su “reputación”.
Son múltiples los parámetros a considerar en este análisis. No solo el número de links, sino más bien también la propia “reputación” del sitio origen, la correlación entre su temática y la nuestra, el texto ancla, así como otros factores relacionados con el contexto donde está colocado ese enlace (esto es, el texto alrededor del link en el origen).
Además de la consola de búsqueda de Google, disponemos de múltiples herramientas para facilitar esa labor, que ya hemos utilizado en otros apartados de la auditoría, como SemRUSH, Ahrefs, Majestic o Moz OSE:
Haz click en la imagen para ampliarla
En el menú “Adquisición” de Google Analytics podemos ver que uno de los canales a través del cual pueden llegarnos visitas son las Redes Sociales:
Si bien los links desde las Redes Sociales no afectan de manera directa al posicionamiento, examinar este tráfico nos ayudará a acotar una estrategia de difusión en redes sociales con mayor contestación de los usuarios, escoger aquellas con mejores perspectivas y conseguir una audiencia más cualificada a nuestros intereses.
A los motores de búsqueda no les agrada el contenido copiado, pues no aporta nada a lo que existe, además de suponer un agravio ético (estamos hablando de plagios). En consecuencia, cuando lo advierten, por norma general penalizan el sitio web “copiador”, sosteniendo al original.
Aun cuando mismos (así sea directamente o bien a través de un equipo de redactores de confianza) hayamos redactado los contenidos, siempre y en toda circunstancia es conveniente contrastar que no haya duplicidades con otros sitios web (que, por servirnos de un ejemplo, nos hayan copiado).
Incluso redactándolos mismos, ocasionalmente pueden generarse similitudes que podrían interpretarse como contenido duplicado. Herramientas como Siteliner y Copyscape nos ayudarán en esta tarea, tanto dentro como fuera de nuestro sitio.
De los apartados precedentes ya habíamos identificado y analizado los sitios web de nuestros principales contendientes, aunque sea de forma indirecta, sus palabras clave.
En el posicionamiento en buscadores Off Page debemos seguir con esta labor de investigación, incluyendo un análisis de los enlaces externos entrantes de sus webs, siguiendo prácticamente la misma metodología y herramientas que ya hicimos con nuestro sitio web (primer punto de esta apartado), y su presencia en las Redes Sociales.
La estructura de links entrantes que consigamos de nuestra competencia nos servirá, además de para valorar su relevancia en Internet, para fortalecer nuestra estructura, añadiendo links desde sitios web que tienen pero no.
Entre los factores de posicionamiento empleados por los buscadores, la estructura de enlaces externos entrantes a un sitio web constituye uno de los más señalados puesto que, en cierta medida, mide su “reputación”.
Son varios los parámetros a considerar en este análisis. No solo el número de links, sino más bien también la propia “reputación” del sitio origen, la correlación entre su temática y la nuestra, el texto ancla, así como otros factores relacionados con el contexto donde está puesto ese enlace (o sea, el texto alrededor del enlace en el origen).
Además de la consola de búsqueda de Google, disponemos de múltiples herramientas para facilitar esa tarea, que hemos empleado en otros apartados de la auditoría, como SemRUSH, Ahrefs, Majestic o bien Moz OSE:
Haz click en la imagen para ampliarla
En el menú “Adquisición” de Google Analytics podemos ver que uno de los canales a través del cual pueden llegarnos visitas son las Redes Sociales:
Si bien los enlaces desde las Redes Sociales no afectan directamente al posicionamiento, analizar este tráfico nos ayudará a acotar una estrategia de difusión en redes sociales con mayor contestación de los usuarios, escoger aquellas con mejores perspectivas y conseguir una audiencia más cualificada a nuestros intereses.
A los buscadores web no les gusta el contenido duplicado, pues no aporta nada a lo que ya existe, además de suponer un agravio ético (hablamos de plagios). En consecuencia, cuando lo detectan, en general penalizan el sitio “copiador”, sosteniendo al original.
Aun cuando mismos (ya sea directamente o a través de un equipo de redactores de confianza) hayamos redactado los contenidos, siempre resulta conveniente verificar que no haya duplicidades con otros sitios web (que, por servirnos de un ejemplo, nos hayan copiado).
Incluso redactándolos nosotros mismos, esporádicamente pueden producirse semejanzas que podrían interpretarse como contenido duplicado. Herramientas como Siteliner y Copyscape nos ayudarán en esta tarea, tanto dentro como fuera de nuestro sitio web.
De los apartados precedentes ya habíamos identificado y analizado los sitios de nuestros primordiales contendientes, aunque sea indirectamente, sus palabras clave.
En el posicionamiento web OffPage debemos continuar con esta labor de investigación, incluyendo un análisis de los enlaces externos entrantes de sus webs, siguiendo prácticamente la misma metodología y herramientas que ya hicimos con nuestro sitio web (primer punto de esta apartado), y su presencia en las Redes Sociales.
La estructura de enlaces entrantes que consigamos de nuestra competencia nos servirá, además de para valorar su relevancia en Internet, para fortalecer nuestra propia estructura, añadiendo enlaces desde sitios web que ellos tienen mas nosotros no.
Podemos tener los mejores contenidos y una genial estructura de enlaces externos, mas si el usuario que visita nuestro sitio web no localiza la información que busca o bien se siente confuso o perdido cuando intentan navegar a través de las páginas, entonces vamos a perder una oportunidad de captarlo y lo perdamos para siempre.
Este apartado procura medir esta satisfacción de la experiencia de usuario, con los límites que imponen un criterio basado en valoraciones muy subjetivas y, muchas veces, siguiendo la última tendencia en diseño de sitios web.
Durante la revisión del posicionamiento web en buscadores OnSite ya se indicó la importancia de una conveniente arquitectura del sitio web. Esta arquitectura y, en especial, la jerarquía de las principales páginas deben quedar también reflejadas en los menús del sitio web.
De nada sirve que tengamos una arquitectura web perfecta si después los menús son confusos o bien muestran una estructura aparente diferente de la real, confundiendo tanto al usuario como a los rastreadores en el momento de identificar y navegar entre las páginas.
No es intrínsecamente negativo poner publicidad de terceros en un sitio web, pero debe hacerse con respeto al usuario, de forma no intrusiva, y solo con mensajes relevantes y potencialmente útiles al usuario; o sea, relacionados con el contexto de la página.
No debemos olvidar que si un usuario llega a nuestra página es pues algo le ha interesado de nuestro contenido y desea una respuesta. No está ahí para ser bombardeado con publicidad.
Por otro lado, muchas plataformas promocionales suponen conectar con un servidor externo para descargar el anuncio, lo que puede retardar la velocidad de navegación de las páginas y afectar de forma negativa la experiencia de usuario.
El diseño web acostumbra a avanzar por tendencias, a medida que mejoran las técnicas de diseño y desarrollo y se entienden mejor los factores de usabilidad que favorecen la experiencia de usuario.
Estar al tanto de lo que hace nuestra competencia nos permite ver la aplicación práctica de estas tendencias, analizarlos en tiempo real y valorarlos para decidir su pertinencia para nuestro sitio web.
Durante la revisión del posicionamiento web OnPage ya se indicó la importancia de una adecuada análisis seo web . Esta arquitectura y, especialmente, la jerarquía de las primordiales páginas deben quedar también reflejadas en los menús del sitio web.
De nada sirve que tengamos una arquitectura web perfecta si después los menús son confusos o muestran una estructura aparente distinta de la real, confundiendo tanto al usuario como a los rastreadores en el momento de identificar y navegar entre las páginas.
No es intrínsecamente negativo colocar publicidad de terceros en un sitio web, mas debe hacerse con respeto al usuario, de forma no intrusiva, y solo con mensajes relevantes y potencialmente útiles al usuario; esto es, relacionados con el contexto de la página.
No debemos olvidar que si un usuario llega a nuestra página es pues algo le ha interesado de nuestro contenido y desea una respuesta. No está ahí para ser bombardeado con publicidad.
Por otro lado, muchas plataformas publicitarias suponen conectar con un servidor externo para descargar el anuncio, lo que puede retardar la velocidad de navegación de las páginas y afectar negativamente la experiencia de usuario.
El diseño web acostumbra a avanzar por tendencias, a medida que mejoran las técnicas de diseño y desarrollo y se comprenden mejor los factores de usabilidad que favorecen la experiencia de usuario.
Estar al tanto de lo que hace nuestra competencia nos permite ver la aplicación práctica de estas tendencias, examinarlos en tiempo real y valorarlos para decidir su pertinencia para nuestro sitio.
Como hemos visto hasta ahora, la tarea de auditoría posicionamiento en buscadores de un sitio se realiza sobre varios contextos. Por un lado, análisis de la propia web, para revisar su estructura, navegabilidad, formato del texto, disposición de las imágenes, etcétera Por otro lado, la utilización de herramientas externas para investigar y examinar factores relevantes del sitio, como los links entrantes o la relevancia del dominio.
Para los sitios web creados sobre WP, muchas comprobaciones del análisis posicionamiento web se pueden hacer de forma directa en este gestor de contenidos, más rápida y fácilmente que si tuviéramos que hacerlo navegando página a página a través del sitio web.
El siguiente vídeo lo muestra, sin más requisito que tener instalado el complemento Yoast posicionamiento web en buscadores para WordPress:
Antes de empezar a pasear hemos de saber 2 cosas: dónde estamos y a dónde deseamos ir. Realizar una estrategia de posicionamiento orgánico para un sitio no iba a ser diferente en este aspecto.
Por un lado, necesitamos marcar un objetivo para la estrategia, que nos dirá a dónde vamos. Mas para saber dónde estamos debemos analizar a fondo el estado actual del sitio web, haciendo una auditoría posicionamiento web.
Tal es la relevancia de un completo análisis posicionamiento en buscadores de un sitio web que sus efectos positivos son evidentes con tan solo corregir y aplicar las incidencias y posibles mejoras detectadas, aun sin ejecutar más tarde una estrategia de posicionamiento.
La cada vez mayor dificultad de los algoritmos de búsqueda y la capacidad de análisis y rastreo de los buscadores hace que la labor de auditar un sitio web comprenda muchas áreas, desde los exclusivamente técnicos, relacionados con la plataforma de alojamiento o bien el gestor de contenidos, hasta otras menos formales como la estructura y formato del contenido o bien la arquitectura web.
Dado los muchos aspectos implicados en el análisis posicionamiento web de un sitio, resulta conveniente continuar una metodología punto por punto que cubra cada área, empleando las múltiples herramientas disponibles para recoger la máxima y más exacta información posible.
Finalmente, el informe que resulta de hacer una auditoría posicionamiento web en buscadores recoge una serie de recomendaciones y mejoras que deben aplicarse al sitio para aprovechar sus beneficios. De nada sirve hacer la mejor auditoría si después sus conclusiones no conducen a ningún cambio en el sitio web.
Consultor SEO y Profesor colaborador del módulo posicionamiento web en buscadores del Programa de Social Media Marketing de la Universidad de Sevilla (SMMUS). Ingeniero Superior de Informática, especializado en el desarrollo de estrategias de Posicionamiento Web para PYMES, y el gestor de contenidos WP.
Êîììåíòèðîâàòü | « Ïðåä. çàïèñü — Ê äíåâíèêó — Ñëåä. çàïèñü » | Ñòðàíèöû: [1] [Íîâûå] |