|
|

Ahora que sabesy cuáles son losque Google tiene en cuenta a la hora de posicionar una web, te falta aprender qué tienes que hacer para que tu página tenga ocasiones de posicionar arriba en las.
En este capítulo vamos a hablar sobre
cómo optimizar los primordiales factores de posicionamiento así como los principales inconvenientes posicionamiento en buscadores que surgen a la hora de optimar una weby sus posibles soluciones.
Dividiremos los temas de este capítulo en cuatro grandes bloques:
El primer paso en el momento de optimar el posicionamiento web de una web es permitir el acceso a los motores de búsqueda a nuestro contenido.Es decir, hay que comprobar si la web es perceptible a los ojos de los motores de búsqueda y sobre todo, cómo están viendo la página.
Por diversos motivos que vamos a explicar más adelante puede darse el caso de que los motores de búsqueda no puedan leer correctamente una web, un requisito imprescindible para el posicionamiento.
Aspectos a tomar en consideración para una buena accesibilidad
El archivo robots.txt se utiliza para impedir que los motores de búsqueda accedan y también indexen ciertas partes de una web.Es muy útil para eludir que Google muestre en publicidad online de pago por clic google de búsqueda las páginas que no deseamos. Por ejemplo en WP, para que no accedan a los ficheros de administrador, el archivo robots.txt sería así:
User agent:*
Disallow:/wp-admin
OJO:Debes tener mucho cuidado de no bloquear el acceso de los motores de búsqueda a toda tu web sin darte cuenta como en este ejemplo:
User agent:*
Disallow:/
Debemos revisar que el archivo robots.txt no está bloqueando ninguna parte importante de nuestra web.Podemos hacerlo visitando la url /robots.txt, o bien a través de Webmaster Tools en “Rastreo” > “Probador de robots.txt”
El fichero robots.txt también puede utilizarse para señalar dónde se halla nuestro sitemap añadiendo en la última línea del documento.
Por lo tanto, un ejemplo de robots.txt completo para WP se vería así:
User-agent:*
Disallow:/wp-admin
Sitemap:/sitemap.xml
Si deseas profundizar más en detalle sobre este archivo, te invitamos a visitar
La meta etiqueta “robots” se emplea para decirle a los robots de los motores de búsqueda si pueden o no indexar la página y si deben continuar los enlaces que contiene.
A la hora de analizar una página deberás comprobar si existe alguna meta etiqueta que por fallo esté bloqueando el acceso a estos robots. Este es un caso de cómo se verían estas etiquetas en el código HTML:
<meta name=”robots” content=”noindex, nofollow”>
Por otra parte las meta etiquetas son muy útiles para eludir que Google indexe páginas que no te interesen, como pueden ser las paginaciones o bien los filtros, pero que siga los enlaces a fin de que continúe rastreando nuestra web. En este caso la etiqueta quedaría así:
<meta name=”robots” content=”noindex, follow”>
Podemos revisar las meta etiquetas haciendo click derecho en la página y seleccionando “ver código fuente de la página”.
O si deseamos ir un tanto más allá, con la herramientapodemos ver de un vistazo qué páginas de toda la página web tienen implementada dicha etiqueta. Puedes verlo en la pestaña “Directives” y en el campo de “Meta Robots 1”. Una vez que tengas localizadas todas y cada una de las páginas con esta etiquetas solo debes suprimirlas.
En el caso de que alguna URL devuelva un código de estado (404, 502, etcétera, los usuarios y los motores de búsqueda no podrán acceder a esa página.Para identificar estas URLs os recomendamos usar también Screaming Frog, pues muestra rápidamente el estado de todas las URLs de tu página.
IDEA:Cada vez que hagas una nueva búsqueda en Screaming Frog exporta el resultado en un CSV. Así los podrás reunir todas en un mismo Excel más tarde.
El sitemap es un fichero XML que contiene una lista de las páginas del sitiojunto con alguna información adicional, como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización, etc.
Un pequeño extracto de un sitemap sería:
<url>
<loc> </loc>
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>
Puntos esenciales que debes revisar con respecto al Sitemap, que:
En caso de que la página web no disponga de ningún sitemap deberemos crear uno, siguiendo cuatro pasos:
Si la estructura de una web es demasiado profunda a Google le resultará más difícil llegar a todas y cada una de las páginas. Así que
se aconseja que la estructura no tenga más de tres niveles de profundidad,(sin contar la home) ya que el robot de Google tiene un tiempo limitado para rastrear una web, y cuantos más niveles deba atravesar menos tiempo le quedará para acceder a las páginas más profundas
Por eso es mejor siempre crear un estructura web en horizontal y no en vertical.
Nuestro consejo es hacer un esquema de toda la página web en el que se pueda ver fácilmente los niveles que tiene, desde la home hasta la página más profunda y poder calcular cuántos clicks hacen falta para llegar a ella.
Localiza en qué nivel está cada página y si tienes links apuntando hacia ella utilizando nuevamente Screaming Frog.
Aunque en los últimos años Google se ha vuelto más inteligente en el momento de leer este género de tecnologías debemos llevar cuidado por el hecho de que el JavaScript puede ocultar una parte de nuestro contenido y el CSS puede desordenarlo mostrándolo en otro orden al que lo ve Google.
Existen 2 métodos para saber cómo lee Google una página:
Plugins
Los complementos como Web Developer o Disable-HTML nos asisten a ver cómo “rastrea” la página web un buscador. Para esto hay que abrir una de estas herramientas y desactivar el JavaScript. Esto lo hacemos por el hecho de que todos los menús desplegables, enlaces y textos deben poder ser leídos por Google.
Después desactivamos el CSS, ya que queremos ver el orden real del contenido y el CSS puede mudar esto absolutamente.
Comando “cache:”
Otra forma de saber cómo ve Google una web es a través de el comando “cache:”
Introduce “cache:” en el buscador y pulsa en “Versión sólo texto”. Google te mostrará una foto donde podrás saber cómo lee una web y cuándo fue la última vez que accedió a ella.
Eso sí, para que el comando “cache:” funcione adecuadamente nuestras páginas deben estar previamente indizadas en los índices de Google.
Una vez que Google indexa por vez primera una página, determina con qué frecuencia volverá a visitarla en busca de actualizaciones. Esto dependerá de la autoridad y relevancia del dominio al que pertenece esa página y de la frecuencia con que se actualice.
Ya sea a través de un plugin o bien el comando “cache:”, asegúrate de que cumples los siguientes puntos:
El robot de Google tiene un tiempo limitado a la hora de navegar por nuestra página, cuanto menos tarde cada página en cargar a más páginas conseguirá llegar.
También debes en cuenta que una carga de página lentísima puede hacer que tu porcentaje de rebote se dispare, por lo que se transforma es un factor vital no solo para el posicionamiento sino también para una buena experiencia de usuario.
Para ver la velocidad de carga de tu página web te invitamos a, allí puedes revisar cuáles son los problemas que más ralentizan tu site además de hallar los consejos que te ofrece Google para atajarlos. Céntrate en los que tienen prioridad alta y media.
Una vez que el robot de Google ha accedido a una página el próximo paso es que la indexe,estas páginas se incluirán en un índice donde se ordenan según su contenido, su autoridad y su relevancia a fin de que sea más fácil y rápido para Google acceder a ellas.
Lo primero que tienes que hacer para saber si Google ha indexado tu web adecuadamente es
realizar una búsqueda con el comando “site:”, de esta manera Google te dará la cantidad aproximada de las páginas de nuestra página web que tiene indexadas:
Si tienes vinculado Webmaster Tools en tu web también puedes revisar el número real de páginas indizadas yendo a Índice de Google > Estado de indexación
Sabiendo (más o menos) el número exacto de páginas que tiene tu página web, este dato te servirá para equiparar número de páginas que tiene Google indizadas con el número de páginas reales de tu página web. Pueden suceder tres escenarios:
Tenersignifica que para múltiples URLs tenemos exactamente el mismo contenido.Este es un inconveniente muy común, que muy frecuentemente es involuntario y que además puede conllevar efectos negativos en el posicionamiento en Google.
Estos son los principales motivos del contenido duplicado:
Es el motivo más común de contenido duplicado y se produce cuando tu página de inicio tiene más de una URL:
ejemplo.com
ejemplo.com/index.html
/index.html
Cada una de las anteriores dirigen a la misma página con el mismo contenido,
si no se le indica a Google cuál es la correcta no sabrá cuál debe posicionar y puede que posicione justo la versión que no se quiera.
Existen muchos géneros de parámetros, sobre todo en e-commerce: filtros de los productos (color, talla, puntuación, etc.), ordenación (coste menor, por relevancia, costo mayor, en cuadrícula, etc.) y sesiones de usuarios.
El problema es que muchos de estos parámetros no cambian el contenido de la página y eso genera muchas URLs para el mismo contenido.
/boligrafos?color=negro&precio-desde=5&precio-hasta=10
Es este caso de ejemplo hallamos 3 parámetros: color, coste mínimo y coste máximo.
Añade una etiqueta “rel=canonical” hacia la página original, así evitarás cualquier tipo de confusión por parte de Google con la página original.
Otra posible solución esindicar a través de Webmaster Tools > Rastreo > Parámetros de URL qué parámetros debe ignorar Google en el momento de indexar las páginas de una web.
Cuando un artículo, lista de productos o bien páginas de etiquetas y categorías tienen más de una página, pueden aparecer problemas de contenido copiado aunque las páginas tengan contenido diferente, pues todas están centradas en exactamente el mismo tema. Esto es un problema enorme en las páginas de y también-commerce donde existen cientos y cientos de artículos en exactamente la misma categoría.
Actualmente las etiquetas rel=next y rel=prev permiten a los motores de búsqueda saber qué páginas pertenecen a una misma categoría/publicación y así es posible centrar todo el potencial de posicionamiento en la primera página.
Cómo usar los parámetros NEXT y PREV
campañas sem y ppc . Añadir la etiqueta rel=next en la parte de del código a la primera página:
2. Añadir en todas y cada una de las páginas menos la primera y la última las etiquetas rel=next y rel=prev
3. Añadir a la última página la etiqueta rel=prev
Otra solución esbuscar el parámetro de paginación en la URL y también introducirlo en Google Webmaster Tools para que no se indexe.
La canibalización de keywords ocurre cuando en una web hay varias páginas que compiten por las mismas palabras clave.Esto confunde al motor de búsqueda no sabiendo cuál es la más relevante para esa palabra clave.
Este problema es muy común en los e-commerce, pues al tener múltiples versiones de un mismo producto “atacan” con todas ellas a exactamente las mismas palabras clave. Por servirnos de un ejemplo, si se vende un libro en versión tapa blanda, tapa dura y versión digital, se tendrán 3 páginas con prácticamente el mismo contenido.
Crear una página principal del producto, desde donde se acceda a las páginas de los diferentes formatos, en las que incluiremos unaque apunte a dicha página primordial. Lo óptimo siempre y en todo momento será centrar cada keyword en una sola página para evitar cualquier problema de canibalización.
Ya que en los últimos años ha quedado bastante claro que el contenido es el rey para Google. Ofrezcámosle un buen trono entonces.
El contenido es la parte más esencial de una web y por más que esté bien optimada a nivel posicionamiento web, si no es relevante respecto a las búsquedas que realizan los usuarios jamás va a aparecer en las primeras posiciones.
Para hacer un buen análisis del contenido de nuestra web tienes unas cuantas herramientas a tu disposición, pero al final lo más útil es emplear la página con el Javascript y los CSS desactivados cómo explicamos previamente.
De este modo verás qué contenido está leyendo Google realmente y en qué orden está preparado.
A la hora de examinar el contenido de las páginas debes hacerte varias preguntas que te guiarán en el proceso:
Puedes crear un excel con todas y cada una de las páginas, sus textos y las palabras clave que quieres que aparezcan en ellos, así te será más fácil ver dónde debes reducir o bien acrecentar el número de keywords en cada página.
Lasse utilizan para trasmitir información a los buscadores web sobre qué trata una páginacuando estos deben ordenar y mostrar sus resultados. Estas son las etiquetas más importantes que debemos tener en cuenta:
La etiqueta title es el elemento más importante en las meta-etiquetas. Es la primera cosa que aparece en los resultados en Google.
A la hora de optimizar el title hay que tener en consideración que:
Nunca debemos abusar de las keywords en el título, esto hará que los usuarios desconfíen y que Google crea que estamos intentando engañarle.
Otro aspecto a tomar en consideración es dónde poner la “marca”, es decir: el nombre de la página web, por lo general se acostumbra a poner al final para dar más importancia a las keywords, separando estas del nombre de la web con un guión o una barra vertical.
Aunque no es un factor crítico en el posicionamiento de una web afecta de manera considerable a la tasa de clics (click-through rate) en los resultados de búsqueda.
Para la meta-description seguiremos los mismos principios que con el title, solo que su longitud no debe sobrepasar los 155 caracteres.Tanto para los titles como para las meta-descriptions debemos eludir la duplicidad, esto lo podremos comprobar en Google Webmaster Tools > Aspecto de la búsqueda > Mejoras HTML.
En su momento las meta keywords fueron un factor muy importante de posicionamiento, mas Google descubrió lo fácil que es manipular los resultados de búsqueda así que lo eliminó como factor de posicionamiento.
Las etiquetas H1, H2, etc. son fundamentales para tener una buena estructura de información y una buena experiencia de usuario, ya que
definen la jerarquía del contenido,algo que mejorará el posicionamiento web. Debemos darle importancia al H1 porque por norma general está en la parte más alta del contenido y cuanto más arriba esté una keyword más relevancia le dará Google.
La etiqueta “alt” en las imágenes se añade de forma directa en el propio código de la imagen.
<img src=”/ejemplo.jpg” alt=”keyword molona” />
Esta etiqueta debe ser gráfica con respecto a la imagen y contenido de dicha imagen, ya que es lo que lee Google al rastrearla y uno de los factores que utiliza para posicionarla en Google Imágenes.
Ya sabes cómo hacer una página optimizada para SEO y que hay muchos factores que optimar si quieres aparecer en las mejores posiciones de los resultados de búsqueda. Ahora probablemente te preguntarás
¿cuáles son las keywords que mejor posicionan a mi web?
Nosotros no sabemos exactamente cuáles son esas keywords, mas sí que podemos asistirte a encontrarlas
Categories: None
The words you entered did not match the given text. Please try again.
Oops!
Oops, you forgot something.