|
|
El
posicionamiento en buscadores,
optimización en motores de búsquedao
SEO(del inglés
search engine optimization), es un conjunto de acciones orientadas a prosperar el posicionamiento de un sitio en la lista de resultados de,, o bien otros buscadores web de internet.
El posicionamiento web trabaja aspectos técnicos como la optimización de la estructura y losde una web, pero también se aplica a nivel de contenidos, con el propósito de volverlos más útiles y relevantes para los usuarios.
Los administradores de páginas web y proveedores de contenido empezaron a optimizar sitios web en los motores de búsqueda a mediados de la década de 1990, tan pronto los motores de búsqueda comenzaban a clasificar la primera Internet. En un principio, sitios comoofrecían la inclusión a los sitios que solicitasen
motu propriosu indexación, que era manual.
Al comienzo, todo cuanto los administradores de páginas web tenían que hacer era mandar la dirección de una página web, o bien, a los diferentes motores, los cuales enviarían unapara inspeccionar ese lugar, extraer los vínculos hacia otras páginas que tenía esa web y devolver la información recogida para ser indizada. El proceso involucra a un araña web perteneciente al motor de búsqueda, que descarga una página y la guarda en los servidores de la compañía, donde un segundo programa, conocido como indexador, extrae información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas, la relevancia de palabras específicas y todos los vínculos que contiene la página, los cuales se almacenan para ser rastreados más tarde por la araña web.
Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y perceptibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas posicionamiento SEO de sombrero blanco y(
white haty
black hat). Conforme con los análisis del experto, el término
optimización de motores de búsquedacomenzó a utilizarse en agosto 1997,
pory su compañía,, documentado en una página del sitio web de la compañía.
Las primeras versiones de los algoritmos de búsqueda se fundamentaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las, o bien ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, en tanto que las palabras proveídas por el administrador de sitio web en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos y también inconsistentes en las metaetiquetas podían ocasionar, y causaron, que ciertas páginas se posicionaran altísimo para búsquedas irrelevantes.
Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda.
Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más relevancia a los sitios más antiguos.
Debido a la relevancia de factores como la densidad de palabras clave, la cual dependía completamente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que amoldarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de generar los resultados más relevantes para cualquier búsqueda, permitir que los resultados fuesen falsos haría que los usuarios optaran por otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos para posicionar sitios, tomando en cuenta factores auxiliares para que fuesen más difíciles de manipular por los administradores web.
Los estudiantes graduados en la,y, desarrollaron Backrub, un motor de búsqueda que se basaba en unmatemático que puntuaba la relevancia de páginas web.fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega de forma aleatoria por la página web, y prosigue vínculos de una página a otra. Verdaderamente, esto quiere decir que algunos vínculos son más fuertes que otros, por lo que una página con PR más alto tiene más posibilidad de ser visitada por un usuario azaroso.
Page y Brin fundaronen. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los que les gustó su diseño fácil, motivado por el hecho de que los fundadores no sabían HTML y se limitaron a colocar un cuadro de búsqueda y el logotipo de la compañía.
Se consideraron factores externos a la página (PR y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y estructura del sitio web, velocidad de carga de la página), para permitir a Google evitar el tipo de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones.
Ejemplo de PageRank Toolbar mostrando PR8
En el año 2000 Google lanzó la, una barra de herramientas que entre otras muchas cosas mostraba la métrica pública del. El PageRank de la barra de Google va de 0 a 10, siendo diez el máximo, una valoración alcanzada por poquísimas webs. El PageRank público se fue actualizando periódicamente hasta diciembre de dos mil trece, cuando tuvo lugar la última actualización hasta la data.
Aunque el PageRank era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular el PageRank. Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo a gran escala. Ciertos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura (técnicas de
).
En, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de, Hansell, del
, declaró que los motores de búsqueda estaban utilizando más de 200 factores. Los principales motores de búsqueda, Google,y, no publican los algoritmos que emplean para posicionar páginas web. Algunos posicionadores o posicionamiento SEO han estudiado distintas formas de tratar la optimización de los motores de búsqueda, y han compartido sus creencias. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.
En, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas anteriores, Google ofrecía resultados adaptados para usuarios registrados. En, Bruce Clay dijo
“el posicionamiento está muerto”debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio se posiciona, puesto que su posición variaría en función de cada usuario, de cada búsqueda.
En, Google también anunció una campaña contra la adquisición de enlaces con la intención de mejorar posiciones en el buscador
y sugirió un nuevo atributo a añadir a estos links comerciales, era rel="nofollow" (ejemplo de empleo <a href="" rel="nofollow">Visita esta web</a>). El atributo "nofollow" ofrece a los administradores web un modo de señalar a los motores de búsqueda "No proseguir los links de esta página" o "No proseguir este enlace concreto"
En dos mil siete Matt Cutts afirmó que el empleo de este atributo en los links internos de una web también sería válido y efectivo para eludir trasmitir PageRank hacia páginas internas de la propia web
. El resultado fue que hubo un uso extendido de este atributo en los enlaces internos de los sites para alterar la distribución interna del PageRank.
Dado la generalización de esta técnica por parte de los webmasters, en dos mil nueve Google publicó que había tomado medidas para cambiar la forma en que valora y contabiliza estos enlaces nofollow en el momento de repartir el PR, y que ahora sí se tendrían en cuenta en el momento de distribuir PageRank, si bien no traspasase valor a la url de destino si se diluía el PR entre estos enlaces
. empresa de mantenimiento informático procuraba no fomentar que se usara este atributo nofollow con el único fin de alterar la distribución del PR a través de los links internos de una web.
Para poder seguir evitando la distribución de PageRank entre urls poco de una web, algunos SEOs y administradores web desarrollaron diferentes técnicas opciones alternativas que cambian los links nofollow, que antes era válido, por otras etiquetas HTML (como < span > o bien < div >) que Google no contabiliza como links, mas que para los usuarios se comportan de igual forma que un link. Para esto se emplea Javascript y obsesionado la url con una codificación en
, dejando supervisar así la distribución de PageRank sin tener que emplear el "polémico" atributo nofollow.
En diciembre de 2009, Google anunció que usaría elde todos los usuarios para elaborar los resultados de búsqueda.
Google Instant, búsqueda en tiempo real, fue introducido a finales deen un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de web han gastado meses o bien aun años en optimizar un sitio web para mejorar su posicionamiento. Con el incremento en popularidad de las redes sociales y blogs, los primordiales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda.En febrero de, Google anunció la actualización “Panda”, la cual penaliza sitios web que contengan contenido copiado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, no obstante Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.
En abril del, Google anunció la actualización “Penguin” cuyo objetivo era penalizar a aquellos sitios que empleaban técnicas manipuladoras para prosperar sus rankings. (Spam posicionamiento web o Spam Web).
En septiembre de, Google anunció la actualización “Colibrí“, un cambio en el algoritmo diseñado para prosperar el procesamiento del lenguaje natural de Google y la comprensión semántica de páginas web. (eficiencia del).
El posicionamiento natural u orgánico es el que consigue una web de forma espontánea, sin que medie una.
Se basa en lao indexación que realizan unas aplicaciones denominadaspara los. En esta indización, las arañas web recorren las páginas web y guardan las palabras clave relevantes en.
El interés del
webmasteres optimizar la estructura de una web y el contenido de la misma, así como la utilización de distintas técnicas de
,
o contenidos virales, incrementando la notoriedad de la página web, debido al aumento de menciones. El propósito es aparecer en las posiciones más altas posibles de los resultados de búsqueda orgánica para una o múltiples palabras claves concretas.
La optimización se efectúa en 2 sentidos:
Los motores de búsqueda suelen mostrar resultados orgánicos o naturales en un área
[
], a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago de determinados servicios especiales, como Google Ads o bien Microsoft Ad Center, y se conoce como(en,
search engine marketing, a menudo abreviado).
El servicio dese puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clicks (número de veces que además de salir impreso nuestro anuncio, será visitado o clicado por el cliente).
En la próxima imagen puede apreciarse de forma gráfica la diferencia entre el posicionamiento orgánico y pagado. En ella se señalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads, que también son conocidos como SEM (Search Engine Marketing).
Las actividades a desarrollarse involucran tanto cambios de programación, diseño y contenidos, exactamente las mismas alineadas a las indicaciones emitidas por los buscadores como buenas prácticas. Buscadores web como Google
y Bing
han emitido lineamientos a este respecto.
Se divide en posicionamiento interno y externo:
Son mejoras que elpuede aplicar sobre el lugar en cuanto al contenido, apariencia,, etc.
Son aquellas técnicas que se emplean para prosperar la fama de la web en los medios en línea. Por lo general, se busca lograr menciones en internet, en forma de enlace, de la web a optimar.
Rasgos públicos:Entiéndase por estos a los que son de índole declarada por los administradores o bien creadores de tal algoritmo, por poner un ejemplo podemos saber que el algoritmo detienes determinados aspectos técnicos que penalizan algunos accionares de los administradores web o redactores de contenido. Un ejemplo práctico es
Google Panda, que tiene como principal objetivo quitar contenido duplicado, duplicado o bien intrascendente por ser consideradotambién llamado Spam posicionamiento SEO.
Google Penguinen cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etcétera También vé un factor humano importante para el Seo como es porcentaje de rebote de una página web.
Rasgos privados:Son aquellos que son mantenidos en secretos por los autores o bien administradores de tal contenido, esto es a fin de que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web en buscadores.
Rasgos sospechados:Son aquellos rasgos secretos distinguidos en la práctica misma de la actividad, los mismos no son de carácter oficial, mas al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por poner un ejemplo se ha descubierto que pese a todo lo dicho por los creadores lo más importante para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.
Diagrama que representa el linkbuilding
Linkbuilding
o
construcción de enlaces, es una técnica de posicionamiento en buscadores consistente en lograr que otras páginas web enlacen a la página que interesa que losconsideren relevante y la posicionen mejor en sus
. La técnica puede hacerse de forma
natural, cuando otras webs enlazan sin previo acuerdo por algún hecho o dicho, o de forma
artificial, cuando se simula que los enlaces se han logrado de forma natural.
Conseguir enlaces de forma artificial (linkbuilding) es una técnica que viola las indicaciones para webmasters de Google. Está considerada una práctica "blackhat" y puede conllevar la pérdida de posiciones de una web por penalización por links.
Esta se basa en el concepto de que uno de los factores que se incluyen en la evaluación del ranking de una página es la cantidad de links entrantes que tiene una página, concepto basado en el hecho de que el número de links entrantes constituía uno de los factores evaluados enen mil novecientos noventa y nueve por Google
Las ventajas son:
En promedio 1.5 horas
[
]se usa para realizar link building. Sin embargo, esto depende de la capacidad del proyecto, en cualquier caso se
[
]recomienda siempre y en toda circunstancia tener un comportamiento natural en tanto que el buscador/es pueden sospechar de estrategias
utilizadas para obtener mayor cantidad de enlaces no-naturales en menor tiempo, lo que conlleva a una penalización por la parte del buscador cara la página web que efectúa estas técnicas.
Comentarios en artículos: otra forma, no menos importante, es la de producir
desde comentarios de artículos, es también una de las formas más fáciles de conseguir enlaces. Google da prioridad a los enlaces que hay en los comentarios de alguna entrada,
[
]y los reconoce como un backlink válido.
[
]Los comentarios en artículos siempre y en toda circunstancia son aprobados o bien rechazados por un
.
Compra de enlaces: los enlaces de pago o bien, son usados por gran cantidad de especialistas en posicionamiento en buscadores y
con el fin de ahorrarse tiempo buscando mismos los links cara sus sitios. Muchos sitios en línea se dedican en venta de links con alto.por su parte considera esta técnica como
black hat SEOtambién y por consiguiente penaliza a quienes lo hacen.
[
]
Tipos de:
Algunas de estas nuevas tecnologías son:
A medida que avanza la comprensión de los que los usuarios desean hallar en el buscador y lo que los webmasters ofrecen, Google ha ido actualizando
su algoritmo a lo largo del tiempo, lo que por su parte ha podido afectar al posicionamiento de todos y cada uno de los sitios en Internet sea como sea su temática o sector.
Google ha llevado a cabo algunos cambios en la documentación de ayuda para los webmasters, singularmente en lo que a ranking se refiere. Hasta el veintisiete de mayo de 2013 decía:
In general, administradores web cánido improve the rank of their sites by increasing the number of high-quality sites that link to their pages.
En general, los administradores web pueden mejorar el ranking de sus sitios aumentando el número de sitios de alta calidad que enlazan en sus páginas.
Tras los cambios, pasó a decir:
In general, webmasters can improve the rank of their sites by
creatinghigh-quality sites that users will want to use and share.
Este cambio es consistente con lo que Google quiere de los administradores de sitios web: menos
linkbuildingy más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. Dentro de estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se realizan en la página, y las veces que se comparten en las redes sociales. Cabe nombrar las herramientas proporcionadas por Google y Bing, etc. como Herramientas de Administrador web de Google y Google Analytics (gratuita y de pago).
El 20 de mayo de 2014actualizó el algoritmo de su buscador, específicamente el «Panda» a Panda cuatro.0
con lo que empresas reconocidas del ámbito como: PRWeb.com, BusinessWire.com, etc. vieron reducidas sus situaciones en el buscador debido a la actualización mencionada.
En dos mil dieciseis Google incorpora el proyecto AMP
o bien. Es una iniciativacon objetivo de que el usuario acceda al contenido de una manera más rápida y sencilla, de forma casi instantánea, evitando demoras en la carga de los sitios. Implementar AMP en un portal tiene un impacto positivo en el SEO para búsquedas móviles.
El cuatro de noviembre de dos mil dieciseis Google a través de un comunicado oficial
indicó que indexaría los contenidos dando prioridad a las webs para móviles frente a las desktop, por lo que la utilización de AMP también afecta los resultados para las búsquedas en desktop
.
A partir de una investigación efectuada en Linkedin, se determinó que Estados Unidos reúne la mayor cantidad de profesionales posicionamiento SEO en América con prácticamente ochocientos cuarenta y seis mil personas que se presentan como consultores, especialistas o personas con aptitudes para realizar posicionamiento en buscadores.También se verificó que España es el país de habla hispana con mayor cantidad de consultores posicionamiento web en el planeta, alcanzando más de 111 mil personas trabajando en esta industria. Por último en este estudio Brasil es el país de habla portuguesa con mayor cantidad de especialistas posicionamiento web en buscadores, superando los setenta y dos mil.
Categories: None
The words you entered did not match the given text. Please try again.
Oops!
Oops, you forgot something.