1. ¿Qué le importa al SEO?
  2. Google Search Snippet
    1. Title
    2. Meta Description
    3. URL y SEF
  3. Encabezados
  4. Contenido
  5. Enlaces Internos
  6. Imágenes
  7. sitemap.xml
  8. robots.txt
  9. Indexar/no indexar contenido mediante metaetiquetas
  10. Contenido duplicado
  11. Certificado digital
  12. Ejercicio grupal

Relevancia

Es la relación entre lo que busca el usuario y el contenido que ofrece tu página.

¿Qué le importa al SEO?

Web = contenido (html) + apariencia (css)

Al SEO le da igual el css, lo que le importa es el html.

Google Search Snippet

 	<html>
	<head>
		<title>Título de mi página web</title>
		<meta name="description" content ="Descripcion de mi página web" />
		<meta name="keywords" content="keyword1, keyword2, keyword3" />
	</head>

	<body>
	<!--
	Puede haber varios h2 en una misma página, pero no varios h1. De h1 a h6 hay orden progresivo de relevancia en el motor de google
	-->
		<h1>Titular de la página de primer nivel</h1>
		<p>Texto y contenido de mi primer párrafo.</p>
		<h2>Titular de la página de segundo nivel</h2>
		<p>Texto y contenido de mi segundo párrafo</p>
	</body>
</html>

<title>Título de la página</title>

Consideraciones:

Ejemplos:

Correctos:

Incorrectos:

Meta - Description

No debería pasar de los 155 caracteres. No cuenta para el rankeo, pero es lo que el usuario vé y ayuda a que haga click.

Es recomendable eliminar la meta información de las fechas de un blog, o de lo contrario google lo tiene en cuenta para no mostrar artículos antiguos. Habrá que eliminar este código:

<meta property="article:published_time" content="2013-11-07T11:01:41+00:00" />
<meta property="article:modified_time" content="2016-02-04T09:29:27+00:00" />
<meta property="og:updated_time" content="2016-02-04T09:29:27+00:00" />

URL y SEF (Search Engine Friendly)

Las url's deberían contener las keywords escogidas y ser lo más cortas posibles, nada de hacer una url hiperlarga basada en breadcrumbs (en las categorías que hay que pasar para llegar a un producto)

Encabezados: <h1>...<h6>

  1. Deberían contener las palabras clave.
  2. En HTML5 sólo debería haber una etiqueta <h1> por cada sección (antes de HTML5 era un h1 por página).
  3. Permiten identificar el contenido prioritario.
<h1>Títulos más importantes</h1>
<h2>Sub títulos</h2>
<h3>Sub títulos de tercer nivel (menos importantes)</h3>

Contenido

"El contenido manda", "el contenido es el rey". Sin contenido, no hay posicionamiento.

Enlaces internos

De la documentación oficial:El número de enlaces internos dirigidos a una página es una señal para los motores de búsqueda acerca de la importancia relativa de dicha página. Si una página importante no se muestra en esta lista o si una página menos importante tiene un número relativamente grande de enlaces internos, considera la opción de revisar tu estructura de enlaces internos.

Enlaces Externos

Para no transmitir autoridad, usaremos el atributo rel="nofollow"

Dónde poner el rel="nofollow"

Si piensas que el enlace que estás usando es de interés para el usuario y lleva a un sitio con autoridad, déjalo como dofollow.

El atributo de enlace nofollow no evita que la página se indexe.

No es recomendable usar el atributo nofollow para páginas internas, ya que evita que el page rank fluya.

Matt Cutts, ex-ingeniero de Google:

Microformatos

¿Por qué debemos considerar implementar microformatos?

Buscadores como Google, Bing, Yahoo usan los microformatos (Rich snippets, fragmentos enriquecidos) para indexar y ofrecer mejores resultados a los usuarios.

Los hay de varios tipos:

Poniéndonos de acuerdo

Actualmente nos encontramos varias formas de estructurar datos:

Schema.org es una iniciativa de Google, Yahoo y Bing para definir una sintaxis común para datos estructurados.

Algunos ejemplos de microformatos

Para saber si una web tiene microformatos y cuales son, podemos usar este enlace.

Por ejemplo, probar esta url: http://lacerca.com/

Ejemplo de uso de microformatos

Sin microformatos


<p>
<strong>Cesar Soplin</strong><br/> 
Jr. de la Unión 123<br/> 
Lima Perú<br/> 
987-654-32<br/>
</p>

Con microformatos

<div class="vcard">
   <span class="fn n">
    <span class="given-name">Cesar</span>
    <span class="additional-name">Soplin</span>
    <span class="family-name"></span>
   </span>
  <div class="adr">
    <div class="street-address">Jr. de la Unión 123</div>
    <span class="locality">Lima</span>
    <span class="country-name">Perú</span>
   </div>
   <div class="tel">987-654-32</div>
  </div>

Optimizar imágenes

Nombre de la imagen

Podemos optimizar el nombre de la foto poniendo las keywords. No será necesario espaciar las keywords con guiones.

Atributo alt

El atributo "alt" te permite especificar texto que puede aparecer en vez de la imagen, si ésta no puede mostrarse por la razón que sea. Además, google utiliza el alt para indexar la imagen en el "google images" (el buscador de imagenes de google).

No es necesario optimizar ni poner el alt en todas las imágenes. Se optimizan sólo las imágenes que guardan relación directa con la landing page. No optimizaríamos iconos, flechitas, etc.

Atributo title

No tiene una gran relevancia de cara al SEO.

Enlaces

El anchor text debería ser la keyword.

		
<a href="pagina.html">Aqui ponemos la keyword</a>
		
	

Actualmente la gestión de google del SEO ignora el atributo title.

Enlaces entrantes y salientes

Enlaces de calidad son aquellos a páginas que utilizan keywords similares las tuyas. Para conseguir esto es posible comprar un nuevo dominio con un microsite o página satélite que enlace al nuestro. Dicho microsite no puede tener contenido duplicado (google lo penaliza). Además como este dominio está optimizado, posicionará mejor de cara a cierto criterio de búsqueda.
Si lo que deseamos es mejorar el posicionamiento de la página madre, el microsite debería tener un enlace a la página madre, pero no al revés.

Recomendaciones

Errores 404 en páginas que sí se ven

A veces una página devuelve una cabecera de error 404 a pesar de que sí se está viendo. Google web master tools nos indicará que tenemos enlaces rotos, pero cuando pulsamos el enlace, la página se ve. Esto ocurre porque la página tiene un tipo de error que devuelve esta cabecera 404. Acompañando a la cabecera suele ir un documento que describe el error, este documento puede ser la propia página, y por eso aparentemente la página se ve bien.

Podemos saber si una página que se ve bien devuelve un código de error utilizando el plugin para firefox httpfox.

A tener en cuenta

Google detecta que hay vida en la web. Para que la web tenga vida, existen varias opciones

Conocer cuando fue la última vez que el robot de google pasó por mi página web y que fue lo que almacenó:

	
cache:pablomonteserin.com 
	

One Page sites

Contenido

Cuando tenemos varias páginas, es sencillo orientar cada página a un objetivo y enfocarla para ser encontrada a partir de ciertas keywords. Sin embargo, si recojemos en una sola página todo el contenido de nuestra web, es más difícil lograr este objetivo.

Un site dividido en varias páginas o secciones es mucho más escalable. Si tienes todo el contenido en una sola página puedes terminar generando un html de 30000 líneas de código, y esto no es muy saludable.

Links entrantes

Es más fácil que alguien nos enlace a una página a la que tratamos un tema específico que sólo a la genérica página de inicio, que es lo único que tenemos en un one page site.

Sitemap

Dos tipos:

Crear un archivo SiteMap: http://www.xml-sitemaps.com/

Subir el archivo SiteMap: http://www.google.com/webmasters/tools/

robots.txt

Indica que páginas serán indexadas y cuales no. Una página que típicamente debería estar referenciada aquí para no ser indexada, es la de "Aviso legal", por ejemplo. De esta forma también logramos que desaparezca de los sitelinks de Google analytics.

Si queremos que no se visualicen ficheros concretos, posiblemente será mejor ponerles las etiquetas noindex no follow en la cabecera de la propia ágina, en lugar de modificar el robots.txt. De esta forma, alguien qué inspeccione el robots.txt no sabrá que páginas estamos ocultando

Debe estar en la raíz del sitio.

Ejemplo:
User-agent: *
Disallow: /backend/
Disallow: /tmp/
Sitemap: http://www.pablomonteserin.com/index.php?option=com_xmap&view=xml&id=1
		
	

Los robots de cualquier motor de búsqueda (señalados con el carácter comodín *) que siguen las normas no indexarán el contenido bajo los directorio /backend/ ni cualquier URL que empiece por /tmp

Otras forma de cargar el sitemap consiste en añadir esta línea al robots.txt:
Sitemap: http://www.casasruralessoria.com/sitemap.xml
	

Validador de nuestro robots.txt:
http://tool.motoricerca.info/robots-checker.phtml


Ejemplo largo de robots.txt

Estos son los los nombres de los crawlers más importantes:

Si deseamos bloquear ciertas páginas en algunos crawlers es necesario primero colocar las instrucciones para los crawlers y al último las instrucciones para todos los crawlers, como se muestra en el siguiente ejemplo:

	
User-agent: teoma
Disallow: /ask/
User-agent: msnbot
Disallow: /bing-no-es-novedoso/
Disallow: /bing-no-es-novedoso/aun-sin-gustarme.html
User-agent: googlebot
Disallow: /lo-feo-de-google/
User-agent: slurp
Disallow: /yahoo-no-me-gusta/
User-agent: *
Disallow: /privado/
	

Si colocamos al inicio las instrucciones para todos los crawlers, las demás instrucciones no serán leídas.

Indexar/no indexar contenido mediante metaetiquetas

Estas etiquetas deberían estar en cada página:

Esta meta le dice a cualquier robot que quieres que indexe tu página, y que siga sus links:
<meta name="robots" content="index, follow">
		
	
Esta meta es una abreviatura de la anterior:
<meta name="robots" content="all"> 
 	
 

Esta hace lo contrario:
<meta name="robots" contents="noindex, nofollow">

"noindex, nofollow" es que la web no se indexa y los buscadores no siguen la URL. Si le ponemos "noindex,follow", no se indexa pero los bots si entran y recorren los enlaces, completando la indexación de otras páginas que sí son indexadas, y ganando en autoridad.

Google interpreta, que las URLs de nuestro site que tienen más enlaces de nuestro site apuntando son las más importantes.

Y en este caso le estas diciendo al robot de Google que ni siquiera se le ocurra guardar en su memoria cache tu página:
<meta name="googlebot" content="noarchive""> 
	

Ojo! debemos asegurarnos de que el contenido no indexado no esté incluído en el sitemap.xml. Sería una contradicción.

Contenido duplicado

Google no penaliza el contenido duplicado. Simplemente no indexa las páginas que lo tienen.

No obstante si Google detecta que un sitio web tiene mucho contenido duplicado, si que la va a penalizar o incluso puede dejar de indexarla. Esta fue una de las mejoras que trajo consigo el algoritmo panda.

Causas de contenido duplicado

  1. Tener contenido duplicado.
  2. Si tomas un artículo de otra página y lo traduces tal cual con el google translate, google te penaliza. Si lo traduces manualmente, y google lo detecta, también lo tendrá en cuenta.
  3. Si puedes acceder a tu dominio de estas dos formas: pablomonteserin.com y www.pablomonteserin.com, tienes contenido duplicado.
  4. Si puedes acceder a tu dominio de estas dos formas http://pablomonteserin.com y https://pablomonteserin.com, tienes contenido duplicado.
  5. En general, si tienes dos url's diferentes que accedan al mismo contenido. Tienes contenido duplicado. Algunas páginas manejan el id de sesión en la url, con lo cual, están generando contenido duplicado.

Puedes utilizar esta herramienta para buscar las páginas que tienen el mismo contenido que la url introducida.

Prevenir el contenido duplicado

Pondremos esta etiqueta en la cabecera, apuntando a la página dónde está el contenido original.

<link rel="canonical" href="https://webdelaempresa.com/articulo" />

Podemos indicar que una única url puede contener información en varios idiomas

<link rel="alternate" hreflang="x-default" href="urlquetendracontenidoenvariosidiomas.com">

En el caso de que el contenido duplicado sea una traducción, podemos indicarle al buscador que la página actual tiene una versión traducida en otra url con esta etiqueta:

<link rel="alternate" hreflang="en" href="urldelapagina.com/en">

Un contenido que habitualmente aparece como duplicado en muchas webs es el aviso legal, la política de privacidad, etc. Es mejor decirle a google que no lo indexe (no index o usando el robots.txt) y

Para evitar contenido duplicado en las paginaciones, usaremos:

Suponinendo que estamos en la página 2<link rel="next" href="URL DE LA PÁGINA 3" />
<link rel="prev" href="URL DE LA PÁGINA 1" />

También podemos evitar el que el motor de google se meta por las url's de paginación mediante el siguiente código. Habrá que tener en cuenta que como no se meterá por ellas, no las va a desindexar porque no podrá meterse para ver que existen. Para desindexarlas sería recomendable recurrir a la google search console

Disallow: */page/

Los Filtros

No debes permitir que Google te indexe las páginas con productos repetidos por haber sido filtrados (por talla, color, etc.). A menos que el usuario te busque en Google utilizando las palabras clave de algún filtro en la url.

<meta name="robots" content="NOINDEX, FOLLOW">

Certificado de seguridad

Google penaliza tu posicionamiento si no lo tienes. Esto hará que tu url sea https, en lugar de http. El más económico (y perfecto para nuestros propósitos) cuesta 80 euros al año.

Ejercicio grupal

  1. Comprobar, para la home, para una categoría y para un producto concreto, que tienen la etiqueta title, descripción y metaetiqueta keywords.
  2. ¿Se puede mejorar la home a nivel de SEO? Contenidos, imágenes...
  3. ¿La web es rastreable?
  4. Analizar si tiene links y de que tipo son.
  5. ¿La web tiene un blog?. Valóralo.
  6. ¿Con qué redes sociales linka?
  7. Aportar ideas para mejorar el SEO.
icono de mandar un mail¡Contacta conmigo!
contacta conmigoPablo Monteserín

¡Hola! ¿En qué puedo ayudarte?