¿Cómo detectar contenido duplicado en SEO?

Lo que vas a aprender

El contenido duplicado dentro de una web puede afectarnos negativamente en el posicionamiento orgánico de nuestra página. Sin embargo, a pesar de su importancia, es un punto que los webmasters no tienen muy presente a la hora de desarrollar una Web. Solucionarlo inmediatamente con contenido original de calidad,  evitará que Google te penalice en su buscador.

Google está constantemente actualizando el contenido de las búsquedas, por lo que debemos tener claro que si nuestro contenido no es atractivo, no se encuentra actualizado y no es considerado como único, no lo va a interpretar como un contenido de calidad.

Por lo tanto, en este artículo vamos a tratar cómo detectar contenido duplicado que nos pueda penalizar y cómo podemos solucionarlo.

¿Qué entiende Google por contenido duplicado?

La idea que nos viene a la cabeza cuando hablamos de contenido duplicado hace referencia a tener textos o descripciones de productos con un alto porcentaje textual de plagio de otra Web.  Es lo que denominamos DUPLICADO EXTERNO, que puede ser debido a que terceros nos han copiado o plagiado algún contenido propio.

Pero no consiste únicamente en esto, si no que también podemos encontrar DUPLICADO INTERNO (dentro de nuestra propia página Web), como por ejemplo, el contenido duplicado en meta tags, en este caso se debe a causa de errores de la web o porque al realizar un par de descripciones ponemos algunas frases similares.

¿Cuándo se considera contenido duplicado? Cuando un bloque de contenido pasa de un 30% de similitud textual. Aunque si es a causa de un error esto se puede solucionar sin poner en riesgo el posicionamiento de nuestra web.

Herramientas para detectar contenido duplicado en SEO

Donde detectamos primeramente el duplicado, es en los títulos, descripciones y encabezados. Para ello podemos utilizar algunas herramientas o trucos para comprobar que nuestra web es única y funciona correctamente.

Tanto el programa de Screaming Frog como SemRush son de pago, pero si nos dedicamos al marketing merece la pena contar al menos con alguno de estos programas para poder trabajar.

1. Screaming Frog

Screaming Frog es un programa que te ayuda a rastrear a fondo la web en búsqueda de duplicidad, sobre todo enfocada a SEO. Cuenta con el filtro “duplicate” donde nos dará de forma detallada la información de las URL’s, H1, Page y Meta Description que cuentan con este problema.

2. SEMrush

Es una de las herramientas mas completas, nos da mucha información sobre nuestra web y además, nos informa de todos los problemas que puede tener para poder repararlos.

Se puede realizar una “Auditoria SEO” y de este modo poder identificar todo el contenido duplicado de nuestro sitio web para poder repararlo a tiempo antes de que afecte al posicionamiento SEO.

3. Google Analytics

Google Analytics es una de las páginas gratuitas que nos da información muy relevante sobre nuestra página Web. Podemos consultar las visualizaciones, el tráfico y las ventas entre otras cosas que recibe nuestra página.

En este caso debemos acceder a “Comportamiento”, “Contenido del sitio” y “Páginas de destino”, de este modo podemos detectar duplicidades.

4. CopyScape

CopyScape es una página bastante utilizada en la que no es necesario que nos tengamos que crear una cuenta ni registrarnos.

En esta Web debemos introducir la URL de nuestra página y en el caso de que exista alguna descripción o texto idéntico al nuestro o muy similar, nos avisará al instante. Esto nos ayuda a ver qué sitios web externos al nuestro nos ha cogido información de nuestra web o han utilizado nuestra información para beneficio propio.

4. Comando “site” y las palabras claves

Esta opción es sencilla y útil, ¿Cómo funciona? Muy fácil, entramos en el buscador de Google e introducimos nuestra web con nuestra palabra clave (Keyword) o una frase determinada < site:ejemplo.com + “Contenido duplicado” >

En estos resultados comprobaremos si existen descripciones o títulos duplicados e incluso si alguna de ellas es canónica de otras sin que nosotros hayamos escogido esa URL.

Nos ayuda a ver si la estructura de nuestra web funciona correctamente, tal y como nosotros la hemos construido.

¿Cómo solucionamos el contenido duplicado en nuestra web?

Existen distintos métodos y trucos para evitar que Google penalice algunas de nuestras páginas duplicadas.

1. URL’s canónicas

Cuando contamos con distintos links para acceder a una misma página, se entiende que la página esta duplicada ya que distintos links te ofrecen la misma información considerándose  que la página esta duplicada.

El comportamiento que tendrá Google ante una situación así, es que considerará una de las URL’s como principal y relevante, esta sería la url canónica. En cambio las otras las va a considerar como duplicadas, de este modo el rastreo de las otras páginas será menos frecuente y afectará negativamente a nuestro posicionamiento.

Por lo que, debemos escoger nosotros cuál es la url canónica para que Google no se adelante y escoja una como principal. Cuando indexa un sitio web, el robot selecciona cual tiene un contenido más completo y atractivo para que esta web sea la principal.

2. Redirecciones 301

Esta estrategia es ideal para deshacerte de páginas duplicadas. Cuando ya tenemos nuestra web estructurada correctamente, debemos tener en cuenta como queremos redireccionar a nuestro público y a las arañas de Google.

Lo que indica exactamente una redirección 301, es que trasladamos una de las páginas de forma permanente a una nueva ubicación. Lo más recomendado es hacerlo a un dominio de nivel superior y que sea coherente.

3. Robots.txt

Para evitar las sanciones, esta acción nos ayuda a evitar el duplicado en caso de no poder redirigir una url o borrarla.

Con este archivo le indicamos directamente a los buscadores que deben ignorar o bloquear esa página y de este modo no se tendrían que rastrear. Debemos tener cuidado ya que es posible que si tiene alguna redirección se siga indexando. Además, antes de bloquearla, es importante incluir en la página una etiqueta Noindex, para que primero pueda ser rastreada y desindexada.

En conclusión, para evitar todos estos problemas con el duplicado de contenido, debemos tener presente algunos puntos clave.

En primer lugar, intentar en todo momento que nuestro contenido es único y no se puede encontrar en ninguna otra página de internet. En segundo lugar, controlar las URL’s que se crean automáticamente, para que estas te lleven a la misma página y personalizarla para que sea más amigable. En tercer lugar, controlar los title y description, que los robots de Google no pueda encontrar los mismos contenidos para distintos links.

Por último, si por algún motivo vamos a tener páginas similares en nuestra Web, debemos intentar que estas no superen un 30% del mismo contenido. Dejar claro a través de estas estrategias que URL consideramos como importante y de este modo que Google solo indexe esa canonical, sin penalizarnos por considerar que tenemos contenido duplicado.

Es muy difícil que nuestra página tenga un porcentaje de duplicado inferior al 10%, pero no debemos asustarnos ya que, Google no nos va a penalizar por ello. Debemos contar con un porcentaje superior para que esto suceda.

¿Necesitas más información?

Rellena el formulario o llámanos+34 966 23 69 04
¿te ha gustado? ¡Comparte!
Facebook
Twitter
LinkedIn

Descubre los articulos relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

También te puede interesar las noticias sobre...