El contenido duplicado afecta al SEO de tu página web
El contenido duplicado es uno de los problemas más frecuentes en una página web en términos de SEO. Cuando realizamos auditorías SEO nos encontramos con webs que tienen contenidos duplicados de otras páginas o páginas que repiten el mismo patrón de contenidos.
El contenido es la base de cualquier proyecto de SEO, sin un buen contenido te costará mucho posicionar tu página web. El usuario que realiza consultas en Google busca un contenido en concreto y, si no eres capaz de dárselo, saltará de resultado en resultado hasta encontrarlo. Esto supone que Google relegará tu web poco a poco en los rankings.
Decimos que una página tiene contenido duplicado cuando nos encontramos con dos o más URL con el mismo contenido. Este contenido puede ser el mismo que aparezca en otra web o en otra URL de tu propia página.
Con esta última premisa, debemos diferenciar dos tipos: el contenido duplicado interno y el externo.
Decimos que una página web tiene contenido duplicado interno cuando dos o más URLS de la misma web tienen el mismo contenido. Este error supone que el buscador de Google tenga que decidir qué página es la más valiosa para indexarla y mostrarla en los resultados de búsqueda.
Si tenemos dos páginas con el mismo contenido, estaremos gastando presupuesto de rastreo o crawl budget. Por ello Google nos deja claro que necesitamos indicarle qué URL es la principal para que obvie las demás.
Podemos utilizar la etiqueta rel=”canonical” en las URLS con el mismo contenido para indicarle qué URL es la principal, de esta manera Google solo hará caso de la que pongamos en el canonical.
Tienes más información sobre URL canónicas aquí.
Una de las mejores alternativas para evitar urls con contenido duplicado es configurar redirecciones 301. De esta manera le simplificamos la tarea al usuario y al buscador, ya que cuando aterrice en una página con el mismo contenido le redirigirá hacia la principal.
Las redirecciones 301 se pueden configurar de varias formas, aunque la más adecuada es mediante el archivo .htcacces
Otra forma de dejarle claro a Google que no debe visitar una página es configurando un bloqueo mediante el archivo Robots.txt
Para ello se configura una directriz disallow que permite indicarle al buscador que no pase por esa URL, de esta forma no se rastrea ni se indexa. Es quizá la forma más agresiva de bloquear las URLS de contenidos duplicados.
El contenido duplicado externo es aquel que copiamos de otra página web. También nos referimos a este contenido como contenido plagiado y puede tener graves consecuencias a nivel de posicionamiento.
Plagiar contenidos es una de las prácticas más penalizadas por Google, por lo que mucho ojo antes de copiar y pegar textos de otras webs.
Tags: SEO