SEO: I contenuti duplicati possono penalizzarci?
Spesso chi si occupa di marketing, SEO o copywriting si chiede se i contenuti duplicati possano essere visti come una cosa negativa per il proprio sito web. Io stesso, quando partecipai ad un corso sulla SEO qualche tempo fa, sentii il relatore sostenere questa ipotesi.
In realtà, la risposta è diversa.
Contenuti duplicati all’interno dello stesso sito
No, secondo un post del 2008 sul blog ufficiale di Google Demistificare la penalizzazione per contenuti duplicati, il motore di ricerca è in grado di rilevare qual è il contenuto più opportuno da mostrare nei risultati di ricerca (SERP) a seconda delle query, le parole chiave ricercate dall’utente.
Quindi, la presenza di pagine duplicate su Google Search Console non sono un problema, a meno che noi le marchiamo per errore come canoniche o alternative quando non lo sono. A questo proposito, rimando all’articolo I meta tag Canonical per la SEO: Cosa sono e come funzionano.
Ovviamente, è meglio evitare di presentare più pagine con contenuto identico e in questo caso utilizzare il meta tag rel=”canonical” quando opportuno. Soprattutto, è sempre meglio evitare di copiare i contenuti da altri siti web in modo automatico (scraping).
E se qualcuno copia i contenuti dal mio sito web?
Dal punto di vista tecnico, il crawler non può avere strumenti per definire con certezza quale sia l’origine di un contenuto. Potremmo usare piattaforme come Web Archive per risalire alle versioni vecchie di un sito, ma queste sono comunque verifiche manuali.
Quindi, in parte è vero che se qualcuno copia i contenuti dal nostro sito per riportarli nel proprio, potrebbe impossessarsi del nostro posizionamento e magari anche scavalcarci, però c’è anche da dire che i fattori che influiscono sul ranking sono molti, se riesconoa rubarci così facilmente la posizione nella SERP probabilmente abbiamo altri problemi da risolevere oltre al furto del contenuto, ad esempio le prestazioni per i Core Web Vitals, oppure la link building.