Duplicate content

Duplicate content eller dobbelt indhold betyder, at der findes ens eller ensartet indhold, på tværs af flere URL’er på internettet. Duplicate content kan derfor både vedrøre ét eller flere domæner.

Duplicate content

Hvad er duplicate content?

Duplicate content er nøjagtig eller lignende indhold, der vises på nettet mere end ét sted. Duplicate content kan både opstå imellem URL’er på det samme website og eller på tværs af flere domæner.

Hvis vi f.eks. udgav denne guide på citona.dk/seo/duplicate-content-kopi/, så ville det være duplicate content. Det ville det også være tilfældet, hvis guiden blev udgivet på et andet domæne.

Google kan i dette tilfælde blive i tvivl om, hvilken version der er den originale. 

Duplicate content

Vi kan grundlæggende inddele duplicate content i 3 kategorier:

  • Rigtig duplicate content: Hvor indholdet på flere URL’er er 100% identisk.
  • Delvist duplicate content: Hvor indholdet på flere URL’er er ensartet. Det kan f.eks. skyldes en blok af tekst, som bliver genbrugt på tværs af flere sider.
  • Duplicate content på tværs af domæner: Hvor indholdet er ens eller ensartet på tværs af flere domæner.

Duplicate content kan opstå på baggrund af mange forskellige faktorer. F.eks. når forhandlere plagierer eller liciterer produkttekster fra producenter. Det kan også skyldes en dårlig website arkitektur. Den mest almindelige årsag – som vi oplever det – skyldes dog tekniske problemer med et websites CMS.

Hvorfor er duplicate content et SEO problem?

Hvis du har duplicate content på dit website, så kan det både skade din SEO og brugeroplevelsen på dit website. Selvom Google oplyser, at det meste duplicate content ikke er vildledende i oprindelsen, så siger de også følgende:

Google: Google bestræber sig på at indeksere og vise sider med unikke oplysninger.

Hvis du derfor har websider uden unikke oplysninger, så kan det skade dine søgeordsplaceringer. Dette gælder især hvis der er tale om et forsøg på manipulation. Her er 5 problemer som websites med meget duplicate content kan ramme ind i.

pagerank fortynding

Når du har sider med ens indhold, så kan det også medføre, at din pagerank bliver delt imellem flere redundante sider. Dette kan betyde, at originalen aldrig vil rangerer ligeså godt i Google som en unik side.

PageRank fortynding

Ydermere kan backlinks til flere duplikerede sider betyde, at Google bliver forvirret over, hvilken side der er originalen og dermed skal rangere i søgeresultaterne.

Færre indekserede sider

Google finder dit indhold ved at crawle, hvilket betyder, at de følger links fra eksisterende sider til nye sider. De genindlæser også sider, de kender fra tid til anden for at se, om indholdet har ændret sig.

At have duplicate content er derfor kun med til, at skabe mere arbejde for Google. Samtidig kan det påvirke hastigheden og frekvensen, som Google crawler dine nye og eksisterende sider med.

Det er noget skidt fordi det kan medføre forsinkelser i indeksering af nye sider og genindeksering af opdaterede sider. Det kan også betyde, at nogle sider aldrig bliver indekseret, fordi du spilder dit crawl budget på duplicate content – eller fordi Google helt nægter at indeksere kopierne.

Google nægter indeksering af duplicate content

Mindre organisk trafik

Mindre organisk trafik kan også være resultatet af duplicate content. Søgemaskinerne ønsker at belønne originalt indhold med unikke oplysninger. Google er derfor ikke interesseret i, at rangere sider med indhold kopieret fra andre sider.

Har du f.eks. flere sider som er ens, så kan Google blive i tvivl om, hvilken side der er originalen. Disse sider vil derfor få meget svært ved rangere i søgeresultaterne.

Google filtrerer duplicate content

Og hvis det duplikerende indhold alligevel fremgår i søgeresultaterne, så kan det blive vist på meget uvenlige URL’er, der afholder folk fra at klikke. Forestil dig at den samme side er tilgængelig på disse 3 URL’er:

  • domain.dk/dc/
  • domain.dk/dc/?utm_content=dc&utm_medium=google
  • domain.dk/kategori/dc/

I dette tilfælde skulle den første URL gerne blive vist i søgeresultaterne. Google kan dog have en anden opfattelse og så ender du med både uønskede og uvenlige URL’er i søgeresultaterne.

Når skrabet indhold udkonkurrerer dig

Hvis du tillader et websted at genudgive dit indhold – også kendt som syndikering – eller andre websites skraber dit indhold uden tilladelse.

Begge scenarier vil føre til duplicate content på tværs af domæner. Forestil dig så, at deres skrabet indhold begynder, at udkonkurrere dit originale indhold i Google. Selvom Google er god til at afdække originalen, så forekommer dette stadig i dag.

Søgemaskinestraf

Selvom det hører til sjældenhederne, så oplyser Google, at duplicate content der har til hensigt, at manipulere med rangeringer eller narre deres brugere, også kan lede til en komplet fjernelse af et website fra Googles indeks.

Duplicate content søgemaskinestraf

Spørgsmålet er så, hvad Google regner for manipulering?

Faktisk har de mere information om dette men grundlæggende handler det om at:

  • Bevidst oprette flere sider, subdomæner eller domæner med masser af duplicate content.
  • Udgive masser af skrabet indhold.
  • Udgive affiliate indhold skrabet fra Amazon eller andre sider, uden at tilføje yderligere værdi.

Summa summarum: Undgå at oprette duplicate content med henblik på at snyde Google. Du risikerer i værste fald at blive straffet, eller på andre måder, at skade din SEO.

Årsag og løsning på duplicate content

Der er ikke en enkelt årsag til duplicate content. Der er mange. De fleste af dem skyldes tekniske problemer udført af udviklere, fordi de ikke tænker som en bruger eller browser.

I de næste afsnit går vi i dybden med de mest almindelige årsager. Derudover får du vores anbefalede løsninger på duplicate content. Implementeringen sker selvfølgelig på eget ansvar. Husk også at foretage en backup af dit website inden du går igang.

Facetteret / filtreret navigation

En facetteret navigation er hvor dine brugere kan filtrere og sortere elementerne på en side. Mange webshops gør brug af dette på produktkategorier, så brugerne hurtigere kan finde det de søger, hvilket skaber en bedre brugeroplevelse.

En facetteret navigation tilføjer ofte parametre i enden af en URL.

Og fordi der ofte er mange kombinationer af disse filtre, så kan en facetteret navigation ofte resultere i mange duplikerede- eller delvist duplikerede lister, hvor indholdet er tæt på identisk.

Ydermere så kan problemet skalere, når rækkefølgen af parametrene ikke betyder noget. F.eks. hvis de 2 nedenstående URL’er returnerer det præcis samme indhold:

  • domain.dk/toej/skjorter?colour=sort&size=xl
  • domain.dk/toej/skjorter?size=xl&colour=sort

Dette kan skabe en massiv stigning i duplikerede URL’er, fordi Google behandler URL’erne som separate sider.

Anbefalede Løsninger

Kanonisering: Med et rel canonical tag kan vi fortælle Google, at i en kollektion af lignende sider, der har vi en foretrukken version, der skal have al kredit. En side så som “/skjorter/?colour=white” vil i dette tilfælde, få en rel canonical URL der peger på “/skjorter/”. Dermed bliver al PageRank videreført til din foretrukne side:

<link rel=”canonical” href=”https://domain.dk/toej/skjorter” />

Facetteret / filtreret navigation der skaber duplicate content

Den eneste ulempe ved denne løsning er, at Google stadig vil spilde crawl budget, da Googlebot fortsat skal crawle alle dine URL’er med parametre. Derudover er det vigtigt at tilføje, at løsningen kun bør bruges på sider som er ensartet.

AJAX: Denne løsning er mere avanceret. Fordelen ved denne løsning er, at der ikke bliver genereret en ny URL, når brugeren anvender filtre eller sortering. Derudover kan den eliminere problemerne med duplicate content, kannibalisering og spild af crawl budget. Hele processen sker på klientsiden med JavaScript, helt uden involvering af serveren.

Når denne løsning implementeres er det blot vigtigt at sikre, at der er en HTML gennemgangssti til de produkter og sider, som du ønsker skal rangere. Derudover sikre, at søgemaskinerne kan få adgang til alle værdifulde sider. Ved at bruge pushState-metoden i HTML5-historik API’en og konfigurere din server til at svare på disse anmodninger med HTML gengivet serverside, kan du drage fordel af en hurtig, AJAX-drevet facetteret navigation. Dette uden at ofre SEO-venligheden på dit website.

parametre

En anden årsag til duplicate content er URL parametre, som ikke ændrer indholdet af en side. Parameteriserende URL’er bruges f.eks. til sporingsformål, hvor UTM-parametre sporer besøg i Google Analytics.

Dette skaber desværre også problemer, fordi søgemaskinerne ikke betragter nedenstående 2 URL’er, som den samme side:

  • domain.dk/seo/duplicate-content
  • domain.dk/seo/duplicate-content?utm_source=google

Parameteriserende URL’er bruges også tit i andre sammenhænge. F.eks. i forbindelse med sortering af elementer på en side.

Anbefalede Løsninger

Kanonisering: Brug et rel canonical tag fra sidens parameteriserende URL’er til den SEO-venlige version uden parametre. Husk altid at bruge den absolutte URL:

<link rel=”canonical” href=”https://domain.dk/seo/duplicate-content” />

Parametre skaber duplicate content

Session id’er

Nogle websites, særligt webshops, tagger hver besøgende med session id’er, der gemmer oplysninger om brugeren. Session id’er tilføjer normalt en lang streng til URL’en.

  • domain.dk/index.jsp;jsessionid=37D3DDD4D9A6A9F3CF9AAD4F3A718F44
  • domain.dk/side?sessid=jes23kDmeel3231Dnfjsk

Anbefalede Løsninger

Cookies: I stedet for at bruge session id’er i dine URL’er, gemmer du sessioninformationerne i en cookie på brugerens computer. Hver gang der anmodes om en side, kan serveren kontrollere cookien for at se, om at sessioninformationen er gemt. Serveren skal dog ikke kræve cookies, da du ellers kan løbe ind i andre problemer.

Undlad session id’er: Bed din programmør om at undlade session id’er, hvis enheden der anmoder om websiden er en søgemaskine. Serveren leverer altså den samme side til søgemaskinen, men tildeler ikke et session id. Søgemaskinen kan dermed crawle hele websitet uden brug af session id’er. Den proces kaldes også for levering af brugeragent, hvor brugeragenten svarer til enheden – browser, googlebot eller et andet program – der anmoder om en side.

Kanonisering: Brug et rel canonical tag fra sidens URL’er med session ID’er til den SEO-venlige version uden session ID’er. Husk at bruge den absolutte URL:

<link rel=”canonical” href=”https://domain.dk” />

Flere websiteversioner

Nogle websites har ikke bare duplikerede versioner af den samme side men også af det samme website.

Problemet opstår hvis “WWW” versionen af dit website ikke omdirigerer til “ikke-WWW” versionen eller omvendt. Det samme kan ske hvis “HTTP” protokollen ikke omdirigerer til “HTTPS”. Dette kan skabe mange variationer af dit website:

  • https://www.domain.dk (HTTPS, www)
  • https://domain.dk (HTTPS, ikke-www)
  • http://www.domain.dk (HTTP, www)
  • http://domain.dk (HTTP, ikke-www)

Hvis ikke din server er konfigureret korrekt, så vil dit website være tilgængelig fra 2 eller flere af ovenstående variationer, hvilket kan skabe duplicate content.

Husk at du skal have et SSL certifikat installeret på dit website, når du bruger HTTPS. Ellers får du en “ikke sikker” besked.

Anbefalede Løsninger

Redirect: Hvis dit website kun skal være tilgængelig på HTTPS og WWW, så skal du sørge for at omdirigere de øvrige versioner til et samme sted. Dette gøres med et 301 redirect, der fortæller søgemaskinerne at siden er permanent flyttet.

Apache server:

Redirect hele domænet fra ikke-www til www:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^domain.dk [NC]
RewriteRule ^(.*)$ http://www.domain.dk/$1 [L,R=301,NC]

Redirect hele domænet fra www til ikke-www:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.domain.dk [NC]
RewriteRule ^(.*)$ http://domain.dk/$1 [L,R=301,NC]

Redirect hele domænet fra HTTP til HTTPS:

RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

Redirect hele domænet fra ikke-www til www og HTTP til HTTPS:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\. [NC]
RewriteRule ^ https://www.%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteCond %{HTTPS} off
RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

Husk at ændre “domain.dk” i ovenstående kode før brug.

Store og små bogstaver

Google ser URL’er med små og store bogstaver som forskellige. Det betyder f.eks., at nedenstående URL’er betragtes som forskellige sider:

  • domain.dk/side
  • domain.dk/Side
  • domain.dk/SIDE

Bedste praksis er derfor, at tvinge dine URL’er til at bruge små bogstaver og samtidig sikre, at alle dine interne links også bruger små bogstaver.

Anbefalede Løsninger

Redirect: Brug et 301 redirect til at omdirigere alle URL’er med store bogstaver til små bogstaver.

Store og små bogstaver i URL'er skaber duplicate content

Apache server:

RewriteEngine On
RewriteRule [A-Z] – [E=HASCAPS:TRUE,S=1]
RewriteRule ![A-Z] – [S=28]
RewriteRule ^([^A]*)A(.*)$ $1a$2
RewriteRule ^([^B]*)B(.*)$ $1b$2
RewriteRule ^([^C]*)C(.*)$ $1c$2
RewriteRule ^([^D]*)D(.*)$ $1d$2
RewriteRule ^([^E]*)E(.*)$ $1e$2
RewriteRule ^([^F]*)F(.*)$ $1f$2
RewriteRule ^([^G]*)G(.*)$ $1g$2
RewriteRule ^([^H]*)H(.*)$ $1h$2
RewriteRule ^([^I]*)I(.*)$ $1i$2
RewriteRule ^([^J]*)J(.*)$ $1j$2
RewriteRule ^([^K]*)K(.*)$ $1k$2
RewriteRule ^([^L]*)L(.*)$ $1l$2
RewriteRule ^([^M]*)M(.*)$ $1m$2
RewriteRule ^([^N]*)N(.*)$ $1n$2
RewriteRule ^([^O]*)O(.*)$ $1o$2
RewriteRule ^([^P]*)P(.*)$ $1p$2
RewriteRule ^([^Q]*)Q(.*)$ $1q$2
RewriteRule ^([^R]*)R(.*)$ $1r$2
RewriteRule ^([^S]*)S(.*)$ $1s$2
RewriteRule ^([^T]*)T(.*)$ $1t$2
RewriteRule ^([^U]*)U(.*)$ $1u$2
RewriteRule ^([^V]*)V(.*)$ $1v$2
RewriteRule ^([^W]*)W(.*)$ $1w$2
RewriteRule ^([^X]*)X(.*)$ $1x$2
RewriteRule ^([^Y]*)Y(.*)$ $1y$2
RewriteRule ^([^Z]*)Z(.*)$ $1z$2
RewriteRule [A-Z] – [N]
RewriteCond %{ENV:HASCAPS} TRUE
RewriteRule ^/?(.*) /$1 [R=301,L]

Sørg også for at være konsekvent med måden du linker til dine sider på. Brug altid små bogstaver dine links HREF-attribut.

stråstreg og ikke-stråstreg

Google behandler URL’er med og uden afsluttende skråstreg som unikke. Det betyder f.eks. at nedenstående URL’er ses som 2 forskellige sider:

  • domain.dk/side/
  • domain.dk/side

Hvis dit indhold er tilgængelig på begge URL’er, så kan det derfor lede til duplicate content-problemer.

Her er det bedste praksis, at omdirigere den ene URL-version til den anden, hvilket Google også har bekræftet. Du skal derfor gøre op med dig selv, om du vil bruge en afsluttende skråstreg eller ej.

Anbefalede Løsninger

Redirect: Brug et 301 redirect til at omdirigere URL’er med eller uden skråstreg. Det er op til dig hvilken URL-version du foretrækker.

Skråstreg og ikke-skråstreg i URL'er skaber duplicate content

Apache server:

Skråstreg til ikke-skråstreg URL:

RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)/$ /$1 [L,R=301] 

Ikke-skråstreg til skråstreg URL:

RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule ^(.*[^/])$ /$1/ [L,R=301]

Printvenlige URL’er

Printvenlige versioner er opbygget af det samme indhold som den originale side. Det er med andre ord kun URL’en der er forskellige:

  • domain.dk/side (original)
  • domain.dk/print/side (printvenlig URL)
  • domain.dk/side?print=1 (printvenlig URL)

Anbefalede Løsninger

Kanonisering: Brug et rel canonical tag fra sidens printvenlige URL til den originale URL.

Printvenlige URL'er skaber duplicate content

Search Console: Såfremt dine printvenlige versioner bruger en parameter (f.eks. print=1), så kan du også blokere denne parameter i Search Console. Dette skal ses som en alternativ løsning til kanonisering.

Mobilvenlige URL’er

Mobilvenlige URL’er er ligesom printvenlige URL’er, duplikerede. Her får desktop og mobile sider forskellige URL’er:

  • domain.dk/side
  • m.domain.dk/side

Anbefalede Løsninger

Anmærkning: For at hjælpe Google med at forstå dine separate mobile URL’er og fortælle at desktop-versionen er din original, så er du nød til, at implementere anmærkninger til begge versioner.

På desktopsiden tilføjer du et alternate-tag, der linker til din mobilside:

<link rel=”alternate” media=”only screen and (max-width: 640px)”
href=”https://m.domain.dk/side” />

Og på mobilsiden tilføjer du et canonical-tag, der linker til desktopsiden:

<link rel=”canonical” href=”https://www.domain.dk/side” />

Responsivt webdesign: I stedet for at køre med separate mobile URL’er, anbefaler vi stærkt et responsivt webdesign. Denne konfiguration er både nemmere at implementere, vedligeholde og ændrer ikke ved nogle URL’er. Et responsivt webdesign er også Googles foretrukne konfiguration.

AMP URL’er

Accelerated Mobile Pages (AMP) betragtes som duplicate content, hvis ikke det bliver håndteret korrekt:

  • domain.dk/side
  • domain.dk/amp/side

Anbefalede Løsninger

Anmærkning: For at hjælpe Google med at finde dine AMP-sider og forstå at ikke-AMP-versionen er din original, så er der nød til, at implementere anmærkninger til begge versioner.

På ikke-AMP-siden tilføjer du et amphtml-tag, der linker til din AMP-side:

<link rel=”amphtml” href=”https://www.domain.dk/amp/side” />

Og på AMP-siden tilføjer du et canonical-tag, der linker til ikke-AMP-siden:

<link rel=”canonical” href=”https://www.domain.dk/side” />

Hvis du kun har én side og denne side er en AMP-side, så skal du tilføje et canonical-tag, der blot peger på selvsamme URL:

<link rel=”canonical” href=”https://www.domain.dk/amp/side” />

Tag og kategorisider

Hvis du bruger WordPress, så har du måske bemærket, hvor nemt det er at oprette tags og kategorier, der har til formål at organisere dit indhold. Derudover kan de medvirke til en bedre brugeroplevelse.

Hvis du f.eks. har en artikel omkring jeans og du knytter tags så som “tøj” og “bukser” til artiklen, så vil du ende op med 2 tag-sider:

  • domain.dk/tag/toej/jeans/
  • domain.dk/tag/bukser/jeans/

Dette kan både generere sider med delvist identisk indhold eller endda en helt identisk side, hvis det er den eneste artikel der gør brug af ovenstående tags.

Anbefalede Løsninger

Noindex: Fordi tag- og kategorisider består af delvist duplicate content og bidrager med lidt til ingen værdi, så anbefaler vi at tilføje et noindex tag til disse sider:

<meta name=”robots” content=”noindex” />

Tag og kategorisider skaber duplicate content

Og har du ikke brug for tags, så er det bedre helt at deaktivere dem. Dette vil dedikere mere crawl budget til vigtigere sider.

URL’er til vedhæftede billeder

Flere CMS-systemer genererer dedikerede sider til billedevedhæftede filer. Hvis du har et billede der hedder duplicate-content-2024.png, så kan du få en side så som:

  • domain.dk/duplicate-content-2024/

Disse sider viser normalt ikke andet end billedet og en duplikeret tekst – f.eks. en billedebeskrivelse eller standardbeskrivelse.

Fordi denne tekst er gennemgående på mange autogenererede sider, så leder det til dupletter foruden en masse spildt crawl budget.

Anbefalede Løsninger

Deaktiver URL’er til vedhæftede billeder: Den anbefalet løsning på dette problem er simpelhen, at deaktivere URL’er til vedhæftee billeder. Bruger du WordPress, så kan du gøre dette med et plugin så som Yoast SEO.

PDF filer

Hvis du f.eks. bruger de samme tekster i dine PDF-filer som på dine HTML-sider, så kan du risikere, at det er dine PDF-filer som bliver vist i søgeresultaterne fremfor dine sider.

Udover duplicate content, så kan det gå ud over brugeroplevelsen på dit website og i sidste ende dine konverteringer.

Anbefalede Løsninger

Robots.txt: Den anbefalet løsning på dette problem er, at lægge alle dine PDF’er i den samme mappe. Herefter kan du blokere adgangen til mappen med et robots.txt direktiv.

Kanonisering: Du kan også sende en rel=canonical-header på hver PDF-fil, som så peger på HTML-siden med den duplikeret tekst:

Link: <http://www.domain.dk/side/>; rel=”canonical”

Listeopdelte kommentarer

CMS-systemer så som WordPress tillader listeopdelte kommentarer. Dette kan skabe duplikeret indhold, da det skaber flere versioner af den samme URL:

  • domain.dk/blog/indlaeg/
  • domain.dk/blog/indlaeg/kommentar-side-2
  • domain.dk/blog/indlaeg/kommentar-side-3

Anbefalede Løsninger

Deaktiver listeopdelte kommentarer: Den foretrukne løsning på dette er, at deaktivere listeopdelte kommentarer. I WordPress gøres dette nemt med et plugin så som Yoast SEO.

Lokalisering

Publicerer du indhold til folk i forskellige lokaliteter, der taler samme sprog, så kan det give problemer med duplicate content.

Af eksempel kan nævnes folk som bor i Storbritannien, USA og Australien. Selvom der måske er minimale forskelle i indholdet, som udgives under hvert land, så vil versionerne stort set være identiske.

I dette tilfælde bør du fortælle Google om lokaliserede versioner, hvilket du gør med hreflang tags på dine sider.

Anbefalede Løsninger

Hreflang: Brug hreflang tags til at fortælle søgemaskinerne, relationen imellem lande og sprog. I tilfælde af at du samler sprogene på et .com domæne:

<link rel=”alternate” hreflang=”en-gb” href=”https://domain.com/uk/side” />
<link rel=”alternate” hreflang=”en-us” href=”https://domain.com/us/side” />
<link rel=”alternate” hreflang=”en-au” href=”https://domain.com/au/side” />

Husk også returlinks. Hvis side A linker til side B, så skal side B også linke til side A. Sprogkoderne du anvender skal være i ISO 639-1-format og eventuelt regionen ISO 3166-1 Alpha 2-format. Tagget er ikke gyldigt med kun angivelse af region.

Derudover skal du på alle sprogversioner, sætte en standardside, som ikke er målrettet noget sprog eller land:

<link rel=”alternate” hreflang=”x-default” href=”https://domain.com” />

Søgeresultatsider

Har du et internt søgefelt på dit website, så er der en chance for, at den autogenererer dupletter. Interne søgeformularer fører typisk brugeren en til ny URL, som består af en eller flere parametre:

  • domain.dk/search?q=soegeterm

Googles tidligere chef for webspam, Matt Cutts, har også udtalt, at web-søgeresultater ikke tilføjer meget værdi for brugerne. Og fordi deres mål er at give brugerne de bedst mulige resultater, så udelukker Google generelt søgeresultater fra deres indeks.

Anbefalede Løsninger

Noindex: For at fjerne interne søgeresultatsider fra Googles indeks, anbefaler vi at tilføje et noindex tag til disse sider. Dette er den foretrukne løsning:

<meta name=”robots” content=”noindex” />

Søgeresultatsider skaber duplicate content

Robots.txt: Som en alternativ løsning til noindex, kan du blokere søgemaskinernes adgang til dine søgeresultatsider igennem et disallow-direktiv i din robots.txt fil. Det er vigtigt, at du ikke både bruger noindex og robots.txt løsningen. Robots.txt løsningen fjerner heller ikke dine interne søgeresultater fra Googles indeks, men blokerer blot adgangen til dem, hvilket løser duplicate content-problemet. Nedenstående direktiv blokerer f.eks. alle URL’er der indeholder “/search?q=”:

User-agent: *
Disallow: /search?q=*

Search Console: Hvis dine interne søgeresultatsider tilføjer en parameter (f.eks. ?s=søgeterm), så kan du også blokere denne parameter i Search Console. Denne løsning kan bruges i stedet for en af ovenstående løsninger.

Undgå desuden at linke internt til dine søgeresultatsider fra andre sider.

udviklingssite og stagingmiljø

Et iscenesættende udviklingsmiljø eller udviklingssite er en duplikeret eller delvist duplikeret version af dit website, brugt til testformål. Det er f.eks. her du vil teste ny funktionalitet, før det rulles ud på dit produktionssite.

Det kan derfor skabe store SEO-problemer, hvis Google finder og indekserer siderne fra dit udviklingssite.

Anbefalede Løsninger

Begræns adgang: Password beskyt dit udviklingssite med HTTP authentication, IP-hvidlistning eller VPN-adgang. Er dit udviklingssite allerede blevet indekseret, så tilføj et noindex til alle siderne, for at få dem fjernet fra Googles indeks.

Sådan identificerer du duplicate content

Uanset hvilket website du driver, så kan duplicate content skabe store problemer for din synlighed i Google. I de næste afgang finder du flere metoder, som du kan bruge til at identificere duplicate content på dine sider.

Googles site: command

En af de nemmeste måder du kan identificere duplicate content på, er ved at kigge på hvor mange sider du har indekseret i Google. Dette kan du gøre ved at bruge site: kommandoen i Google, efterfuldt af dit roddomæne:

  • site:domain.dk

Google skulle nu returnere et antal sider, som bør matche det antal sider du manuelt har udgivet. Hvis antallet er meget højere, så ville vi vide, at mange sider blev tilføjet automatisk. Og så vil disse sider sandsynligvis indeholde en masse duplicate content.

Vil du grave dybere, så kan du også kombinere site: med andre såkaldte search operators som Google stiller til rådighed.

Forside: Hvis du ønsker at se om søgemaskinerne har indekseret kopier af din forside, så kan du kombinere “site” med “intitle” således:

  • site:domain.dk intitle:"hjemmesidens title"

Sortering: Hvis du vil identificere duplicate content i forbindelse med sortering på din hjemmeside, så kan du kombinere “site” med “inurl” således:

  • site:domain.dk inurl:sort=

Tekststreng: Hvis du ønsker at finde delvist duplicate content der indeholder en eksakt tekststreng, så kan du bruge:

  • site:domain.dk "find sider hvor denne tekst indgår"

Dette var blot nogle få eksempler på, hvordan du kan kombinere operatorer, med henblik på at identificere duplicate content på dit website.

Google Search Console

Du kan også bruge Google Search Console til at finde duplicate content.

Under rapporten Dækning kan du se, hvor mange gyldige sider dit website har. Dette skulle ligeledes gerne matche antallet af sider, som du har udgivet. Gør det ikke det, så har du med al sandsynlighed duplicate content.

Brug et Værktøj

Der findes flere værktøjer på markedet, der kan hjælpe dig med at identificere duplicate content. Her er nogle gratis og populære værktøjer, som vi kan anbefale til at identificere duplicate content på tværs af domæner:

  • Siteliner: Dette værktøj kan kontrollere hele dit website en gang om måneden for duplicate content. Det kan også tjekke for ødelagte links og identificere sider, der er mest prominente for søgemaskiner.
  • Copyscape: Dette værktøj kan hurtigt kontrollere det indhold, du har skrevet mod allerede offentliggjort indhold på få sekunder. Værktøjet fremhæver det indhold som er duplikeret og fortæller dig, hvilken procentdel af dit indhold, der matcher det allerede offentliggjorte indhold.
  • Plagspotter: Dette værktøj kan identificere dobbelt sider. Det er godt til at finde plagiere, som har stjålet dit indhold. Værktøjet gør det også muligt, at overvåge dine URL’er ugentligt, med henblik på at identificere duplicate content hurtigt.
  • Duplichecker: Dette værktøj scanner hurtigt originaliteten af det indhold, som du planlægger at publicere på dit website. Registrerede brugere kan køre op til 50 søgninger om dagen.

Og vil du grave dybere, så tilbyder disse værktøjer også flere muligheder til en overkommelig pris.

systematisk gennemgang

At identificere duplicate content kræver ofte lidt detektivarbejde. Prøv at navigere systematisk rundt på din hjemmeside, for at finde ud af, hvor CMS’en eventuelt skaber dobbelt indhold.

Benytter hjemmesiden nogle steder lister med sortering eller filtre? Genererer disse sortering og filtrene nye URL’er med parametre og bliver disse indekseret af søgemaskinerne? Dette kan skabe en masse delvist duplicate content.

Overvej også at grave lidt dybere med site: kommendoen i Google.

Teknisk SEO

Teknisk SEO

Lær mere

Godt gået! Du har nu læst guiden "Duplicate content" og er sikkert blevet meget klogere. Du er klar til at kaste dig over den næste lektion.

Flere emner

Linkbuilding

Linkbuilding

User Experience

User Experience

SEO værktøjer

SEO værktøjer