_space
Ordbog
SEO/SEO

Duplicate Content

Duplicate content opstår, når identisk eller næsten identisk indhold findes på flere URL'er — enten på jeres eget site eller på tværs af forskellige domæner. Det kan forvirre søgemaskiner og svække jeres SEO-placeringer.

Duplicate content refererer til indholdsblokke, der enten er fuldstændig identiske eller meget ens, og som findes på mere end en URL. Det kan forekomme internt (inden for jeres eget site) eller eksternt (det samme indhold på to forskellige domæner). Google betragter dette som et problem, fordi det gør det svært for søgemaskinen at afgøre, hvilken version der skal vises i søgeresultaterne — hvilket kan resultere i, at ingen af versionerne rangerer optimalt. Ifølge Moz er op til 29 % af alt webindhold duplikeret, og Googles egne data viser, at duplicate content er et af de mest udbredte tekniske SEO-problemer på internettet.

Intern duplicate content er den mest almindelige form og opstår ofte utilsigtet via tekniske konfigurationer. Typiske årsager inkluderer: URL-variationer (med/uden www, HTTP/HTTPS, med/uden trailing slash — f.eks. site.dk, www.site.dk, site.dk/ er tre forskellige URL'er for Google), parameteriserede URL'er (filtre og sortering i webshops der skaber tusindvis af URL-kombinationer som ?farve=roed&stoerrelse=M&sort=pris), printer-venlige versioner af sider, session-ID'er i URL'er, og produktbeskrivelser der bruges identisk på flere kategorisider. For webshops med tusindvis af produkter og mange filteringsparametre er dette en særligt udbredt og kritisk udfordring — en webshop med 2.000 produkter og 10 filterparametre kan teknisk set generere hundredtusindvis af duplikerede URL'er.

Google straffer normalt ikke duplicate content direkte med en manuel penalitet, men konsekvenserne er alligevel mærkbare og konkrete: crawl-budget spildes på duplikerede sider (Googlebot bruger ressourcer på at crawle variationer i stedet for unikt indhold), linkautoritet splittes mellem versionerne i stedet for at samles på en side (hvis 5 backlinks fordeles over 3 duplikerede URL'er, får ingen af dem fuld autoritet), og Google kan vælge at rangere en forkert version — eller ignorere alle versioner til fordel for en konkurrents unikke indhold. I værste fald kan det betyde, at jeres vigtigste produktsider eller landingssider aldrig når top 10, trods godt indhold og relevante backlinks.

Løsningen afhænger af årsagen til duplikeringen. Canonical tags (link rel='canonical') er den mest brugte løsning — de fortæller Google, hvilken version der er den primære, uden at fjerne de andre URL'er. 301-redirects omdirigerer permanent fra duplikerede URL'er til den kanoniske version og er den stærkeste løsning, da de også konsoliderer linkautoritet. Hreflang-tags hjælper med internationalt duplicate content, hvor samme produkt beskrives på dansk og svensk på to URL'er. Og robots.txt eller noindex-tags kan bruges til at blokere crawling eller indexering af unødvendige parameteriserede sider. For webshops anbefales det at kombinere canonical tags på filtererede sider med parameter-håndtering i Google Search Console.

Eksternt duplicate content opstår, når jeres indhold kopieres af andre sites (scraping, plagiat) eller når I bruger leverandørens standardtekster (f.eks. fabrikantens produktbeskrivelser der bruges af alle forhandlere). For den første situation kan I bruge Googles DMCA-værktøj til at rapportere kopiering. For den anden bør I skrive unikke produktbeskrivelser med jeres eget perspektiv, fordele og detaljer. Ahrefs' studie viser, at webshops med unikke produktbeskrivelser rangerer gennemsnitligt 4-6 positioner højere end dem med kopierede leverandørtekster. Brug værktøjer som Copyscape eller Siteliner til at identificere ekstern duplikering, og Screaming Frog til at finde intern duplikering via duplicate title tags, meta descriptions og indholdsblokke.

Vigtigste pointer

  • Forvirrer søgemaskiner — Google ved ikke hvilken version der skal rangeres, og op til 29 % af alt webindhold er duplikeret ifølge Moz.
  • Oftest utilsigtet og teknisk — URL-variationer, parametre, filtre og session-ID'er er de hyppigste årsager, særligt for webshops med mange produkter.
  • Splitter linkautoritet — Backlinks fordeles mellem duplikerede versioner; 5 links fordelt over 3 URL'er giver ingen af dem fuld autoritet.
  • Canonical tags er standardløsningen — link rel='canonical' fortæller Google hvilken URL der er den officielle version uden at fjerne andre URL'er.
  • Unikke produkttekster rangerer bedre — Webshops med unikke beskrivelser rangerer 4-6 positioner højere end dem med kopierede leverandørtekster.

Duplicate content i praksis

En dansk webshop med 2.000 produkter opdager, at hvert produkt kan tilgås via 4 URL'er: /produkter/sko/nike-air, /produkter/nike-air, /sko?id=123 og /nye-varer/nike-air. Screaming Frog-audit afslører 8.000 duplikerede URL'er og 1.200 duplikerede title tags. Google indexerer alle varianter og splitter linkautoriteten — 85 backlinks til produktsider fordeles over 340 URL'er. Organisk trafik er skuffende trods gode backlinks. Teamet implementerer en tre-delt løsning: (1) canonical tags på alle sekundære URL'er der peger på den primære /produkter/sko/nike-air variant, (2) fjerner de overflødige URL'er fra XML-sitemappet, og (3) skriver 200 unikke produktbeskrivelser til deres topsælgere i stedet for leverandørens standardtekst. Over 8 uger konsolideres autoriteten, og produktsiderne stiger gennemsnitligt 8 positioner i Google. Organisk trafik øges 42 %.

OFTE STILLEDE SPØRGSMÅL

Kontakt os og få en konkret vurdering af, hvor jeres performance kan styrkes.

Kontakt os