Teknisk SEO for begyndere — Alt du behøver at vide
Hvad er teknisk SEO?
Teknisk SEO handler om at sikre, at søgemaskiner kan finde, crawle, forstå og indeksere dine sider korrekt. Det er det usynlige fundament under alt dit indhold og alle dine søgeord.
Du kan skrive det bedste indhold i verden — men hvis Google ikke kan crawle dine sider, vil ingen nogensinde finde det.
Den gode nyhed: du behøver ikke være udvikler for at forstå teknisk SEO. Denne guide dækker de vigtigste koncepter i et sprog alle kan forstå.
Crawling — Hvordan Google finder dine sider
Google bruger "crawlers" (også kaldet "spiders" eller "bots") der besøger sider på internettet ved at følge links. Processen:
- Googles crawler besøger en side
- Den finder links til andre sider
- Den tilføjer de nye links til sin kø
- Den besøger de nye sider og gentager processen
Crawl-budget
Google bruger ikke uendelig tid på dit site. Crawl-budgettet er det antal sider Google vælger at crawle inden for en given periode. For små sites (under 10.000 sider) er det sjældent et problem. For større sites kan du optimere dit crawl-budget ved at:
- Fjerne eller noindex'e sider med lavt indhold
- Fixe fejl der spilder crawl-budget (404-fejl, redirect-kæder)
- Sørge for at vigtige sider er lette at finde via interne links
Indeksering — Fra crawl til søgeresultat
Når Google har crawlet en side, beslutter den om den skal indekseres — altså optages i Googles database af sider der kan vises i søgeresultaterne.
Hvorfor bliver en side ikke indekseret?
- noindex-tag — Du har bedt Google om ikke at indeksere den
- Canonical peger andetsteds — Google ser siden som en duplikat
- Tyndt indhold — For lidt indhold til at være nyttigt
- Crawl-fejl — Google kan ikke tilgå siden
- Kvalitetsproblemer — Siden opfylder ikke Googles kvalitetskrav
Tjek indeksering
I Google Search Console kan du bruge URL-inspektion til at se status for enhver side. Du kan også søge site:ditdomæne.dk/side-url for at se om den er indekseret.
Sitemap — Dit kort til Google
Et XML-sitemap er en fil der lister alle de sider du ønsker Google skal kende til. Det er ikke et krav, men det hjælper Google med at finde sider hurtigere — især nye sider eller sider med få interne links.
Format
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://ditdomæne.dk/</loc>
<lastmod>2026-04-10</lastmod>
<priority>1.0</priority>
</url>
</urlset>
Best practices
- Inkluder kun sider du vil have indekseret
- Hold
opdateret (brug den rigtige ændringsdato, ikke dagens dato) - Indsend dit sitemap i Google Search Console
- For store sites: brug sitemap-indeks der refererer til flere sitemaps
- Maksimum 50.000 URL'er per sitemap
Robots.txt — Hvem må crawle hvad
robots.txt er en fil i roden af dit site der fortæller crawlere, hvilke dele af dit site de må besøge.
Eksempel
User-agent: *
Allow: /
Disallow: /admin/
Disallow: /api/
Sitemap: https://ditdomæne.dk/sitemap.xml
Vigtigt at vide
robots.txtforhindrer crawling, ikke indeksering. Hvis andre sider linker til en blokeret side, kan Google stadig indeksere den (bare uden at kende indholdet).- Brug noindex til at forhindre indeksering.
- Test din robots.txt i Google Search Console under "robots.txt Tester".
- Blokér aldrig CSS eller JavaScript-filer — Google har brug for dem til at rendere din side.
HTTPS — Sikkerhed som standard
HTTPS krypterer kommunikationen mellem brugerens browser og din server. Det er en rankeringsfaktor, og browsere markerer HTTP-sider som "Ikke sikker".
Tjekliste:
- SSL-certifikat installeret og gyldigt
- Alle HTTP-URL'er redirecter til HTTPS (301-redirect)
- Ingen "mixed content" (HTTPS-sider der loader HTTP-ressourcer)
- Sitemap og canonical-tags bruger HTTPS-URL'er
Strukturerede data — Tal Googles sprog
Strukturerede data (Schema.org-markup) er kode der hjælper Google med at forstå indholdet på dine sider. Det kan give dig rich snippets i søgeresultaterne — stjerner, priser, FAQ-sektioner, events og mere.
Almindelige typer
- Article — Blogindlæg og artikler
- Product — Produkter med pris og tilgængelighed
- FAQPage — Ofte stillede spørgsmål
- LocalBusiness — Fysiske virksomheder med adresse og åbningstider
- Organization — Virksomhedsinfo, logo, kontakt
Du kan validere din markup med Googles Rich Results Test.
Canonical-tags — Undgå duplikeret indhold
Canonical-tags fortæller Google, hvilken version af en side der er den autoritative. Brug dem når det samme indhold er tilgængeligt via flere URL'er.
Typiske scenarier:
- URL-parametre:
?sort=pricevs.?sort=namevs. ingen parameter - HTTP vs. HTTPS
- www vs. non-www
- Trailing slash vs. ingen trailing slash
Redirect-regler
- 301 — Permanent redirect. Overfører linkjuice. Brug ved permanente URL-ændringer.
- 302 — Midlertidig redirect. Overfører ikke linkjuice. Brug kun ved midlertidige situationer.
- Undgå redirect-kæder — A → B → C → D er dårligt. Redirect direkte fra A → D.
- Undgå redirect-loops — A → B → A crasher crawleren.
Hreflang — Flersprogede sites
Hvis dit site findes på flere sprog, bruger du hreflang-tags til at fortælle Google hvilke sprogversioner der hører sammen. Det sikrer at den rigtige sprogversion vises i det rigtige land.
De 5 mest kritiske tekniske fejl
- Blokeret af robots.txt — Vigtige sider Google ikke kan crawle
- Manglende sitemap — Google kender ikke alle dine sider
- Langsom server — TTFB over 1 sekund dræber performance
- Redirect-kæder — Spilder crawl-budget og forvirrer Google
- Duplikeret indhold uden canonical — Google ved ikke hvilken version der er den rigtige
Automatisér det tekniske
Teknisk SEO kræver løbende overvågning. Problemer kan opstå når som helst — en opdatering kan bryde dit sitemap, en ny side kan mangle canonical-tag, en ændring kan gøre sider langsommere.
En automatiseret SEO-analyse finder tekniske problemer, før de påvirker din rangering. Kør en gratis analyse og se om dit tekniske fundament er på plads.