Umfassender Leitfaden zu URL-Parametern für SEO

URL-Parameter sind zusätzliche Elemente, die an eine URL angehängt werden. Sie dienen dazu, Inhalte zu filtern, zu ordnen oder Informationen auf einer Webseite zu verfolgen.

Allerdings können URL-Parameter auch SEO-Probleme verursachen, wie z.B. doppelten Inhalt oder Schwierigkeiten mit dem Crawl-Budget. Dieser Leitfaden erklärt alles Wichtige zu parametrisierten URLs und wie man damit umgeht.

Bevor wir uns mit URL-Parametern auseinandersetzen, ist es wichtig zu verstehen, was eine URL eigentlich ist.

URL ist eine Abkürzung für „Uniform Resource Locator“ und fungiert als die Adresse einer Webseite. Gibt man eine URL in die Such- oder Adressleiste einer Suchmaschine ein, gelangt man zur entsprechenden Website oder Unterseite.

Eine URL besteht typischerweise aus fünf grundlegenden Bestandteilen.

https://www.deineSeite.de/blog/url-parameter

Im obigen Beispiel setzen sich die URL-Bestandteile wie folgt zusammen:

#1. Protokoll

„https://“ oder „http://“ sind Regeln für die Übertragung von Dateien über das World Wide Web.

#2. Domain

Eine Domain ist der Name Ihrer Webseite und repräsentiert die Organisation oder Person, die die Webseite betreibt. Im obigen Beispiel ist „deineSeite“ der Domainname.

#3. Subdomain

Subdomains dienen der Strukturierung Ihrer Webseite. Eine gängige Subdomain ist „www.“. Bei Bedarf können Sie mehrere Subdomains anlegen, um unterschiedliche Inhalte auf derselben Webseite anzubieten.

Unternehmen verwenden oft Subdomains wie „shop.domain.de“ oder „blog.domain.de“.

#4. TLD

Die Top-Level-Domain (TLD) ist der Abschnitt, der auf Ihre Domain folgt. Beispiele für häufige TLDs sind „.com“, „.de“, „.org“ oder „.net“.

#5. Pfad

Der Pfad bezeichnet den genauen Speicherort der gewünschten Informationen oder Inhalte. Im obigen Beispiel wäre der Pfad „blog/url-parameter“.

Diese Struktur zeigt, wie jeder Bestandteil die Informationsabfrage ermöglicht.

Aber wussten Sie, dass eine URL Ihnen auch dabei helfen kann, Informationen zu und von einer Website zu übertragen?

Ja, genau!

Hier kommen die URL-Parameter ins Spiel.

Was genau sind URL-Parameter?

Sind Ihnen schon einmal Sonderzeichen in einer URL aufgefallen, wie das Fragezeichen (?), das Gleichheitszeichen (=) oder das kaufmännische Und (&)?

Nehmen wir an, Sie suchen nach dem Begriff „Marketing“. Die zugehörige URL könnte wie folgt aussehen:

www.deineSeite.de/suche?q=marketing

Die Zeichenkette, die in der URL nach dem Fragezeichen folgt, wird als „URL-Parameter“ oder „Abfragestring“ bezeichnet. Das Fragezeichen dient dazu, die URL zu unterteilen und den Abfragestring zu identifizieren.

URL-Parameter werden häufig auf Webseiten mit umfangreichen Datenmengen oder auf Webseiten verwendet, auf denen man Produkte filtern oder sortieren kann, wie z. B. in Online-Shops oder E-Commerce-Plattformen.

URL-Parameter bestehen aus Schlüssel-Wert-Paaren, die durch ein Gleichheitszeichen (=) getrennt werden, während mehrere Paare durch ein kaufmännisches Und (&) miteinander verbunden sind.

Der Wert repräsentiert die eigentlichen Daten, die Sie übermitteln, und der Schlüssel gibt den Datentyp an.

Angenommen, Sie suchen nach einem Produkt auf einer E-Commerce-Website.

Die entsprechende URL lautet:

https://www.deineSeite.de/schuhe

Wenn Sie nun die Schuhe nach Farbe filtern möchten, wird ein URL-Parameter hinzugefügt:

https://www.deineSeite.de/schuhe?farbe=schwarz

(Hier ist „farbe“ der Schlüssel und „schwarz“ der Wert)

Möchten Sie die Suchergebnisse nach neuen Produkten sortieren, wird folgender Parameter hinzugefügt:

https://www.deineSeite.de/schuhe?farbe=schwarz&sortierung=neueste

URL-Parameter sind für SEO wertvoll, können Suchmaschinen aber auch verwirren, wenn sie verschiedene Versionen derselben Seite erfassen. Dies führt zu doppelten Inhalten und kann Ihre Chancen auf ein gutes Ranking in den Google-Suchergebnissen beeinträchtigen.

Lassen Sie uns lernen, wie Sie URL-Parameter korrekt einsetzen, um mögliche SEO-Probleme zu vermeiden.

Wie verwendet man URL-Parameter?

URL-Parameter werden genutzt, um Ihre Webseite auszuwerten und das Nutzerverhalten zu verfolgen.

Hier eine Liste mit 11 verschiedenen URL-Parametern:

#1. Tracking

UTM-Codes dienen dazu, den Traffic von bezahlten Kampagnen und Anzeigen zu verfolgen.

Beispiel: ?utm_medium=video15 oder ?sessionid=173

#2. Sortierung

Artikel werden nach bestimmten Kriterien sortiert.

Beispiel: ?sort=beste_bewertungen oder ?sort=niedrigster_preis

#3. Übersetzung

Die URL-Zeichenkette sollte den Namen der ausgewählten Sprache enthalten.

Beispiel: ?lang=en oder ?sprache=de

#4. Suche

Um Ergebnisse auf der Webseite zu finden.

Beispiel: ?q=suchbegriff oder ?suche=auswahloption

#5. Filter

Zum Filtern nach bestimmten Kriterien, wie z. B. Typ, Veranstaltung, Region usw.

Beispiel: ?typ=shirt, farbe=schwarz oder ?preisbereich=10-20

#6. Paginierung

Zur Unterteilung von Inhalten auf mehreren Seiten in Online-Shops.

Beispiel: ?seite=3 oder ?seitenindex=3

#7. Identifizierung

Zum Ordnen von Galerien nach Größe, Kategorie usw.

Beispiel: ?produkt=weisses-shirt oder ?kategorie=formell oder ?produkt-id=123

#8. Affiliate-IDs

Eindeutige Kennungen zur Verfolgung von Affiliate-Links.

Beispiel: ?id=12345

#9. Werbe-Tags

Zur Verfolgung der Leistung von Werbekampagnen.

Beispiel: ?utm_source=email-kampagne

#10. Sitzungs-IDs

Um das Nutzerverhalten auf der Webseite zu verfolgen. Wird häufig von E-Commerce-Webseiten genutzt, um die Customer Journey zu analysieren.

?sessionid=4321

#11. Video-Zeitstempel

Um zu einem bestimmten Zeitpunkt in einem Video zu springen.

?t=60

Werfen wir nun einen Blick auf die Probleme, die durch parametrisierte URLs entstehen können.

Größere SEO-Probleme durch URL-Parameter

Eine gut strukturierte URL hilft Nutzern, die Hierarchie Ihrer Webseite zu verstehen. Bei übermäßigem Gebrauch von Parametern können jedoch SEO-Probleme entstehen.

Hier sind einige der häufigsten Probleme, die durch URL-Parameter verursacht werden:

Verschwendung von Crawl-Budget

Wenn Ihre Webseite viele parameterbasierte URLs enthält, crawlt Google verschiedene Versionen derselben Seite. Das führt dazu, dass der Crawler entweder mehr Bandbreite verbraucht oder gar nicht mehr crawlt, weil er den Inhalt als minderwertig einstuft.

Doppelte Inhalte

Parameter veranlassen Suchmaschinen-Bots, verschiedene Versionen derselben Webseite zu crawlen. Dies führt dazu, dass verschiedene URLs mit unterschiedlichen Parametern indexiert werden, was letztendlich zu doppelten Inhalten führt.

Wenn Ihre Webseite Nutzern die Möglichkeit bietet, Inhalte nach Preis oder Funktionen zu sortieren, schränken diese Optionen die Ergebnisse lediglich ein, anstatt den Inhalt der Seite zu ändern.

Um dies besser zu verstehen, betrachten wir folgendes Beispiel:

https://www.deineSeite.de/schuhe

https://www.abc.de/schuhe?kategorie=sneakers&farbe=weiss

https://www.abc.de/schuhe?kategorie=sneakers&typ=herren&farbe=weiss

Hier sind alle drei URLs verschiedene Versionen derselben Webseite, die von Suchmaschinen-Bots als separate URLs betrachtet werden. Die Bots crawlen und indexieren alle Versionen, was zu Problemen mit doppelten Inhalten führt.

Keyword-Kannibalisierung

Wenn mehrere Seiten auf die gleichen Keywords abzielen, spricht man von Keyword-Kannibalisierung. Dies schadet Ihrer SEO, da die Seiten Ihrer Webseite miteinander konkurrieren.

Die Kannibalisierung von Keywords führt zu einer geringeren CTR, weniger Autorität und niedrigeren Konversionsraten im Vergleich zu einer einzelnen, konsolidierten Seite.

In diesem Szenario haben Suchmaschinen Schwierigkeiten, zu entscheiden, welche Seite für eine Suchanfrage gerankt werden soll. Dies kann dazu führen, dass eine „falsche“ oder „unerwünschte“ Seite für den Begriff rankt und letztendlich aufgrund von Benutzersignalen ein niedriges Ranking erhält.

Geringere Klickbarkeit

URLs mit Parametern sehen oft unschön aus und sind schwer zu lesen. Weniger transparente URLs werden oft als nicht vertrauenswürdig angesehen und daher weniger angeklickt.

Zum Beispiel:

URL 1: https://www.deineSeite.de/schuhe

URL 2: https://www.deineSeite.de/schuhe?katID=1256&typ=weiss

Hier wirkt URL 2 im Vergleich zu URL 1 eher wie Spam und weniger vertrauenswürdig. Nutzer klicken daher seltener auf diese URL, was die CTR verringert und das Ranking sowie die Domain-Autorität beeinträchtigt.

SEO-Best-Practices für den Umgang mit URL-Parametern

Nachdem wir nun geklärt haben, wie URL-Parameter Ihrer SEO schaden können, betrachten wir, wie Sie dies vermeiden können, indem Sie bei der Erstellung von URL-Parametern ein paar Änderungen vornehmen.

Statische URL-Pfade gegenüber dynamischen Pfaden bevorzugen

Statische und dynamische URLs sind zwei verschiedene URL-Typen, die jeweils ihre Funktion für Webseiten haben. Dynamische URLs werden für SEO nicht als ideal angesehen, da es für Suchmaschinen schwieriger ist, dynamische im Vergleich zu statischen URLs zu indexieren.

Es wird empfohlen, die Parameter-URLs mithilfe von serverseitigem Rendering in Unterordner-URLs umzuwandeln. Dies ist jedoch auch keine ideale Lösung für alle dynamischen URLs. URLs, die zum Beispiel für Preisfilter generiert werden, können möglicherweise keinen SEO-Wert hinzufügen. Wenn sie indexiert werden, kann dies zu geringem Content führen. In solchen Fällen sind dynamische URLs besser geeignet.

Dynamische URLs sind hilfreich für das Tracking; statische URLs sind manchmal keine ideale Option, um alle Parameter zu verfolgen.

Daher ist es immer ratsam, statische URL-Pfade zu verwenden, wenn eine Seite indexiert werden soll, und dynamische URLs, wenn eine Seite nicht indexiert werden soll. URL-Parameter, die nicht indexiert werden müssen, können als dynamische URLs verwendet werden (z. B. für Tracking, Sortierung, Filterung und Paginierung), andere als statische URLs.

Konsistenz in parametrisierten URLs

Parameter-URLs sollten korrekt angeordnet sein, um SEO-Probleme wie leere Werte in Parameter-URLs, unnötige Parameter in der URL und wiederholte Schlüssel zu vermeiden.

URLs sollten in einer konstanten Reihenfolge stehen, um Probleme wie die Verschwendung von Crawl-Budget und die Aufteilung von Ranking-Signalen zu vermeiden.

Zum Beispiel:

https://deineSeite.de/produkt/gesichtsreinigung/rose?key2=wert2&key1=wert1

https://deineSeite.de/produkt/gesichtsreinigung/rose?key1=wert1&key2=wert2

In der obigen Sequenz werden die Parameter neu angeordnet. Suchmaschinen-Bots nehmen diese URLs als getrennt wahr und crawlen sie zweimal.

Bei einer konsistenten Reihenfolge:

https://deineSeite.de/produkt/gesichtsreinigung/rose?key1=wert1&key2=wert2

https://deineSeite.de/produkt/gesichtsreinigung/rose?key1=wert1&key2=wert2

Der Entwickler sollte genaue Anweisungen zur Anordnung der Parameter-URLs in einer konstanten Reihenfolge erhalten, um SEO-Probleme zu vermeiden.

Implementieren Sie Canonical-Tags

Canonical-Tags können implementiert werden, um doppelte Inhalte zu vermeiden. Canonical-Tags auf Parameterseiten sollten auf die Hauptseite verweisen, die Sie indexieren möchten. Wenn Sie Canonical-Tags zu parametrisierten URLs hinzufügen, wird die Hauptseite als kanonisch gekennzeichnet. Daher indexieren Crawler nur Ihre bevorzugte Seite.

Verwenden Sie Robot.txt Disallow

Mit Robot.txt können Sie Crawler steuern und Suchmaschinen mitteilen, welche Seiten gecrawlt und welche ignoriert werden sollen.

Indem Sie „Disallow: /*?*“ in Ihrer robot.txt-Datei verwenden, blockieren Sie Seiten mit URL-Parametern, die doppelte Inhalte verursachen. Stellen Sie sicher, dass Sie den Abfragestring für die Hauptseite korrekt kanonisieren.

Konsistent mit interner Verlinkung

Nehmen wir an, Ihre Webseite hat viele parameterbasierte URLs. Einige Seiten werden mit dofollow indexiert, andere nicht. Verlinken Sie also konsequent auf die nicht parametrisierten URLs. Indem Sie diese Methode konsequent befolgen, können Sie den Crawlern signalisieren, welche Seiten indexiert werden sollen und welche nicht.

Die interne Verlinkung ist auch von Vorteil für SEO, Inhalte und Traffic.

Wenn Sie eine E-Commerce-Webseite mit vielen Produktkategorien und Inhalten haben, kann die Paginierung dabei helfen, diese in mehrseitige Listen zu unterteilen. Die Paginierung Ihrer Webseiten-URLs kann die Benutzererfahrung verbessern. Erstellen Sie eine „Alle anzeigen“-Seite, die alle Ihre paginierten URLs enthält.

Fügen Sie das Tag „rel=canonical“ im Header-Bereich jeder paginierten Seite ein, die auf die „Alle anzeigen“-Seite verweist, um doppelte Inhalte zu vermeiden. Crawler behandeln diese Seiten dann als eine paginierte Serie.

Sie können jederzeit entscheiden, Ihre paginierten URLs nicht zur Sitemap hinzuzufügen, wenn Sie nicht möchten, dass sie gerankt werden. Die Crawler werden sie in jedem Fall von Ihrer „Alle anzeigen“-Seite indexieren. Dies kann auch Ihr Crawl-Budget reduzieren.

Hier sind einige Tools, die Ihnen helfen können, URL-Parameter zu überwachen und die SEO Ihrer Webseite zu verbessern:

Die Google Search Console

Mit dem Google Search Console-Tool können Sie Ihre Webseiten-URLs analysieren. Alle URLs, die derzeit Impressionen erhalten, können Sie im Reiter „Suchergebnisse“ einsehen. Hier können Sie einen Filter für Seiten-URLs anwenden, um die Liste der Seiten anzuzeigen.

Von dort aus setzen Sie einen Filter, um URLs mit Parametern zu identifizieren.

Google Analytics

Google behandelt URLs mit unterschiedlichen Parametern als separate Seiten. Google Analytics zeigt Seitenaufrufe für jeden URL-Parameter separat an.

Wenn Sie das nicht möchten, können Sie unter Admin > Ansichtseinstellungen > URL-Abfrageparameter ausschließen die Parameter aus Ihren Berichten entfernen und Seitenaufrufe mit den Zahlen für die primäre URL kombinieren.

Bing Webmaster Tool

Sie können URL-Parameter ausschließen, indem Sie unter „Meine Website konfigurieren“ > „URL-Parameter ignorieren“ Parameternamen hinzufügen. Bing Webmaster bietet jedoch keine erweiterten Optionen, um zu überprüfen, ob Parameter Inhalte verändern oder nicht.

Screaming Frog SEO Spider Crawl-Tool

Mit der kostenlosen Version können Sie bis zu 500 URLs crawlen, um Ihre Parameter zu überwachen. Mit der kostenpflichtigen Version können Sie eine unbegrenzte Anzahl von URL-Parametern überwachen.

Mit der Funktion „Parameter entfernen“ von Screaming Frog können Sie Parameter aus der URL entfernen.

Ahrefs Site-Audit-Tool

Das Ahrefs-Tool bietet auch eine Funktion zum Entfernen von URL-Parametern, um Ihre Parameter beim Crawlen Ihrer Webseite zu ignorieren. Sie können auch das Ignorieren von Parametern mit übereinstimmenden Mustern aktivieren.

Am Ende crawlt das Ahrefs-Site-Audit-Tool jedoch nur die kanonisierte Version Ihrer Seiten.

Deepcrawl

Eine leistungsstarke Cloud-Crawling-Software, die für große E-Commerce-Webseiten geeignet ist. Indem Sie im Feld „Parameter entfernen“ die Parameter hinzufügen, die Sie blockieren möchten, werden diese aus den URLs entfernt. Deepcrawl ermöglicht das Ändern und Entfernen von Parametern und das Umschreiben von URLs.

Fazit

URL-Parameter werden oft vernachlässigt, wenn es um die Webseiten-SEO geht. Durch die konsequente Pflege parametrisierter URLs können Sie Ihre SEO-Hygiene überwachen.

Um Probleme mit URL-Parametern zu lösen, muss das SEO-Team mit dem Webentwicklungsteam zusammenarbeiten und ihm klare Anweisungen zur Handhabung der Parameter geben. Parametrisierte URLs sollten nicht ignoriert werden, da sie Ihre Ranking-Signale und auch andere SEO-Probleme beeinflussen können.

Jetzt, da Sie verstehen, wie URL-Parameter Ihre Webseiten-SEO beeinflussen können, werden Webcrawler besser verstehen, wie die Seiten auf Ihrer Webseite verwendet und bewertet werden.

Lesen Sie auch, wie Sie Javascript SEO-freundlich gestalten können.