MediaWiki Optimierung für Google

Aus Laub-Home Wiki

Will man seine MediaWiki Installation für die Google und andere Suchmaschinen optimieren, findet man hier ein paar Tips und Tricks.
Hier ein paar Stichwörter, damit dieser Artikel besser gefunden werden kann :-)

  • Search Engine Optimization - SEO
  • Suchmaschinenoptimierung
  • Google Ranking
  • Suchmaschinenranking
  • Webseiten Platzierung

MediaWiki auf Short URLs umstellen

Die sogenannten Short URLs oder auch Pretty URLs genannt machen aus einem original Link der aus mehreren Parametern besteht einen schönen, kurzen und leserlichen Link, welcher beim Suchmaschinen Ranking einiges ausmacht:

  • Original URL Beispiel: wikisite.tld/w/index.php?title=Hauptseite
  • Gekürztes URL Beispiel: wikisite.tld/wiki/Hauptseite

LocalSettings.php

# Short URLs
$wgScriptPath       = "";
$wgScriptExtension  = ".php";
$wgArticlePath = "/wiki/$1";
$wgUsePathInfo = true;

Apache vHost oder .htaccess Konfiguration:

# Apache .htaccess / vhost Config
<IfModule mod_rewrite.c>
RewriteEngine On
# Normale Desktop Short URL Umleitung
RewriteBase /
RewriteRule ^/index.php/(.*) /wiki/$1 [QSA,R=permanent]
RewriteRule ^/?wiki(/.*)?$ %{DOCUMENT_ROOT}/index.php
</IfModule>

Redirect /sitemap.xml /sitemap/sitemap-index-wiki.xml

Mehr Infos hier:

Sitemap.xml

Die Sitemap einer Seite wird im XML Format gespeichert und erleichtern den Suchmaschinen das Einlesen aller Seiten/Artikel eines Webauftrittes (mehr Infos hier). MediaWiki bringt von Haus aus einen Generierungsmechanismus mit, der wie im folgendem Artikel beschrieben, genutzt werden kann:

Die richtige robots.txt

Die Robots Datei beschränkt die Zugriffe der Suchmaschinen Spider/Robots. Da man eigentlich nur die wirklichen Artikel, keine Spezialseiten oder Versionierungen der Artikel in den Suchergebnissen bei Google und CO sehen will, sollte man die folgende robots.txt verwenden. Voraussetzung hierfür ist, das man Short URLs (auch "pretty URLs" genannt) benutzt! Zusätzlich sage ich in der Robots Datei wo sich die sitemap.xml befindet, damit es die Suchmaschinen einfacher haben alle Seiten/Artikel zu indizieren.

robots.txt

User-agent: *
Disallow: /index.php
Disallow: /Index.php
Disallow: /*Spezial:
Disallow: /*Diskussion:
Sitemap: https://www.laub-home.de/sitemap/sitemap-index-wiki.xml

Ich lege bei mir die robots.txt Dateien in einem Globalen Ordner ab, damit Sie beim Updaten oder Neuaufsetzten des Mediawikis nicht vergessen werden. Nochdazu hat man die Möglichkeit so mehreren Webauftritten ein und die selbe robots Datei zugeben und spart sich somit den Pflege Aufwand. Ich habe also die Robots Dateien in folgendem Ordner:

/srv/httpd/robots/

Die Mediawiki Robots.txt habe ich robots-mw.txt genannt. Diese wird nun in der Apache vhost Konfiguration als Alias geladen:

Alias /robots.txt /srv/httpd/robots/robots-mw.txt

Wenn alles richtig konfiguriert ist sollte beim URL Aufruf die aktuelle robots.txt angezeigt werden:

Startseite umbenennen

Man sollte die Startseite (Hauptseite) in etwas besseres, aussage kräftigeres verändern. Zum Beispiel in Startseite, Home, startpage. Dies macht man in dem man folgende Seite aufruft und diese bearbeitet:
Mediawiki:mainpage

Hier einfach den Text MainPage, oder Hauptseite ändern. Anschließend sollte man natürlich noch die alte Hauptseite verschieben und eine Weiterleitung einrichten lassen.

Google Webmaster Tools

Eine Anmeldung und ein hinzufügen der Webseite zu den Webmaster Tools sollte man auf jeden Fall machen. Hier hat man einige nette Tools zur Verfügung um das Ranking zu erhöhen und vor allem um zu schauen was Google alles so über die Webseite Weiß. Man kann hier auch die Robots.txt überprüfen und die Sitemap.xml einrichten, falls Google sie noch nicht gefunden hat. Desweiteren kann man Artikel oder Unterseiten aus den Suchergebnissen entfernen.

Google Analytics Integration

Google Analytics ist ein super Webseiten Statistik Tool von Google. Will man ohne viel Aufwand wissen was so auf der Webseite los ist, aus welchen Ländern die meisten User kommen und wie die Leute auf die Seite gekommen sind, ist man bei Google Analytics genau richtig. Um es mit dem MediaWiki zu nutzen braucht man als erstes einen Account, diesen bekommt man hier:

Als nächste benötigt man die Google Analytics Extension oder das direkte einbinden des GA4 (Google Analytics 4) Tag. Beides kann hier nachgelesen werden:

Google Adsense Integration

Angeblich soll es etwas bringen wenn man auf seiner Seite Google Adsense verwendet. Ich weiß das Adsense eigene Spider hat um die Seite zu scannen, weiß aber nicht warum es für das Ranking gut sein soll. Aber es schadet ja nicht ein wenig Werbung auf der Seite zu schalten und somit noch ein paar Euros nebenbei zu verdienen. Das Einbinden von Adsense geht über eine Extension. Wie man diese zum Laufen bekommt findet ihr in den folgenden Artikeln:

Die Registrierung für den Dienst kann man auf der Adsense Seite machen. Um den Dienst vollständig nutzen zu können wird die Adresse, die Telefonnummer und die Kontoverbindung geprüft. Das kann insgesamt bis zu einen Monat dauern, macht aber nichts, da man Adsense trotzdem schon einbetten kann.

Handhabung von Externen Links

Standardmäßig dürfen Suchmaschinen externen Links im Wiki nicht folgen, was natürlich den Effekt hat, das die URLs die man einfügt von Google nicht bewertet werden. Umso mehr Verlinkungen eine Webseite hat um so besser wird das Ranking, will man also den Seiten, die man im Wiki verlinkt hat etwas gutes tun, sollte man den folgenden Parameter auf "false" setzten. Man kann aber auch eine Whitelist erstellen um nur ein paar Websites auf follow zu setzten.
LocalSettings.php

für alle URLs:

# Follow Links
$wgNoFollowLinks = false;

für ausgewählte URLs (hier rentaseo.de & wiktionary.org)

$wgNoFollowDomainExceptions = array( ‘rentaseo.de’, ‘wiktionary.org’ );

Was eventuell ganz nützlich sein kann, ist dass man externe Links in einem neuen Tap oder Fenster öffnen lässt, damit User auf dem Wiki bleiben:

LocalSettings.php

# Externe Links in neuem Fenster
$wgExternalLinkTarget = '_blank';

Weiteres

  • MediaWiki Version und Extensions aktuell halten
  • Falls das Wiki öffentlich ist, sollte man dringend Spam Einträge finden und löschen
  • Eventuell noch MetaTags verwenden. Hierfür gibt es ein Paar Mediawiki Extensions

Quellen