Verwendung von Robots.Txt zum Blockieren von Subdomains

Eine Website ist eine gute Möglichkeit, Ihr kleines Unternehmen zu fördern und Ihre Produkte und einzigartigen Qualifikationen zu präsentieren. Wenn Sie eine große Website verwalten, verwenden Sie wahrscheinlich einige Unterdomänen, und jede Unterdomäne verfügt über einen eigenen Ordner auf Ihrem Webhost. Wenn Sie nicht möchten, dass Suchmaschinen-Crawler bestimmte Subdomains analysieren und indizieren, können Sie sie mit der Datei robots.txt blockieren.

1

Klicken Sie in der linken unteren Ecke Ihres Bildschirms auf die Schaltfläche Start.

2

Geben Sie "Notepad" in das Suchfeld unten im Startmenü ein.

3.

Klicken Sie oben im Startmenü im Bereich "Programme" auf "Notepad", um den Editor zu starten. Ein neues Dokument wird automatisch in Notepad erstellt.

4

Fügen Sie diese beiden Zeilen in das Notepad-Dokument ein, um zu verhindern, dass alle Roboter die Unterdomäne analysieren:

Benutzeragent: * Nicht zulassen: /

5

Drücken Sie "Strg-S", um das Fenster "Speichern unter" zu öffnen.

6

Geben Sie "robots.txt" in das Feld "Dateiname" ein, wählen Sie den Ordner aus, in dem Sie die Datei speichern möchten, und klicken Sie auf "Speichern", um die Datei zu speichern.

7.

Laden Sie die gespeicherte robots.txt-Datei in das Stammverzeichnis jeder Domäne hoch, die Sie vor Suchmaschinen-Crawlern schützen möchten. Das Stammverzeichnis ist das Verzeichnis der obersten Ebene.

Spitze

  • Sie können die Datei mit einer beliebigen FTP-Client-Software oder sogar mit dem Webdateimanager Ihres Hosts hochladen.

Beliebte Beiträge