Suchmaschinenoptimierung

codingnoob
Ja, das Archiv erzeugt Double Content, ist daher für alle, die Interesse an Suchmaschinen haben, nicht zu empfehlen.

Es ist zwar für Suchmaschinen leichter zugänglich als das eigentliche Forum aber es steht ja in beiden das gleiche drin.
Also entweder du schaltest es wieder ab, am besten in Kombination mit einer Suchmaschinenoptimierung des eigentlichen Forums, oder du verbietest Suchmaschinen in das Forum zu gehen und lässt sie nur ins Archiv.
Oder du hoffst, dass Google den DC nicht bemerkt. fröhlich
mauserklausi
Wie verbiete ich den Suchmaschinen, ins Forum zu gehen? Sodass sie nur das Archiv lesen?
Biggi
mauserklausi
Zitat:
Original von Biggi74
Das Zauberwort heißt robots.txt.
Wie Google damit umgeht, findest du hier:
http://www.google.com/support/webmasters...c.py?topic=8459
http://www.google.com/support/webmasters...py?answer=40362
Ja, danke, die robots.txt hatte ich aber schon genutzt, das lief auch ganz gut mit Google.
Meine aktuelle robots.txt sieht so aus: http://www.zischundwech.de/robots.txt

Hab jetzt die thread.php und die board.php gesperrt und das Archiv zugänglich gemacht, ist das so korrekt?

Wo kann ich die Sekundenanzahl einstellen, die zur Weiterleitung eingestellt ist? Wenn man ins Archiv geht, wird man ja weitergeleitet, wo stelle ich da die Zeit ein?
--Nachtfalke--
Warum schreibst du da rein:
code:
1:
2:
3:
User-agent: Googlebot
User-agent: *


Entferne da mal dass User-agent: Googlebot ,das ist unnütz, User-agent: * reicht schon
mauserklausi
Zitat:
Original von --Nachtfalke--
Warum schreibst du da rein:
code:
1:
2:
3:
User-agent: Googlebot
User-agent: *


Entferne da mal dass User-agent: Googlebot ,das ist unnütz, User-agent: * reicht schon


Google braucht meistens noch eine Extraeinladung laut diesem Beitrag: Robot.txt -> Wie konfiguriern?

Und schaden kann es doch nicht, oder Augenzwinkern