Suchmaschinenindizierung
#1
geschrieben 02. November 2011 - 08:10
Besteht die Möglichkeit einen bestimmten Bereich, beispielsweise einen div innerhalb einer Webseite von der Suchmaschinenindizierung auszuschließen?
Anzeige
#2
geschrieben 02. November 2011 - 08:27
<meta name="Robots" content="noindex,nofollow" />
auschliessen. D.h. Du weisst die Robots/Spiders an die Seite nicht zu indizieren und die Link darin nicht zu verfolgen. Evtl. willst Du ja das die Links verfolgt werden, das wäre dann
<meta name="Robots" content="noindex,follow" />
Ein weiterer Weg wäre die Anweisung mittels robots.txt (robotstxt.org. Wenn Du einzelne Container nicht indizieren lassen willst sehe ich nur die Lösung über eine serverseitige Scriptsprache (Perl, PHP, ASP ...). D.h. du könntest abfragen ob der Aufruf durch einen Bot (googlebot o.ä.) erfolgt und nur einblenden wenn das nicht so ist...
#3
geschrieben 02. November 2011 - 08:44
Der Part interessiert mich. Die robots-Datei kenne ich. Da ich aber den Rest der datei indizieren möchte und nur einen bestimmten Part nicht, bietet sich deine oben genannte Methode gut an.
Hast du ein Beispiel, wie ich mit PHP einen Suchmaschinenbot abfragen könnte?
Vielen Dank!
#4
geschrieben 02. November 2011 - 12:10
function checkBot($string = "")
{
$bots = array('bot', 'spider', 'spyder', 'crawl', 'robo', 'agentname','altaVista intranet', 'appie', 'arachnoidea', 'asterias','beholder', 'bumblebee', 'cherrypicker', 'cosmos', 'openxxx',
'fido', 'crescent', 'emailsiphon', 'emailwolf', 'extractorpro','gazz', 'gigabaz', 'gulliver', 'hcat', 'hloader', 'incywincy','infoseek', 'inktomi', 'link', 'internetami', 'internetseer',
'scan', 'fireball', 'larbin', 'libweb', 'trivial', 'mata hari','medicalmatrix', 'mercator', 'miixpc', 'moget', 'muscatferret','slurp', 'quosa', 'scooter', 'sly', 'webbandit', 'spy',
'wisewire','ultraseek', 'piranha', 't-h-u-n-d-e-r-s-t-o-n-e', 'indy library','ezresult', 'informant', 'swisssearch', 'sqworm','ask jeeves/teoma', 'libwww');
for($i=0; $i < count($bots);$i++)
{
if ( strstr(strtolower($string), $bots[$i])) return true;
}
return false;
}//end Function checkBot
if (isset($_SERVER['HTTP_USER_AGENT']))
{
if (!checkBot($_SERVER['HTTP_USER_AGENT']))
{
//do something
}
}
#5
geschrieben 02. November 2011 - 16:12
https://www.google.c...de&answer=66355
Durch diese Aktion kannst du ganz aus dem Index fliegen.
Zu deinem Problem: Nein, es gibt keine Möglichkeit einzelne Container auszuschließen.
#6
geschrieben 06. November 2011 - 00:11
* per JavaScript füllen
* in ein seamless Iframe auslagern (wobei hier allein die mangelnde Unterstützung des seamless Attributes das die Sache unschön macht)
* in eine Grafik auslagern.
#7
geschrieben 06. November 2011 - 11:10
Zitat (Witi: 02. November 2011 - 16:12)
https://www.google.c...de&answer=66355
Durch diese Aktion kannst du ganz aus dem Index fliegen.
Zu deinem Problem: Nein, es gibt keine Möglichkeit einzelne Container auszuschließen.
Was hat das mit JS Weiterleitungen zu tun? So könnte ja einfach ein Container nicht angezeigt werden wenn ein Bot die Seite lädt...
#8
geschrieben 07. November 2011 - 12:35
Zitat (CaptHowdy: 06. November 2011 - 11:10)
Ja genau das ist Cloaking. Du gibst einem Bot anderen Content als dem normalen Leser (Einen Container auszulassen ist ja gleichbedeutend mit einer Erhöhung der Keyword-Dichte im anderen Text bezogen auf die gesamte Seite). Google überprüft Seiten in unregelmäßigen Abständen auf dieses Verhalten (sprich es wird einmal als Bot und einmal "getarnt" als Browser angefragt) und wenn es verschiedene Ergebnisse gibt, besteht die Chance aus dem Index zu fliegen. Wie du das realisierst ist dabei irrelevant.
Dieser Beitrag wurde von N1truX bearbeitet: 07. November 2011 - 12:37
NB: Sony Vaio VPCYB16 - AMD Fusion E-350 - 1x4 GiB Kingston DDR3-1333 - 64 GiB Super*Talent SSD

Hilfe
Neues Thema
Antworten
Nach oben





