Warum sind die Foreneinträge von ProLinux bei Google nicht zu finden,
oder bin ich einfach nur zu unfähig? Die Kommentar zu den News
werden auch gefunden!
Das wär doch wirklich sinnvoll, denn viele Fragen sind einfach
schon zu oft gestellt wurden und würden so bei ner Google-Suche
mit Ihren Lösungsvorschlägen ausgeworfen.
Könnte man für die einzelnen Threads keine Permapages anlegen?
Cheers
Michael
Warum sind die Foreneinträge bei google nicht zu finden
-
- Posts: 537
- Joined: 07. Dec 2003 21:07
- Location: Schweiz
-
- Posts: 109
- Joined: 13. Apr 2004 6:23
"Meta Tag fehlt....
Kein Eintrag bei den Suchmaschinen..."
Das ist Unsinn und entspricht einem Mythos.
Zualleroberst: Dieses Forum HAT Metatags gesetzt. Hättest du die Zeit verwendet dir den HTML Code anzusehen, wüsstest du das
Google analisiert zwar auch die Metatags, bassiert aber keineswegs komplett auf diesen. Keine meiner Seiten hatte je einen Metatag gesetzt, und dennoch waren sie immer nach kurzer Zeit vertretten, je nach aktivität des Seite auch recht weit oben.
Metatags sind sicher auch nicht unwichtig, aber Google bassiert keineswegs nur auf diesen, sondern analysiert vielmehr die Linkstruktur und den Seiteninhalt.
Nein, ich glaub eher pro-linux hat eine robot datei irgendwo in der Struktur zu sitzen, die das verhindert. Oder das Forum ist noch nicht von google analisiert worden, und der bot hat noch das alte versucht zu finden. Sowas kommt vor, ich war auch schonmal aus Google mit einer Seite von mir rausgeflogen und erst nach einiger Zeit wieder drinne, nachdem ich mein System ungestellt hatte-
Kein Eintrag bei den Suchmaschinen..."
Das ist Unsinn und entspricht einem Mythos.
Zualleroberst: Dieses Forum HAT Metatags gesetzt. Hättest du die Zeit verwendet dir den HTML Code anzusehen, wüsstest du das
Google analisiert zwar auch die Metatags, bassiert aber keineswegs komplett auf diesen. Keine meiner Seiten hatte je einen Metatag gesetzt, und dennoch waren sie immer nach kurzer Zeit vertretten, je nach aktivität des Seite auch recht weit oben.
Metatags sind sicher auch nicht unwichtig, aber Google bassiert keineswegs nur auf diesen, sondern analysiert vielmehr die Linkstruktur und den Seiteninhalt.
Nein, ich glaub eher pro-linux hat eine robot datei irgendwo in der Struktur zu sitzen, die das verhindert. Oder das Forum ist noch nicht von google analisiert worden, und der bot hat noch das alte versucht zu finden. Sowas kommt vor, ich war auch schonmal aus Google mit einer Seite von mir rausgeflogen und erst nach einiger Zeit wieder drinne, nachdem ich mein System ungestellt hatte-
Nein, die robots.txt ist es nicht!
die Forumsdiskussion, da über die Links in die einzelnen Forenrubriken nur die
jeweils neuesten Threads angezeigt werden.
Einfache Abhilfe würden da Archives nach dem Beispiel von
http://cert.uni-stuttgart.de/archive/suse/security/
schaffen, die immer auf die gleiche Weise (URL) erreichbar sind und
sich nur für den jeweils akutellen Monat ändern. Solche Seiten sollte man
doch mit ein wenig Script aus den Foren generieren können.
Cheers
Michael[/url]
Meiner Meinung nach hat Google keinen vernünftigen permanenten Einstieg inUser-agent: *
Disallow: /cgi-bin/
Disallow: /ftp/
Disallow: /masterplan.txt
die Forumsdiskussion, da über die Links in die einzelnen Forenrubriken nur die
jeweils neuesten Threads angezeigt werden.
Einfache Abhilfe würden da Archives nach dem Beispiel von
http://cert.uni-stuttgart.de/archive/suse/security/
schaffen, die immer auf die gleiche Weise (URL) erreichbar sind und
sich nur für den jeweils akutellen Monat ändern. Solche Seiten sollte man
doch mit ein wenig Script aus den Foren generieren können.
Cheers
Michael[/url]