Technologie
basel.org|anizer geht einen neuartigen Ansatz zur Suche von Inhalten auf dem Internet: Es wird nicht nur eine Volltextsuchmaschine à la Google verwendet,
sondern zusätzlich und vor allem eine manuell geführte Datenbank mit flexibel definierbaren Suchbegriffen und zugehörigen Inhalten. Und da diese Datenbank von Menschen
'geführt' wird, ist sie auch um einiges Intelligenter als eine normale Suche. So reicht der Begriff 'Stadtplan' aus um die Links zu finden welche
für die Region effektiv relevant sind: Der offizielle Stadt- und Regionplan. Es kommt nicht eine Seite irgendeines Hotels welches auf seiner Homepage
eine Art von Stadtkarte aufgeschalten hat und halt der Suchbegriff 20 Mal im Inhalt vorkommt. Natürlich lässt sich dies auch mit weiteren Suchbegriffen kombinieren:
Versuchen Sie mal 'Stadtplan Claraplatz' in der Suche...
basel.org|anizer gibt Ihnen so mit dem kleinstem Aufwand Ihrerseits die bestmöglichsten Resultate. Und natürlich immer thematisch an die Region gebunden;
denn was nützt Ihnen eine Schreinerei in Zürich oder Berlin?
basel.org|anizer passt sich natürlich auch laufend an. Neu auftauchende Suchwörter (saisonal oder spez. Anlässe) welche die User in grösseren Mengen nachfragen
werden registriert und automatisch gemeldet. So kann sich dann wieder ein Redakteur darum kümmern, einen entsprechenden Themeneintrag erstellen und Sie finden dann wieder
genau das wonach Sie gesucht haben.
basel.org|anizer führt darunter auch noch eine traditionelle Volltextsuche im Style eines Googles oder Alta Vista. Damit Ihre Homepage dort ebenfalls gefunden
wird muss Sie zwingend bei uns angemeldet werden. Wir indexieren nicht wild das ganze Internet durch, sondern beschränken uns, wie
schon gesagt, ganz gezielt auf die Region Basel und themenrelevante Webseiten. Jede Anmeldung wird manuell geprüft.
Eine kleine, aktuelle Statistik:
| | | |
Themenfenster | | Anzahl Themenfenster: | | 3'044 |
| | Anzahl dazu definierte Suchbegriffe: | | 10'856 |
Volltextsuche | | Anzahl Indexierte Domains: | | 1'223 |
| | Anzahl einzelne Webseiten: | | 281'479 |
| | Anzahl Wörter: | | 304'597'936 |
Richtlinien für Webmaster
Indem Sie die folgenden Richtlinien befolgen, erleichtern Sie es basel.org|anizer, Ihre Site zu finden, zu indizieren und zu gewichten. Dies ist die sicherste Methode, um in den Suchergebnissen von basel.org|anizer zu erscheinen (Inhaltlich gelten sie auch für andere Indexroboter wie Google, AltaVista, MSN etc).
Richtlinien für Gestaltung und Inhalt:
- Erstellen Sie eine Site mit klar strukturiertem Aufbau und Textverknüpfungen. Jede der Seiten sollte über mindestens einen statischen Textlink erreichbar sein.
- Stellen Sie Benutzern eine Übersicht mit Verknüpfungen zu den wichtigen Teilen Ihrer Site zur Verfügung. Wenn die Übersicht aus ca. 100 Links oder mehr besteht, wird empfohlen, sie auf mehrere Seiten zu verteilen.
- Erstellen Sie eine nützliche, informative Site, und verfassen Sie Seiten, die Ihre Inhalte klar und eindeutig beschreiben.
- Überlegen Sie sich, welche Suchbegriffe Benutzer eingeben könnten, um nach Ihren Seiten zu suchen, und verwenden Sie diese Begriffe auf Ihrer Site.
- Verwenden Sie zur Anzeige von wichtigen Namen, Inhalten oder Links keine Bilder, sondern Text. Der basel.org|anizer-Spider kann keinen in Bildern enthaltenen Text erkennen.
- Vergewissern Sie sich, dass die Tags TITLE und ALT aussagekräftig und zutreffend sind.
- Überprüfen Sie Ihre Seiten auf fehlerhafte Links, und sorgen Sie für eine korrekte Verwendung der HTML-Syntax.
- Beachten Sie, wenn Sie dynamisch erzeugte Seiten verwenden (d.h., wenn der URL das Zeichen '?' enthält), dass einige Crawler dynamische Seiten im Unterschied zu statischen Seiten nicht durchlaufen. Verwenden Sie wenige und kurze Parameter.
- Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß (weniger als 100).
Technische Richtlinien:
- Öffnen Sie Ihre Site mit einem Textbrowser wie Lynx, da die meisten Webcrawler Ihre Site so ähnlich wie Lynx analysieren. Wenn Funktionen wie Javascript, Cookies, Sitzungs-IDs, Frames, DHTML oder Flash verhindern, dass Sie Ihre gesamte Site in einem Textbrowser anzeigen können, treten beim Durchlaufen der Site durch Crawler möglicherweise Schwierigkeiten auf.
- Ermöglichen Sie es Suchrobotern, Ihre Site ohne Sitzungs-IDs oder Argumente, die ihren Weg durch die Site aufzeichnen, zu durchlaufen. Diese Methoden sind hilfreich, um das Verhalten einzelner Benutzer zu analysieren, das Zugriffsmuster von Suchrobotern ist jedoch davon gänzlich verschieden. Das Verwenden solcher Techniken kann zu einer unvollständigen Indizierung Ihrer Site führen, da Suchroboter eventuell nicht in der Lage sind, URLs zu eliminieren, die verschieden aussehen, aber auf dieselbe Seite zeigen.
- Stellen Sie sicher, dass Ihr Webserver den HTTP-Header "If-Modified-Since" unterstützt. Über diese Funktion kann Ihr Webserver basel.org|anizer mitteilen, ob der Inhalt seit dem letzten Webdurchlauf geändert wurde. Mit dieser Funktion können Sie Bandbreite und Overhead einsparen.
- Nutzen Sie die Datei robots.txt auf Ihrem Webserver. Diese Datei weist die Crawler an, welche Verzeichnisse durchsucht werden dürfen und welche nicht. Sorgen Sie dafür, dass eine aktuelle Version für Ihre Site vorliegt, damit der basel.org|anizer-Spider nicht versehentlich abgewiesen wird. Unter http://www.robotstxt.org/wc/faq.html (Englisch) finden Sie einen FAQ-Bereich, der Fragen zu Robots und ihrer Steuerung auf Ihrer Website beantwortet.
- Wenn Ihr Unternehmen ein Content Management-System erwirbt, muss sichergestellt werden, dass es Inhalte exportieren kann, damit die Robots von Suchmaschinen darauf zugreifen können.