Unser Blog

Das Vektorraummodell - Bild
InWissenswertes

Das Vektorraummodell

Das Vektorraummodell stellt eines der bekanntesten Verfahren aus der Welt der Information Retrieval-Systeme dar. Es wurde ursprünglich im Rahmen der Arbeiten am SMART-Projekt entwickelt. SMART ist ein experimentelles Retrievalsystem, das von Gerard Salton und seinen...

Keyword-Dichte - Bild
InWissenswertes

Keyword-Dichte

Die Keyword-Dichte beschreibt die Bedeutung eines bestimmten Suchterms in einem Text. Vorreiter dieser Idee ist das Zipfsche Gesetz. “Das zipfsche Gesetz, nach dem Harvard-Professor für Linguistik George Kingsley Zipf (1902-1950) benannt, korreliert die empirisch...

Bewertungsverfahren - Bild
InWissenswertes

Bewertungs- verfahren

Jede Suchmaschine verwendet verschiedene Verfahren, um die Platzierung einer Seite zu bestimmen. Dabei sind die Algorithmen der großen Anbieter relativ ähnlich ausgelegt. Sie unterscheiden sich oft nur in der Bewertung der verschiedenen Verfahren. Von welchen...

Robots.txt - Bild
InSEO

Robots.txt

Die robots.txt Datei ist eine normale Textdatei die Informationen darüber enthält, welche Informationen die Suchmaschinen-Spider crawlen dürfen und welche nicht. Dabei kann je nach Spider unterschieden werden. Sie haben also die Möglichkeit über die robots.txt die...

Wann soll eine Seite aktualisiert werden? - Bild
InSEO

Wann soll eine Seite aktualisiert werden?

Wurden die Seiten erst einmal durch den Crawler herunter geladen, so entsteht die nächste Herausforderung. Die bereits besuchten Seiten müssen auf einem aktuellen Stand gehalten werden.

Welche Seite soll der Crawler downloaden? - Bild
InSEO

Welche Seite soll der Crawler downloaden?

Crawler haben die Aufgabe für die Internetnutzer die interessantesten Informationen zusammenzutragen. Ein Crawler ist allerdings in seiner Leistungsfähigkeit auf zwei verschiedenen Gründen eingeschränkt.