Web Analytics Blog – econtrolling.de

Wer bist Du? Wo kommst Du her? Gefällt Dir mein Webauftritt? Kommst du wieder? Diese Fragestellungen stellt sich u.a. jeder Blogger und Webseitenbetreiber. Wer das Verhalten seiner Webseitenbesucher verstehen möchte muss es erfassen und auch analysieren können.

Antworten hierzu bietet u.a. der Web Analytics Blog von luna park. Neben Infos zur Webanalyse mittels Google Analytics gibt es ebenfalls Fakten zum Einsatz von Webanalysetools vs. aktuellen Datenschutzdiskussionen. Termine zu Webanalyse Events in Deutschland runden diesen empfehlenswerten Blog ab.

Link: www.econtrolling.de

Advertisements

Web Analytics

Wer bist Du? Wo kommst Du her? Gefällt Dir mein Webauftritt? Kommst du wieder? Diese Fragestellungen stellt sich u.a. jeder Webmaster und Blogger. Wer das Verhalten seiner Webseitenbesucher verstehen möchte, muss es erfassen und auch analysieren können.

Waren es zu Beginn des WWW rein serverbezogene Daten – Logfile Analyse – werden seit wenigen Jahren die Auswertungen seitenbezogener Daten – Page Tagging – für immer mehr Webseiteninhaber interessanter. Vor allem durch die im Netz kostenfrei zu Verfügung gestellten Tools wie bspw. Google Analytics, Piwik, etc. erhält die Webanalyse eine immer größere Anhängerschaft und rückt damit auch stärker in das Interesse der Öffentlichkeit.

Doch was soll bzw. kann gemessen werden? Welche aktuellen Entwicklungen und Literatur gibt es? Welche Tools sind am Markt verfügbar?

Diese und weitere Fragen werden zukünftig auf diesem WebBlog beantwortet. In unserem ersten Thema werden wir weitere lohnenswerte Webseiten und Blogs zum Thema Web Analytics kurz vorstellen.

Web Farming (2) – Die vier Phasen im Web Farming

Die automatische Suche und Zurverfügungstellung von benutzerdefinierten Informationen vollzieht sich nach Hackathorn in mehreren fließend übergehenden Stufen.

Discovery (Entdeckung)
Acquisition
(Aneignung)
Structuring
(Strukturierung)
Dissemination
(Verbreitung)

Im Discovery Prozess wird das Web nach den Daten durchsucht, welche zuvor als relevante Informationen festgelegt wurden. Das ständige Durchsuchen des Webs wird von automatischen Programmen, sog. Agenten, durchgeführt. Da das Web und der Informationsbedarf des Empfängers keine statischen Größen sind, müssen die Suchkriterien der autonomen Suchprogramme individuell und schnell veränderbar sein.
Anschließend werden in der Acquisition-Phase die relevanten Informationen gesammelt und aufbereitet. Das Ziel in der Aufbereitung liegt darin, dass der historische Kontext beibehalten wird, so dass der Nutzer den Inhalt mittels des zeitlichen Kontexts besser erkennen und analysieren kann. Benötigt werden hierbei Server mit besonders großer Speicherkapazität.
In der Phase des Structuring wird der Inhalt analysiert, bewertet und in ein für den Nutzer nutzbares Format gebracht. Das Format kann bspw. für eine Webseite oder auch für ein Textbearbeitungsprogramm, etc. sein.
Während der letzten Phase, Disseminiation, müssen die gefundenen Informationen dem Informationsempfänger noch bekannt gemacht werden. Nach Hackathorn kann dies mittels einer direkten Benachrichtigung oder der Speicherung der Daten in einem Data Warehouse geschehen.

WebFarming (1) – Was ist Web Farming?

Wer Probleme lösen möchte, benötigt Informationen. Der Informationsbedarf trifft hierbei auf das bestehende Informationsangebot. Bei der Auswahl von geeigneten Quellen wird der Suchende bestrebt sein die größtmögliche Teilmenge aus seinem Informationsbedarf und dem Angebot zu erhalten.
Als Informationsquelle mit einer hohen Quantität wird häufig das Web genutzt. Doch nicht allein die Quantität an Informationen ist zur Lösung von Problemen ausschlaggebend. Die Qualität der angebotenen Informationen grenzt die bestehende Teilmenge noch einmal ein. Im Web schwankt diese sehr stark und hängt oft vom Suchtthema / Suchbegriff ab.
Damit der Rechercheaufwand für den Informationssuchenden nicht zu hoch wird, ist der Einsatz einer automatischen Informationssuche sinnvoll. Richard Hackathorn beschreibt diese Möglichkeit mit dem Begriff „Web Farming„. Für Hackathorn steht das Web Farming nicht für das ungerichtete surfen oder einer einmaligen Suche im Web. „Web farming is not surfing the Web haphazardly, wandering from one intriguing to another. Nor is it a one-time research on the Web.“[1]  Web Farming soll vielmehr als eine sich wiederholende, systematische Suche und die Bereitstellung von benutzerdefinierten und relevanten Informationen zur richtigen Zeit verstanden werden. Hierfür werden Softwarelösungen entwickelt, welche die vom Suchenden vorab definierten Suchparameter systematisch auffinden, in eine Datenbank integrieren und somit die Lösung von Problemen zeitlich beschleunigen können.

Quellen / interessante Literatur:
[1] Hackathorn, Richard: Reaping the Web for Your Data Warehousing, URL:http://www.dbmsmag.com/9808d14.html