Frage

Ich bin in Prozess (wie Google Web Analytics) für meine nächste Aufgabe Informationen über Web-Analyse-Tools zu sammeln, aber ich bin nicht in der Lage jede gute Informationen zu finden. Ich suche:

  1. Schlüsselbegriffe verwendet.
  2. Was alle Medien für die Datenerfassung zur Verfügung stehen und wie sie funktioniert.
  3. Jede Referenz-Bücher, Whitepapers usw. (technische und nicht-technische beides).
  4. Jede Open-Source-Implementierung (vor allem in .NET).
War es hilfreich?

Lösung

Hier sind die Schlüsselbegriffe verwendet:

  • Hit (Internet)
  • Seitenansicht
  • Besuch / Sitzung
  • Erster Besuch / Erste Sitzung
  • Besucher / eindeutige Besucher / Unique User
  • Wiederholter Besucher
  • Neuer Besucher
  • Impression
  • Singletons
  • Bounce Rate
  • % Beenden
  • Sichtbarkeit Zeit
  • Sitzungsdauer
  • Seite View Duration / Zeit auf Seite
  • Seite Tiefen- / Seitenaufrufe pro Session
  • Frequenz / Session pro Unique
  • Klicken Sie auf Pfad

Methoden verwendet :

  • Web Server Logfile-Analyse
  • Seite Tagging

Web-Server-Logfile-Analyse

Bei dieser Methode schreiben Sie Skript Details kratzen aus Ihren Log-Dateien und schreiben Sie es dann auf Ihre Datenbank. Diese Methode wird nicht geben Ihnen Echtzeit-Statistiken. Sie können mehr über Web-Log-Analyse-Software hier .

Seite Tagging

einen Code von JavaScript hinzufügen oder einfach nur ein Bild und dann den Code verwenden, um alle dtails über die Seite zu bekommen, referrr, Besucher etc.

  

... diese waren Bilder, die in einem Web   Seite, die die Anzahl der Male zeigte   das Bild war beantragt worden, die   eine Schätzung der Anzahl der war   Besuche zu dieser Seite. In den späten 1990er Jahren   Dieses Konzept entwickelte sich ein schließen   kleine unsichtbare Bild anstelle eines   sichtbare und durch JavaScript verwenden,   mit der Bildanforderung passieren entlang   bestimmte Informationen über die Seite und   der Besucher. Diese Informationen können dann   verarbeitet werden entfernt durch einen Web   Analytik Unternehmen und umfangreiche   Statistiken generiert ...

Wenn Sie Analytics in Ihrer eigenen Website verwenden, können Sie die Code zur Verfügung gestellt von Eytan Levit

wikipedia . Weitere Informationen sind dort zu finden.

Andere Tipps

Nun,

Ich bin kein Experte, aber hier ist einige gemeinsame Daten, die Sie abrufen können Sie eigene Analysen zu erstellen:

string str;
str += "Refferer:" + Request.UrlReferrer.AbsolutePath.ToString() + "<BR>";
str += "Form data:" + Request.Form.ToString() + "<br>";
str += "User Agent:" + Request.ServerVariables["HTTP_USER_AGENT"] + "<br>";
str += "IP Address:" + Request.UserHostAddress.ToString() + "<BR>";
str += "Browser:" + Request.Browser.Browser + " Version: " + Request.Browser.Version + " Platform: " + Request.Browser.Platform + "<BR>";
str += "Is Crawler: " + Request.Browser.Crawler.ToString() + "<BR>";
str += "QueryString" + Request.QueryString.ToString() + "<BR>";

Sie können auch das Schlüsselwort parsen der Benutzer von Ihrer Website wie diese erreicht hat:

protected string GetKeywordFromReferrer(string url)
{
    if (url.Trim() == "")
    {
        return "no url";
    }
    string urlEscaped = Uri.UnescapeDataString(url).Replace('+', ' ');
    string terms = "";
    string site = "";

    Match searchQuery = Regex.Match(urlEscaped, @"[\&\?][qp]\=([^\&]*)");
    if (searchQuery.Success)
    {
        terms = searchQuery.Groups[1].Value;
    }
    else
    {
        Match siteDomain = Regex.Match(urlEscaped, @"http\:\/\/(.+?)\/");
        if (siteDomain.Success)
        {
            site = siteDomain.Groups[1].Value;
        }
    }
    if (terms != "")
    {
        return terms;
    }
    if (site != "")
    {
        return site;
    }

    return "Direct Access";

}

Hope dies ein wenig geholfen hat.

1. Schlüsselbegriffe verwendet,
Wie bei Antwort 1

2. Was alle Medien für die Datenerfassung zur Verfügung stehen und wie sie funktioniert.
Log-Dateien von Apache, IIS. HTTP Handlers für ASP.NET oder Ihre aktuelle Seite. Javascript enthält (die Objekte zur Verfügung Javascript geben Ihnen die meisten Informationen, die Sie brauchen, um über den Client)

3. Jede Bezugnahme Bücher, Whitepaper usw. (technische und nicht-technisch beide)
Die RFC auf HTTP ist nützlich, dass Sie die meisten der Request-Header gibt die erfassbare sind.

4.Any Open-Source-Implementierung (vor allem in .NET).

Ich schrieb ein, dass das Parsen Teil der Analyse (meiner Meinung nach der schwierigste Teil) getan hat. Es braucht ein wenig in bestimmten Bereichen zwicken wie es ist 4 Jahre alt:

Es ist eine DAL fehlt, das härter ist als es klingt - die größte Hürde sicher ist, dass Sie nicht die genauen Daten replizieren, die jede Zeile des Protokolls hat, wie man dann auch nur die Log-Dateien verwenden. Der andere Teil ist die Anzeige dieser aggregierten Daten in einem schönen Format. Mein Ziel war es, um es in SQL Server gespeichert zu haben, und auch db4o Format für kleinere Websites gerecht zu werden.

Die ‚traurig‘ Teil des Statmagic Projekt Google kam und völlig den Wettbewerb und einen beliebigen Punkt in mir vernichtet Finishing es.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top