Question

Je suis en train de recueillir des informations sur les outils d'analyse Web (comme Google Web Analytics) pour ma prochaine mission, mais je ne suis pas en mesure de trouver une bonne information. Je cherche:

  1. Termes-clés.
  2. Qu'est-ce que tous les supports sont disponibles pour la collecte de données et comment ils fonctionne.
  3. Tous les livres de référence, livres blancs, etc. (techniques et non techniques).
  4. Toute implémentation open source (en particulier dans .NET).
Était-ce utile?

La solution

Voici les termes clés utilisé:

  • Hit (Internet)
  • vue page
  • Visite / session
  • Première visite / Première session
  • Visiteur / Visiteur unique / utilisateur unique
  • Répétez visiteur
  • Nouveau visiteur
  • Impression
  • singletons
  • Taux de rebond
  • % Sortie
  • temps de visibilité
  • Session
  • Durée
  • Page Voir Durée / sur la page
  • Page profondeur / Vues de pages par session
  • Fréquence / session unique par
  • Chemin Cliquez sur

Méthodes utilisées :

  • Analyse du fichier journal du serveur Web
  • Page tagging

Analyse du fichier journal du serveur Web

Dans cette méthode, vous écrire le script pour gratter les détails sur vos fichiers journaux et puis écrire à votre base de données. Cette méthode ne vous donnera pas de statistiques en temps réel. Vous pouvez en savoir plus sur l'analyse web log logiciel .

marquage

Ajoutez un code de javascript ou juste une image, puis utilisez le code pour obtenir tous les dtails à propos de la page, referrr, etc visiteur.

  

... ces images étaient incluses dans une toile   page qui montre le nombre de fois   l'image avait été demandée, qui   était une estimation du nombre de   visites à cette page. Dans les années 1990 en retard   ce concept a évolué pour inclure une   petite image invisible au lieu d'un   visible l'un, et, en utilisant JavaScript,   de transmettre à la demande d'image   certaines informations sur la page et   le visiteur. Ces informations peuvent ensuite   traiter à distance par une bande   société d'analyse et vaste   statistiques générées ...

Si vous utilisez l'analyse dans votre propre site web, vous pouvez utiliser le code fourni par Eytan Levit

wikipedia . Plus d'informations peuvent être trouvées ici.

Autres conseils

Eh bien,

Je ne suis pas expert, mais voici quelques données communes que vous pouvez récupérer pour construire votre propre analyse:

string str;
str += "Refferer:" + Request.UrlReferrer.AbsolutePath.ToString() + "<BR>";
str += "Form data:" + Request.Form.ToString() + "<br>";
str += "User Agent:" + Request.ServerVariables["HTTP_USER_AGENT"] + "<br>";
str += "IP Address:" + Request.UserHostAddress.ToString() + "<BR>";
str += "Browser:" + Request.Browser.Browser + " Version: " + Request.Browser.Version + " Platform: " + Request.Browser.Platform + "<BR>";
str += "Is Crawler: " + Request.Browser.Crawler.ToString() + "<BR>";
str += "QueryString" + Request.QueryString.ToString() + "<BR>";

Vous pouvez également analyser le mot-clé que l'utilisateur a atteint votre site à partir comme ceci:

protected string GetKeywordFromReferrer(string url)
{
    if (url.Trim() == "")
    {
        return "no url";
    }
    string urlEscaped = Uri.UnescapeDataString(url).Replace('+', ' ');
    string terms = "";
    string site = "";

    Match searchQuery = Regex.Match(urlEscaped, @"[\&\?][qp]\=([^\&]*)");
    if (searchQuery.Success)
    {
        terms = searchQuery.Groups[1].Value;
    }
    else
    {
        Match siteDomain = Regex.Match(urlEscaped, @"http\:\/\/(.+?)\/");
        if (siteDomain.Success)
        {
            site = siteDomain.Groups[1].Value;
        }
    }
    if (terms != "")
    {
        return terms;
    }
    if (site != "")
    {
        return site;
    }

    return "Direct Access";

}

Espérons que cela a aidé un peu.

1. Termes-clés Comme avec la réponse 1

2. Ce que tous les supports sont disponibles pour la collecte de données et comment ils fonctionne. Les fichiers journaux d'Apache, IIS. Handlers HTTP pour ASP.NET, ou votre page réelle. Javascript comprend (les objets disponibles Javascript vous donner plus d'informations dont vous avez besoin sur le client)

3. Tous les livres de référence, des livres blancs, etc. (techniques et non techniques) Le RFC sur HTTP est utile, qui vous donne la plupart des têtes de requête qui sont capturables.

4.Toute implémentation open source (en particulier dans .NET).

J'ai écrit un qui a la partie analyse de l'analyse effectuée (à mon avis le plus dur). Il a besoin d'un peu de peaufinage dans certains domaines comme il est de 4 ans:

Il manque un DAL, ce qui est plus difficile qu'il n'y paraît - le principal obstacle est en vous assurant que vous ne répliquent pas les données exactes que chaque ligne du journal a, comme vous alors pouvez tout aussi bien utiliser les fichiers journaux. L'autre partie affiche ces données agrégées dans un format agréable. Mon objectif était de l'avoir stocké dans SQL Server, et aussi db4o format pour les petits sites répondre.

La « triste » partie du projet Google Statmagic est venu et a complètement anéanti la concurrence et tout point en moi finir.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top