Comment les outils d'analyse web fonctionnent-ils? [fermé]
-
21-08-2019 - |
Question
Je suis en train de recueillir des informations sur les outils d'analyse Web (comme Google Web Analytics) pour ma prochaine mission, mais je ne suis pas en mesure de trouver une bonne information. Je cherche:
- Termes-clés.
- Qu'est-ce que tous les supports sont disponibles pour la collecte de données et comment ils fonctionne.
- Tous les livres de référence, livres blancs, etc. (techniques et non techniques).
- Toute implémentation open source (en particulier dans .NET).
La solution
Voici les termes clés utilisé:
- Hit (Internet)
- vue page
- Visite / session
- Première visite / Première session
- Visiteur / Visiteur unique / utilisateur unique
- Répétez visiteur
- Nouveau visiteur
- Impression
- singletons
- Taux de rebond
- % Sortie
- temps de visibilité Session
- Durée
- Page Voir Durée / sur la page
- Page profondeur / Vues de pages par session
- Fréquence / session unique par
- Chemin Cliquez sur
Méthodes utilisées :
- Analyse du fichier journal du serveur Web
- Page tagging
Analyse du fichier journal du serveur Web
Dans cette méthode, vous écrire le script pour gratter les détails sur vos fichiers journaux et puis écrire à votre base de données. Cette méthode ne vous donnera pas de statistiques en temps réel. Vous pouvez en savoir plus sur l'analyse web log logiciel .
marquage
Ajoutez un code de javascript ou juste une image, puis utilisez le code pour obtenir tous les dtails à propos de la page, referrr, etc visiteur.
... ces images étaient incluses dans une toile page qui montre le nombre de fois l'image avait été demandée, qui était une estimation du nombre de visites à cette page. Dans les années 1990 en retard ce concept a évolué pour inclure une petite image invisible au lieu d'un visible l'un, et, en utilisant JavaScript, de transmettre à la demande d'image certaines informations sur la page et le visiteur. Ces informations peuvent ensuite traiter à distance par une bande société d'analyse et vaste statistiques générées ...
Si vous utilisez l'analyse dans votre propre site web, vous pouvez utiliser le code fourni par Eytan Levit
wikipedia . Plus d'informations peuvent être trouvées ici.
Autres conseils
Eh bien,
Je ne suis pas expert, mais voici quelques données communes que vous pouvez récupérer pour construire votre propre analyse:
string str;
str += "Refferer:" + Request.UrlReferrer.AbsolutePath.ToString() + "<BR>";
str += "Form data:" + Request.Form.ToString() + "<br>";
str += "User Agent:" + Request.ServerVariables["HTTP_USER_AGENT"] + "<br>";
str += "IP Address:" + Request.UserHostAddress.ToString() + "<BR>";
str += "Browser:" + Request.Browser.Browser + " Version: " + Request.Browser.Version + " Platform: " + Request.Browser.Platform + "<BR>";
str += "Is Crawler: " + Request.Browser.Crawler.ToString() + "<BR>";
str += "QueryString" + Request.QueryString.ToString() + "<BR>";
Vous pouvez également analyser le mot-clé que l'utilisateur a atteint votre site à partir comme ceci:
protected string GetKeywordFromReferrer(string url)
{
if (url.Trim() == "")
{
return "no url";
}
string urlEscaped = Uri.UnescapeDataString(url).Replace('+', ' ');
string terms = "";
string site = "";
Match searchQuery = Regex.Match(urlEscaped, @"[\&\?][qp]\=([^\&]*)");
if (searchQuery.Success)
{
terms = searchQuery.Groups[1].Value;
}
else
{
Match siteDomain = Regex.Match(urlEscaped, @"http\:\/\/(.+?)\/");
if (siteDomain.Success)
{
site = siteDomain.Groups[1].Value;
}
}
if (terms != "")
{
return terms;
}
if (site != "")
{
return site;
}
return "Direct Access";
}
Espérons que cela a aidé un peu.
1. Termes-clés Comme avec la réponse 1
2. Ce que tous les supports sont disponibles pour la collecte de données et comment ils fonctionne. Les fichiers journaux d'Apache, IIS. Handlers HTTP pour ASP.NET, ou votre page réelle. Javascript comprend (les objets disponibles Javascript vous donner plus d'informations dont vous avez besoin sur le client)
3. Tous les livres de référence, des livres blancs, etc. (techniques et non techniques) Le RFC sur HTTP est utile, qui vous donne la plupart des têtes de requête qui sont capturables.
4.Toute implémentation open source (en particulier dans .NET).
J'ai écrit un qui a la partie analyse de l'analyse effectuée (à mon avis le plus dur). Il a besoin d'un peu de peaufinage dans certains domaines comme il est de 4 ans:
- Statmagic (pour les fichiers journaux)
Il manque un DAL, ce qui est plus difficile qu'il n'y paraît - le principal obstacle est en vous assurant que vous ne répliquent pas les données exactes que chaque ligne du journal a, comme vous alors pouvez tout aussi bien utiliser les fichiers journaux. L'autre partie affiche ces données agrégées dans un format agréable. Mon objectif était de l'avoir stocké dans SQL Server, et aussi db4o format pour les petits sites répondre.
La « triste » partie du projet Google Statmagic est venu et a complètement anéanti la concurrence et tout point en moi finir.