Come funzionano gli strumenti di analisi dei dati web? [chiuso]
-
21-08-2019 - |
Domanda
Sono nel processo di raccolta di informazioni sugli strumenti di web analytics (come Google Web Analytics) per il mio prossimo incarico, ma non sono in grado di trovare alcuna buona informazione. Sto cercando:
- Termini chiave.
- Quali sono disponibili per la raccolta dei dati tutti i mezzi e come funzioni.
- Tutti i libri di riferimento, libri bianchi ecc (tecnici e non tecnici entrambi).
- Qualsiasi implementazione open source (soprattutto in NET).
Soluzione
Ecco le termini chiave utilizzato:
- Hit (internet)
- Visualizzazione pagina
- Visita / Session
- Prima Visita / Prima sessione
- visitatore / visitatore unico / utente Unique
- abituale
- Nuovo visitatore
- Impression
- Singletons
- Frequenza di rimbalzo
- % Esci
- tempo Visibilità
- Durata della sessione
- Page View Durata / Tempo trascorso sulla pagina
- Pagina Profondità / Pagine viste per sessione
- Frequenza / Session per Unique
- Fare clic percorso
Metodi usati :
- Analisi file di log del server Web
- Pagina tag
Web server di analisi file di registro
In questo metodo si scrive script per raschiare i dettagli su file di log e poi scrivere al vostro database. Questo metodo non vi darà statistiche in tempo reale. Si può leggere di più su qui .
tagging pagina
Aggiungere un codice di javascript o solo un'immagine e quindi utilizzare il codice per ottenere tutti i Dtails sulla pagina, referrr, visitatore ecc.
... queste erano le immagini incluse in una web pagina che mostrava il numero di volte l'immagine era stato richiesto, che era una stima del numero di visite a quella pagina. Alla fine del 1990 questo concetto si è evoluto per includere un piccola immagine invisibile, invece di un visibile uno, e, utilizzando JavaScript, per passare insieme alla richiesta di immagine alcune informazioni sulla pagina e il visitatore. Queste informazioni possono poi essere trattati a distanza da un web società di analisi, ed estesa statistiche generate ...
Se si utilizza analisi nel proprio sito web, è possibile utilizzare il codice fornito da Eytan Levit
wikipedia . Maggiori informazioni possono essere trovate qui.
Altri suggerimenti
Bene,
Non sono un esperto, ma ecco alcuni dati comune è possibile recuperare per costruire si possiede analisi:
string str;
str += "Refferer:" + Request.UrlReferrer.AbsolutePath.ToString() + "<BR>";
str += "Form data:" + Request.Form.ToString() + "<br>";
str += "User Agent:" + Request.ServerVariables["HTTP_USER_AGENT"] + "<br>";
str += "IP Address:" + Request.UserHostAddress.ToString() + "<BR>";
str += "Browser:" + Request.Browser.Browser + " Version: " + Request.Browser.Version + " Platform: " + Request.Browser.Platform + "<BR>";
str += "Is Crawler: " + Request.Browser.Crawler.ToString() + "<BR>";
str += "QueryString" + Request.QueryString.ToString() + "<BR>";
È inoltre possibile analizzare la parola chiave che l'utente ha raggiunto il tuo sito web da questo modo:
protected string GetKeywordFromReferrer(string url)
{
if (url.Trim() == "")
{
return "no url";
}
string urlEscaped = Uri.UnescapeDataString(url).Replace('+', ' ');
string terms = "";
string site = "";
Match searchQuery = Regex.Match(urlEscaped, @"[\&\?][qp]\=([^\&]*)");
if (searchQuery.Success)
{
terms = searchQuery.Groups[1].Value;
}
else
{
Match siteDomain = Regex.Match(urlEscaped, @"http\:\/\/(.+?)\/");
if (siteDomain.Success)
{
site = siteDomain.Groups[1].Value;
}
}
if (terms != "")
{
return terms;
}
if (site != "")
{
return site;
}
return "Direct Access";
}
Spero che questo ha aiutato un po '.
1. Termini chiave
Come nel caso di risposta 1
2. Quali sono tutti i mezzi a disposizione per la raccolta dei dati e come funzioni.
I file di registro da Apache, IIS. Gestori HTTP per ASP.NET, o la vostra pagina reale. Javascript include (gli oggetti disponibili per JavaScript darvi maggior parte delle informazioni necessarie sul client)
3. Tutti i libri di riferimento, white paper, ecc (tecnici e non tecnici entrambi)
La RFC su HTTP è utile, che ti dà la maggior parte delle intestazioni di richiesta che sono catturabili.
implementazione 4.Any open source (soprattutto in NET).
ho scritto uno che ha la parte di analisi dell'analisi fatto (a mio avviso, la parte più difficile). Ha bisogno di un po 'di tweaking in alcune zone, come è di 4 anni:
- Statmagic (per i file di log)
E 'manca un DAL, che è più difficile di quanto sembri - il principale ostacolo è fare in modo non si replicano i dati esatti che ogni riga del registro ha, come allora può anche semplicemente utilizzare i file di log. L'altra parte è la visualizzazione di questi dati aggregati in un bel formato. Il mio obiettivo era quello di averlo memorizzato in SQL Server, e anche db4o formato per soddisfare per i siti web di piccole dimensioni.
La parte 'triste' del progetto Statmagic è Google è arrivato e ha completamente spazzato via la concorrenza e qualsiasi punto in me finirlo.