Как работают инструменты веб-аналитики?[закрыто]

StackOverflow https://stackoverflow.com/questions/510361

  •  21-08-2019
  •  | 
  •  

Вопрос

Я нахожусь в процессе сбора информации об инструментах веб-аналитики (таких как Google Web Analytics) для моего следующего задания, но я не могу найти никакой полезной информации.Я ищу:

  1. Используемые ключевые термины.
  2. Какие все средства доступны для сбора данных и как они работают.
  3. Любые справочники, официальные документы и т.д. (как технические, так и нетехнические).
  4. Любая реализация с открытым исходным кодом (особенно в .NET).
Это было полезно?

Решение

Вот эти ключевые термины использованный:

  • Хит (интернет)
  • Просмотр страницы
  • Визит / Сессия
  • Первый визит / Первая сессия
  • Посетитель / Уникальный Посетитель / Уникальный пользователь
  • Постоянный Посетитель
  • Новый Посетитель
  • Впечатление
  • Одиночки
  • Показатель отказов
  • % Выход
  • Время видимости
  • Продолжительность сеанса
  • Продолжительность просмотра страницы / Время нахождения на странице
  • Глубина страницы / Просмотры страниц за сеанс
  • Частота / Сеанс для каждого Уникального
  • Щелкните путь

Используемые методы:

  • Анализ файла журнала веб-сервера
  • Пометка страницы

Анализ файла журнала веб-сервера

В этом методе вы пишете скрипт для извлечения сведений из ваших файлов журналов, а затем записываете их в свою базу данных.Этот метод не даст вам статистику в реальном времени.Вы можете прочитать больше о программном обеспечении для анализа веб-журналов здесь.

Пометка страницы

Добавьте код javascript или просто изображение, а затем используйте код, чтобы получить все сведения о странице, реферере, посетителе и т.д.

...это были изображения, включенные в веб страницы, которые показывали количество раз изображение было предложено, что предварительная оценка кол-во посещение этой страницы.В конце 1990-х эта концепция эволюционировала, включив маленькое невидимое изображение вместо видимого и, используя JavaScript, для передачи вместе с запросом изображения определенной информации о странице и посетителе.Затем эта информация может обрабатываться удаленно веб-аналитической компанией и генерироваться обширная статистика...

Если вы используете аналитику на своем собственном веб-сайте, вы можете использовать код предоставлен Эйтаном Левитом

Кредит википедия.Более подробную информацию можно найти там.

Другие советы

Что ж,

Я не эксперт, но вот некоторые общие данные, которые вы можете получить для создания собственной аналитики:

string str;
str += "Refferer:" + Request.UrlReferrer.AbsolutePath.ToString() + "<BR>";
str += "Form data:" + Request.Form.ToString() + "<br>";
str += "User Agent:" + Request.ServerVariables["HTTP_USER_AGENT"] + "<br>";
str += "IP Address:" + Request.UserHostAddress.ToString() + "<BR>";
str += "Browser:" + Request.Browser.Browser + " Version: " + Request.Browser.Version + " Platform: " + Request.Browser.Platform + "<BR>";
str += "Is Crawler: " + Request.Browser.Crawler.ToString() + "<BR>";
str += "QueryString" + Request.QueryString.ToString() + "<BR>";

Вы также можете проанализировать ключевое слово, по которому пользователь перешел на ваш сайт, следующим образом:

protected string GetKeywordFromReferrer(string url)
{
    if (url.Trim() == "")
    {
        return "no url";
    }
    string urlEscaped = Uri.UnescapeDataString(url).Replace('+', ' ');
    string terms = "";
    string site = "";

    Match searchQuery = Regex.Match(urlEscaped, @"[\&\?][qp]\=([^\&]*)");
    if (searchQuery.Success)
    {
        terms = searchQuery.Groups[1].Value;
    }
    else
    {
        Match siteDomain = Regex.Match(urlEscaped, @"http\:\/\/(.+?)\/");
        if (siteDomain.Success)
        {
            site = siteDomain.Groups[1].Value;
        }
    }
    if (terms != "")
    {
        return terms;
    }
    if (site != "")
    {
        return site;
    }

    return "Direct Access";

}

Надеюсь, это немного помогло.

1.Используемые ключевые термины
Как и в случае с ответом 1

2.Какие все средства доступны для сбора данных и как они работают.
Файлы журналов из Apache, IIS.HTTP-обработчики для ASP.NET или вашей реальной страницы.Javascript включает в себя (объекты, доступные Javascript, предоставляют вам большую часть необходимой информации о клиенте)

3.Любые справочники, официальные документы и т.д. (как технические, так и нетехнические)
RFC на HTTP полезен, он предоставляет вам большинство заголовков запросов, которые можно перехватить.

4. Любая реализация с открытым исходным кодом (особенно в .NET).

Я написал тот, в котором выполнена синтаксическая часть анализа (на мой взгляд, самая сложная часть).Он нуждается в небольшой доработке в определенных областях, так как ему 4 года:

В нем отсутствует DAL, что сложнее, чем кажется - основное препятствие заключается в том, чтобы убедиться, что вы не копируете точные данные, которые есть в каждой строке журнала, поскольку тогда вы можете просто использовать файлы журнала.Другая часть отображает эти агрегированные данные в удобном формате.Моей целью было сохранить его в SQL Server, а также в формате db4o для обслуживания небольших веб-сайтов.

"Печальная" часть проекта Statmagic заключается в том, что появился Google и полностью уничтожил конкурентов и какой-либо смысл в том, чтобы я его заканчивал.

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top