АНАЛИТИКА ПЛЮС
Профессиональные услуги в сфере BI

Видео-курс «Аналитика интернет-магазина»


Большинство обучающих видео-курсов на различных обучающих платформах, в том числе и в нашей Академии Аналитики, касаются узконаправленных тем, таких как обучение работе с конкретным программным обеспечением на «синтетических данных», что может создать у слушателя вопросы из серии «а как быть в моем конкретном случае?». Данный видео-практикум устроен по-другому: на основе реальной задачи будет построено готовое аналитическое решение, которое:

— автоматизирует процесс сбора данных из веб-сервисов WooCommerce и Яндекс.Метрика (причем без написания кода, в KNIME Analytics Platform),

— сохраняет полученные и обработанные данные в аналитической СУБД Vertica,

— визуализирует данные в виде аналитических отчетов в Tableau.

Данное решение будет собрано одним единственным специалистом практически на ваших глазах, что позволит убедиться в реализуемости данной задачи, а также позволит примерно оценить свои собственные силы в создании таких аналитических решений. В состав курса входит солидное домашнее задание, безусловно, с подробным разбором его решения.

В качестве реальной задачи выбран интернет-магазин, для которого необходимо построить аналитику по эффективности продаж, а также эффективности рекламных каналов, использующихся для привлечения покупательского трафика. Ни одно из существующих на рынке «коробочных» аналитических решений, таких как встроенные отчеты в «e-commerce движках» или встроенная аналитика по тому или иному маркетинговому каналу (а ведь каждый канал, будь то соцсеть, медийная или контекстная реклама, имеет свой личный кабинет и свой формат встроенной аналитики), не позволяет оценить картину в целом, с возможностью детализации одновременно и до конкретной покупки клиента, и до рекламной кампании. Тем не менее, бизнес зачастую задает вопросы на стыке маркетинга и продаж. Именно поэтому, спрос на подобные аналитические решения существует. И построить их самостоятельно не так и сложно. Оставайтесь с нами до конца, и мы покажем, как это сделать своими собственными руками!

 

 

Для кого подойдет видео-курс «Аналитика интернет-магазина»

Наш видео-курс подойдет для аналитиков и/или ИТ-специалистов, желающих пройти полный путь по создании аналитического решения, включая сбор и трансформацию данных из сложных источников (на примере популярных веб-сервисов Яндекс.Метрика и «движка» для интернет-магазинов WooCommerce) с помощью инструмента KNIME Analytics Platform, загрузку обработанных данных в аналитическую СУБД Vertica, построение визуализаций и аналитических дашбордов в BI-инструменте Tableau.

Программа видео-курса

Урок 1. Введение (доступно БСЕПЛАТНО в режиме ДЕМО на  платформе онлайн-обучения Академия Аналитики)

— Введение: кратко о причинах создания курса и его содержании
— Рекомендации по дополнительным курсам

Урок 2. Описание задачи (доступно БСЕПЛАТНО в режиме ДЕМО на  платформе онлайн-обучения Академия Аналитики)

— Цели практикума
— Постановка задачи, дано: интернет-магазин на WordPress + WooCommerce, данные по посещаемости – в Яндекс.Метрика, имеющиеся рекламные потоки и UTM-метки
— Вопросы, на которые аналитик интернет-магазина хочет получить ответы
— Общий алгоритм решения аналитических задач
— О принципе: 1 задача – 1 дашборд
— Набор показателей и срезов
— О том, где в WooCommerce найти необходимые данные и о возможных сложностях «ручных» выгрузок в сравнении с использованием REST API
— О том, как пользоваться Яндекс.Метрика для получения данных о просмотрах страниц сайта интернет-магазина
— Кратко об инструменте выгрузки данных, — KNIME Analytics Platform
— Кратко об аналитической СУБД Vertica
— О подходе к созданию дашборда: начинаем с эскиза
— Кратко о BI-инструменте для создания аналитических отчетов, — Tableau
— Кратко о том, с чего мы начнем в Tableau: создание источников данных (data source)
— Кратко о том, из чего состоит дашборд в Tableau
— Архитектура решения, создаваемого в рамках данного практикума

Урок 3. Установка ПО, используемого в рамках курса (доступно БСЕПЛАТНО в режиме ДЕМО на  платформе онлайн-обучения Академия Аналитики)

— Где взять дистрибутивы для установки?
— Установка аналитической платформы KNIME Analytics Platform
— Установка виртуальной машины Oracle VM VirtualBox
— Установка СУБД Vertica Community Edition из образа виртуальной машины
— Настройка тестовой базы Vertica с помощью утилиты Admin Tools
— Настройка параметров вешнего сетевого доступа к виртуальной машине
— Установка JDBC-драйвера для Vertica
— Установка Tableau Desktop
— Установка драйвера для доступа из Tableau к Vertica (ODBC-драйвер для Windows)

Урок 4.1 Знакомство с интерфейсом платформы KNIME (часть 1) (доступно БСЕПЛАТНО в режиме ДЕМО на  платформе онлайн-обучения Академия Аналитики)

— Кратко об истории создания платформы KNIME (Analytics Platform и Server)
— Запуск и первичная настройка KNIME Analytics Platform
— Окно KNIME Explorer, просмотр папок с примерами потоков работ
— Разбор примера потока работ
— Центральное окно для просмотра и редактирования потока работ
— Ключевые элементы: ноды и связи между ними, входы и выходы, чтение таблиц данных и переменных
— Окна Workflow Coach и Node Repository, обзор возможностей
— Окно Outline, обзор возможностей
— Окно Console, обзор возможностей
— Окно Description для просмотра описания потока работ, либо конкретной выбранной ноды
— Конфигурация ноды, статус ноды, контекстное меню
— Исполнение ноды File Reader, просмотр результатов в кэше
— Исполнение потока работ полностью
— Конфигурация ноды Row Filter для фильтрации строк
— Запуск ноды Row Filter, просмотр результатов
— Конфигурация ноды GroupBy для вычисления агрегатов
— Конфигурация ноды Column Rename (переименование столбца)
— Конфигурация ноды Constant Value Column
— Конфигурация ноды String Configuration для работы с переменными ввода
— Соединение портов между нодами, передача значения переменных
— Об использовании переменных, доступности переменных в рамках всего потока в целом (Flow Variables)

Урок 4.2 Знакомство с интерфейсом платформы KNIME (часть 2) (доступно БСЕПЛАТНО в режиме ДЕМО на  платформе онлайн-обучения Академия Аналитики)

— Новый тип подключений: к базам данных
— Разбор потока 02_Using_Flow_Variables_to_control_Execution_Order
— Конфигурация ноды Table Reader для чтения табличных данных из файла, исполнение и просмотр результатов выполнения
— Конфигурация ноды SQLite Connector для создания подключения в БД, исполнение и просмотр результатов выполнения
— Конфигурация ноды DB Writer для записи в БД, исполнение и просмотр результатов выполнения
— Конфигурация ноды DB Table Selector по выбору вновь записанных строк, исполнение и просмотр результатов выполнения
— Конфигурация ноды DB Reader для чтения данных из таблицы, выбранной ранее в ноде DB Table Selector, исполнение и просмотр результатов выполнения
— Анализ смысла всего потока работ
— Модификация потока работ: добавление ноды, удаление ноды, откат изменений
— Создание новой ноды для создания переменной Class
— Определение области видимости переменных
— Локальное сохранение потока работ
— О глобальных переменных
— О влиянии переменных на последовательность выполнения внутри потока работ
— Домашнее задание

Урок 5.1 Извлечение и подготовка данных WooCommerce (часть 1)

— Постановка задачи выгрузки данных из WooCommerce
— Общий алгоритм потока работ
— REST API – краткий обзор возможностей
— Запросы к API: основные методы (GET, POST, PUT, DELETE) и параметры их вызова
— Ответы от API (HTTP Response)
— Обзор REST API непосредственно сервиса WooCommerce: заказы, позиции заказа, продукты
— Аутентификация WooCommerce REST API

 Урок 5.2 Извлечение и подготовка данных WooCommerce (часть 2)

— Начинаем создавать новый поток работ в KNIME
— Создание глобальных переменных для аутентификации в WooCommerce REST API
— Конвертация переменной period_start в таблицу
— Дописываем время: конвертация строки в тип дата+время
— Настройка сдвига времени с учетом UTC -3 часа
— Обратная конвертация даты в строку
— Преобразование строки в переменную
— Обзор функциональности комментирования блока работ

Урок 5.3 Извлечение и подготовка данных WooCommerce (часть 3)

— Добавление EndPoint
— Формирование URL для запроса
— Преобразование переменной URL в таблицу
— Настройка параметров GET
— Пробный запуск потока с запросом GET из KNIME, просмотр результатов
— Рекомендации по выбору значений параметров при работе с ответами JSON
— Настройка ноды Column Filter для получения количество страниц с заказами
— Преобразование таблицы в переменной, с помощью Table Row to Variable

Урок 5.4 Извлечение и подготовка данных WooCommerce (часть 4)

— Планирование алгоритма выгрузки в целом
— Конфигурация ноды Case Switch Data, для реализации ветвления логики алгоритма
— Настройка ноды Rule Engine Variable
— Преобразование строкового значения (количества страниц) в целое число
— Убираем из атрибутов чтения все, кроме URL
— Добавляем ноду Add Empty Rows, чтобы создать список запросов к REST API, по количеству страниц (в виде таблицы с одинаковыми значениями)
— Конфигурируем ноду Math Formula, чтобы задать номер страницы, в виде отдельного поля
— Добавляем ноду String Manipulation, чтобы включить номер страницы в текст поля URL

Урок 5.5 Извлечение и подготовка данных WooCommerce (часть 5)

— Формируем запрос, с помощью ноды GET Request, выгрузка данных по всем страницам
— Просмотр полученных результатов выгрузки
— Отбираем необходимые поля выдачи – page и body
— Добавляем вторую ветку алгоритма, на случай если ни одной страницы не существует
— Добавляем аннотацию по блоку алгоритма, связанному с извлечением данных о заказах из WooCommerce

Урок 5.6 Извлечение и подготовка данных WooCommerce (часть 6, обработка извлеченных данных)

— Обсуждаем, каким образом будем обрабатывать извлеченные данные
— Добавляем Chunk Loop Start, для обработки страниц в цикле
— Добавляем ноду RowID, чтобы иметь отдельное поле по номеру страницы
— Добавляем Column Filter, для выделения только поля Body с необходимыми нам данными
— Добавляем ноду JSON to Table, чтобы распарсить Body в набор полей таблицы
— Транспонируем таблицу с помощью ноды Transpose, чтобы видеть данные в виде строк таблицы (из двух полей атрибут и его значение)
— Изменение типа и названия колонки со значением, с помощью ноды Column Rename
— Установка необходимо расширения KNIME Expressions, так как в стандартную поставку это не входит
— Добавляем Column Expressions, для замены пустых строк на missing value (аналог null)

Урок 5.7 Извлечение и подготовка данных WooCommerce (часть 7)

— Добавляем ноду Cell Splitter, для разделения поля keys
— Добавляем ноду Row Filter, для удаления строк с URL
— Еще одну ноду Row Filter, для удаления метаданных
— Еще одну ноду Cell Splitter, для разбиения keys на 2 поля
— Добавляем выход из цикла, нода Loop End
— Тестируем запуск всего цикла
— Займемся переименованием полей, связанных с номером позиции и номера страницы (Column Rename)
— Обработка позиций заказов в рамках заков, нода Row Splitter
— Нода Pivoting, пивот заказов – получение «плоской» таблицы
— Добавляем ноду Constant Value Column, добавляя адреса сайта в качестве отдельного поля

Урок 5.8 Извлечение и подготовка данных WooCommerce (часть 8)

— Добавляем ноду Column Rename Regexs: задаем регулярное выражение по переименованию названий полей (добавляем имя сущности – order_ — в качестве префикса)
— Добавляем еще одну ноду Column Rename Regexs, с целью убрать из наименований полей символ точки и заменить его на подчеркивание
— Убираем из анализа ненужные поля с помощью ноды Column Filter
— Приводим дату заказа к типу Date & Time
— Добавляем ноду Date&Time Shift: смещение времени заказов от Гринвича (UTC) к Московскому (UTC+3)
— Добавляем ноду Column Aggregator для создания поля с наименованиями колонок, рекомендации по опции Missing Value
— Добавляем ноду Pivot Table, делая сводную таблицу (пивот) позиций заказа
— Добавляем ноду Column Rename, для переименования поля с себестоимостью заказа

Урок 5.9 Извлечение и подготовка данных WooCommerce (часть 9)

— Копируем блок нод, созданных ранее, адаптируя их под позиции заказа
— Добавляем ноду Column Filter, с целью забрать необходимые поля (индексы, id и дату/время заказа) и добавить их в таблицу с позициями заказов
— Добавляем ноду Joiner, чтобы добавить ранее полученные поля по ключам к таблице с позициями заказов
— Корректируем настройки Column Filter, чтобы включить в выдачу поля, полученные на предыдущем этапе
— Проверяем настройки нод в применении их к позициям заказов
— Добавляем аннотацию для оформления блока работ по подготовке заказов и позиций заказов
— Оформляем также два блока – подготовка данных по заказам, и подготовка данных по позициям в заказах
— Выполняем подготовительную работу по выгрузке данных, относящихся к продуктам (дублирование всех ранее созданных нод)

Урок 5.10 Извлечение и подготовка данных WooCommerce (часть 10)

— Начинаем корректировать ноды, чтобы получить выгрузку данных по продуктам
— Замена настроек в String Manipulation и других нодах
— Удаляем ненужные ноды потока, внутри цикла
— Корректируем оставшиеся ноды, адаптируя их под получение данных о продуктах
— В ноде Column Filter отбираем необходимые нам в дальнейшем поля для анализа
— Изменяем название полей в Column Rename
— Дописываем префикс product_ к названиям полей, с применением регулярных выражений
— Корректируем обработку полей, связанных с датами
— Резюмируем, подводим итоги: мы подготовили потоки работ для получения таблиц заказов, позиций внутри заказа, продуктов

Урок 6.1 Загрузка данных WooCommerce в Vertica (часть 1)

— Немного теории о «колоночных» СУБД, и Vertica, в частности, и их удобстве для аналитических SQL-запросов
— О понятиях «Таблица» и «Проекция» в Vertica, а также оптимизации SQL-запросов
— Об инструменте Database Designer (DBD)
— О механизме хранения данных в Vertica (ROS) и операции Mergeout
— Типы данных в СУБД Vertica
— О партиционировании таблиц
— О видах загрузки данных – Trickle Load и Bulk Load для точечных и пакетных операций загрузки в таблицы
— О видах удаления данных – DELETE и TRUNCATE TABLE

Урок 6.2 Загрузка данных WooCommerce в Vertica (часть 2)

— Обзор алгоритма загрузки в БД
— Установка JDBC-драйвера Vertica для платформы KNIME
— Настройка ноды Vertica Connector
— Еще один способ установки драйверов, с помощью расширений KNIME
— Расширяем список переменных потока работ: db_host, db_port и db_database
— Добавляем новые workflow credentials – логин и пароль для доступа к СУБД Vertica
— Запускаем виртуальную машину с Вертикой
— Входим в виртуальную машину под пользователем Vertica_DBA
— Стартуем базу данных с помощью утилиты Admin Tools
— Переходим в KNIME и добавляем ноду Vertica Connector
— Задаем параметры доступа к БД, тестируем подключение
— Добавляем ноду DB SQL Executor, для создания схемы данных с именем woocommerce (в случае если ее нет)
— Создаем новую переменную для задания имени схемы (долой хардкод!)
— Добавляем ноду DB Table Selector, проверяя, что схема создана

Урок 6.3 Загрузка данных WooCommerce в Vertica (часть 3)

— Обсуждаем, каким образом мы можем создать таблицы БД
— Решаем выбрать ноду Table Creator, а не DB Table Creator, используя ранее созданную нами структуру таблиц
— Добавляем ноду Column Aggregator для создания определения поля БД
— Добавляем ноду GroupBy, создавая список полей в одной ячейке (для последующего запуска скрипта по созданию таблицы)
— Добавляем ноду Table Row to Variable, для конвертации строки в переменную
— Добавляем ноду String Manipulation (Variable), для создания переменной с именем таблицы
— Добавляем ноду DB SQL Executor, создавая скрипт для создания таблицы с использованием имени схемы и наименования из ранее созданных переменных
— Настраиваем правила сортировки, партиционирования и группировки
— Запускаем ноду создания таблицы и проверяем успешность ее создания с помощью ноды DB Table Selector
— Копируем весь ранее созданный блок работ, относящийся к order_items, меняем настройки на заказы (orders)
— Запускаем поток работ для таблицы заказов, проверяем успешность создания
— Аналогично, повторяем для таблиц, связанных с продуктами (product), убирая попутно партиционирование, и меняя настройки сортировки

Урок 6.4 Загрузка данных WooCommerce в Vertica (часть 4)

— Блок, связанный с загрузкой данных в БД
— Задаем стартовую дату, начиная с которой начинаем выгрузку
— Запускаем поток работ целиком, проверяя, что выгрузка и загрузка состоялась
— Добавляем настройки по удалению строк таблиц БД перед каждой итерацией загрузки, с помощью DB SQL Executor (чистка «старых» данных)
— Добавляем ноду DB Writer для пакетной загрузки данных в БД, выбирая переменные в качестве параметров запуска
— Рекомендации по опциям запуска DB Writer
— Приступаем к настройкам загрузки фактовых таблиц (заказов и позиций заказа)
— Тестовый запуск и исправление ошибок
— Добавляем дополнительные механизмы контроля по удалению данных о позициях заказов, прогруженных на предыдущем этапе, перед новой итерации загрузки, с помощью DB SQL Executor
— Запускаем загрузку данных и проверяем ее успешность с помощью DB Reader
— Создаем аналогичные блоки работ по заказам
— Добавляем аннотации ко всем новым блокам работ (продукты, заказы и позиции заказов)

Урок 6.5 Загрузка данных WooCommerce в Vertica (часть 5)

— Обсуждение нюансов, связанных с длительностью выгрузки данных о заказах, и возможностью появления новых заказов во время выгрузки
— Необходимо поменять порядок сортировки при формировании первичного URL: по возрастанию, а не по убыванию
— Запускаем поток работ и проверку отсутствия дубликатов заказов
— Добавляем аннотации к ранее созданным блокам работ
— Делаем зацикливание потоков выгрузки данных, с учетом значений дат, уже загруженных в БД (блок 4 в общем плане алгоритма)
— Исправляем проблемы с цикличностью алгоритма, удаляя ноды с переменными, и корректируя последующий ноды, ведь нет ничего более гарантированного, чем хардкод
— Добавляем ноду DB Table Selector, получая таблицу
— Добавляем ноду DB GroupBy, с целью получить максимальный номер страницы, уже прогруженной в БД, для каждого из сайтов интернет-магазина
— Добавляем ноду DB Reader для получения таблицы на уровне KNIME

Урок 6.6 Загрузка данных WooCommerce в Vertica (часть 6)

— Добавляем Variable to Table Row: обработка ситуации пустых таблиц, забираем URL сайта
— Добавляем ноду Joiner
— Добавляем ноду Cross Joimer
— Меняем формат даты и времени с помощью String Manipulation, чтобы ее можно было бы дальше распарсить
— Добавляем ноду String to Date&Time, для преобразования к формату дата+время
— Добавляем Column Expressions для выбора максимальной из двух дат, и меняем результирующий тип данных на дату и время
— Добавляем ноду Date&Time Shift, добавляя смещение во времени
— Добавляем Column Filter, убирая ненужные поля
— Конвертируем даты в формат строки, с помощью ноды Date&Time to String
— Добавляем Column Rename для переименования смещенного времени максимума в period_start
— Добавляем Table Row to Variable для конвертации в переменную
— Интегрируем две ветки работ
— Затем приступаем к модификации переменных стартового периода, заменяем ее: но это не получается без прогона потока работ
— Поэтому выполняем поток работ, видим появление переменной max_date
— Меняем аналогично по позициям заказов и продуктам
— Проверяем корректность работы, начиная с удаления данных и до их прогрузки
— Контроль: сбрасываем поток работ, и выполняем его полностью
— Меняем аннотацию по блоку работ по подготовке переменной с датой начала периода выгрузки
— Резюмируем итоги по общему потоку работ, от первичной загрузки до цикличной загрузки исходя из значений из БД

Урок 7. Домашнее задание — Постановка задачи по Metrika Logs API

— Формулировка домашнего задания
— О «подводных камнях»
— О дополнительном функционале KNIME, который потребуется для решения задачи
— Рекомендации по нодам для использования в данном задании

Урок 8.1 Домашнее задание — Разбор решения по Metrika Logs API (часть 1)

— Открываем документацию по Logs API, разбираем отдельные аспекты, необходимые далее при создании потока работ в KNIME:
— Авторизация
— Оценка возможности создания запроса
— Создание запроса логов
— Описание типа log_request
— Загрузка части подготовленных логов обработанного запроса
— Кратко о проблематике в использовании input_stream_resource
— Просмотры и визиты: обзор имеющихся полей (также они есть в файле раздатки)
— Переходим в KNIME, открываем готовый поток работ из раздатки
— Смотрим заданные credentials, а также переменные потока работ
— Формирование структуры выгрузок по просмотрам и визитам
— Запрос возможности выгрузки за необходимый период, и варианты действий в случае успешности или ошибки

Урок 8.2 Домашнее задание — Разбор решения по Metrika Logs API (часть 2)

— Запрос выгрузки логов
— Проверка готовности логов, в случае готовности извлечение списка частей логов
— Особенности рекурсивных циклов (Recursive Loop)
— Запускаем новый цикл по обработке частей логов, с целью обработать каждую часть, склеить их вместе, отсортировать по source на визиты и просмотры

Урок 8.3 Домашнее задание — Разбор решения по Metrika Logs API (часть 3)

— Начинаем обсуждать, как обработать полученные в цикле результаты по просмотрам и визитам
— Обсуждаем, как преобразовать массивы, чтобы нормализованные таблицы можно было сравнивать друг с другом
— Трансформируем таблицу hits
— Трансформируем таблицу hits_goals_facts
— Трансформируем таблицу visits_goals_facts, по аналогии с предыдущим этапом
— Трансформируем таблицу hits_in_visits
— Трансформируем таблицу visits
— «Бонусная часть»: Выгрузка списка целей, трансформация его, и загрузка в БД в таблицу goals

Урок 8.4 Домашнее задание — Разбор решения по Metrika Logs API (часть 4)

— Создаем в БД таблицу hits_goals_facts
— Создаем в БД таблицу hits
— Создаем в БД таблицу visits
— Загружаем данные в созданные таблицы
— Обсуждаем нюансы, связанные с чисткой «старых» данных из фактовых таблиц
— Обсуждаем зацикливание потока работ
— Разбираемся с датой начала периода выгрузки данных
— Преобразуем полученную дату в переменную и включаемся в ранее созданный поток

Урок 9. Выполнение потоков работ KNIME по расписанию

— «Заставим вкалывать робота, а не человека!»
— Пара слов о KNIME Server, коммерческом продукте
— Планировщик задач Windows, и других операционных систем
— KNIME + Docker
— Разбор решения с использованием планировщика задач Windows
— Настройки (preferences) запуска потоков KNIME из планировщика задач
— Возможность конфигурирования глобальных переменных, при запуске потока извне
— Разбор строки аргументов запуска
— Готовимся к запуску: сбрасываем состояние потока, закрываем его в окне KNIME Analytics Platform
— Запуск потока работ, смотрим за обновлением статуса, дожидаемся окончания работы потока
— Проверяем результаты

Урок 10.1 Создание источника данных в Tableau (часть 1)

— Кратко о Tableau, имеющихся продуктах
— Отличия Tableau Prep Builder от KNIME Analytics Platform
— Процесс создания отчетов в Tableau
— Кратко об источниках данных в Tableau
— Чек-лист по источникам данных

Урок 10.2 Создание источника данных в Tableau (часть 2)

— ПРАКТИКА
— Проверяем работоспособность кластера Vertica
— Запускаем Tableau Desktop
— Подключаемся к Vertica
— Начинаем создавать логическую модель данных, задаем связи между таблицами orders и order_items, а также между order_items и products
— Создаем связь таблиц orders и hits, используя вычисляемое поле
— Связываем таблицы hits и hits_in_visits, а также hits_in_visits и visits
— Переходим в интерфейс создания визуализаций
— Переименовываем поля таблиц в «говорящие» названия
— О типах полей

Урок 10.3 Создание источника данных в Tableau (часть 3)

— Изменение типов полей
— Настройка форматирования полей (разделители разрядов, валюта и т.п.)
— Изменение дефолтного типа агрегации поля (например, от суммы к среднему арифметическому)
— Создание вычисляемого поля (прибыль, маржинальность и т.д.)
— Скрытие ненужных для анализа таблиц (hits_in_visits)
— Создание описаний полей
— Создание алиасов, редактирование неопределенных/неполных данных
— Подводим итоги по чек-листу
— Просмотр готового источника данных в Tableau

Урок 11.1 Создание визуализаций и дашборда в Tableau (часть 1)

— Приступаем к подготовке визуализации
— Используем конструкцию measure names / measure values для первой визуализации «основные показатели»
— Вторая визуализация: таблица бизнес-показателей в разрезе категорий продуктов и продуктов, раскрашиваем таблицу, отбирая необходимые бизнес-показатели из списка
— Третья визуализация: динамика основных бизнес-показателей
— Четвертая визуализация: продажи и прибыль в разрезе клиентов
— Пятая визуализация: детализация по клиентам

Урок 11.2 Создание визуализаций и дашборда в Tableau (часть 2)

— Думаем о шестой визуализации: стыковка заказов с источниками по рекламе
— Показываем сумму продаж и маржинальность в разрезе рекламных кампаний, а затем добавляя детализацию до источника трафика, далее окрашиваем столбцы по прибыли
— Создаем новый дашборд «Анализ продаж», добавляя и настраивая ранее созданные визуализации
— Публикация контента на Tableau Server: источника данных (data source), а затем и всей рабочей книги (workbook)

Урок 12. Советы по простейшей продуктивной среде

— Вспоминаем, для чего необходим Database Designer (DBD) в СУБД Vertica
— Создаем новый дизайн БД, обсуждаем настройки дизайнера
— Запускаем создание дизайна
— Рекомендации по среде развертывания (по минимуму), для компонент KNIME Analytics Platform, Vertica и Tableau Server
— Резюмируем итоги практикума

 

Курс читает: Артем Шевченко,
Директор департамента по работе с клиентам, АНАЛИТИКА ПЛЮС

Проекты: Knauf Insulation, Лукойл, DS Systems. Разработка аналитических дашбордов «под ключ» — от сбора данных до визуального представления.Выпускник РЭУ им. Г.В.Плеханова «Прикладная информатика»

Сертификация: Tableau Desktop Certified Associate, Alyeryx Designer Advanced

Проектный опыт в сферах: закупки, retail, финансы, HR, e-commerce, недвижимость.

Специализация на продуктах:
KNIME, Tableau, Vertica, Alteryx

 

О нас:

АНАЛИТИКА ПЛЮС оказывает профессиональные услуги в сфере BI с 2012 года. Мы владеем технологиями успеха и готовы оказывать консультационную и технологическую поддержку на всех этапах реализации решений для вашего бизнеса.

Академия Аналитики — онлайн-образовательный проект, который создан командой АНАЛИТИКА ПЛЮС для того, чтобы компании быстро и успешно внедряли решения для анализа данных, а их сотрудники профессионально росли.

 

Академия Аналитики, наши преимущества:

1. Лучшие технологии по мнению ведущего исследовательского агентства Gartner.

2. Тренера – эксперты-практики, признанные в России и в мире.

3. Не требуется быть программистом или крутым математиком.

4. Можно профессионально расти.

5. Доступ сразу ко всем курсам. Не нужно платить отдельно за каждый курс.

6. Можно за 1-3 месяца освоить всю программу. Экономите свое время.

7. Если нужно, эксперты помогут. Не надо платить за услуги, которые не нужны.

8. Сертификаты и помощь в трудоустройстве.

9. До 30% каждого курса в бесплатном демо-доступе.

 

На нашем Youtube канале Академия Аналитики собраны полезные обучающие видео-материалы от лучших экспертов в области анализа данных.

В наших комьюнити мы публикуем свежие новости, обучающие материалы, анонсы к важным событиям и мероприятиям.

 

ВКонтакте Академия Аналитики
https://vk.com/analytixacademy
Telegram-чат Академия Аналитики
https://t.me/analytixacademy_chat

 

На нашей платформе Академия Аналитики собраны авторские видео-курсы по работе с данными. До 30% каждого видео-курса доступно БЕСПЛАТНО в тарифе ДЕМО! При приобретении тарифа СТАНДАРТ или ПРЕМИУМ вам открывается доступ сразу ко всем видео-курсам платформы.

Кто у нас учится?

x

Этот сайт использует файлы cookies, чтобы облегчить вам пользование нашим веб-сайтом.

Продолжая использовать этот веб-сайт, вы даете согласие на использование файлов cookies.