АНАЛИТИКА ПЛЮС
Профессиональные услуги в сфере BI

Анализ big data. Большие объемы данных

Data – с англ., это данные, которые генерирует, собирает и хранит любая компания. А big data, соответственно, — это большие объемы данных: когда данных очень и очень много. Для кого то это 100 Гб, а для кого-то более 1 Тб.

Википедия рассматривает big data как совокупность методов и инструментов для обработки этих самых больших данных:
Больши́е да́нные (англ. big data) — обозначение структурированных и неструктурированных данных огромных объёмов и значительного многообразия, эффективно обрабатываемых горизонтально масштабируемыми программными инструментами и альтернативных традиционным системам управления базами данных и решениями класса Business Intelligence.

Но все-таки, в СМИ в большинстве своем термин big data используется именно для обозначения большого объема данных, а не способов его обработки. Насколько это верно и правильно, покажет время.

Анализ big data. Цель

Количество источников данных растет, данных становится все больше. При этом любые данные, тем более большие, нужно обрабатывать, хранить и анализировать. Иначе какой в них смысл? А значит, развиваются и программные решения, предназначенные для обработки и хранения больших данных.

Для чего нужен анализ big data? В принципе, цель – та же, что и у любого анализа (или даже бизнес-анализа). Представить данные в структурированном и упорядоченном виде, сгруппировать данные и сделать на их основе выводы, которые помогут принять верные решения и сделать прогнозы.

Анализ big data. Методы

Источниками больших данных могут быть:

  • Все данные о покупках в сети магазинов
  • Все данные о транзакциях в банке
  • Информация о сотрудниках компании с большой филиальной сетью
  • Информация о продуктах на складах (при условии наличия большого количества товаров или складов)

Из глобального и мирового: большие данные – это информация, например, с различных измерительных приборов – данные о погоде. О ситуации на дорогах, данные из космоса, наконец.

Для анализа больших объемов данных используют специальные методы:

  • Классификация, кластерный и регрессионный анализ (и другие метода Data Mining)
  • Crowdsourcing (краудсорсинг, или обогащение данных с помощью людей на безвозмездной основе)
  • Machine learning (машинное обучение без учителя и с учителем)
  • Пространственный анализ
  • Искусственные нейронные сети
  • Статистический анализ
  • И главное – визуализация данных

Большие объемы данных. Визуализация

Почему так важна визуализация при анализе big data? Все просто. Когда данных много, то и результатов анализа получается много: много цифр, много выводов. Табличные системы уже не справляются с задачей удобного представления информации.

По результатам исследований (Массачусетский университет) выяснено, что человеческий глаз воспринимает информацию за 13 миллисекунд! Любому менеджеру или руководителю удобнее воспринимать информацию в графиках, тем более удобно, если эти графики интерактивные и позволяют «опустить» на уровень ниже в представлении информации или, наоборот, на уровень выше.

Сегодня на рынке представлено более 300 сервисов и платформ для анализа больших данных. Исследовательская компания Gartner в 2018 году назвала Tableau лидером среди BI-систем.

Пример представления информации в Tableau:

Компании, которые начали использовать Tableau, отмечают, что те отчеты, на которые онитратили 6-8 часов еженедельно или ежедневно при работе с табличными формами, в Tableau собираются за 10-15 минут.

Изучайте Tableau, пробуйте и проверяйте:

Скачайте Tableau бесплатно
и получите обучающие материалы

Наша необычная коллекция обоев для рабочего стола!
Выбирай картинку и скачивай абсолютно бесплатно>>

x

Этот сайт использует файлы cookies, чтобы облегчить вам пользование нашим веб-сайтом.

Продолжая использовать этот веб-сайт, вы даете согласие на использование файлов cookies.