Визуальная аналитика и обратная связь. Описание пространственной сцены. Сервисы для создания диаграмм и графиков

Развитые средства визуализации данных стали неотъемлемой частью корпоративных BI-платформ . Некоторые вендоры, такие, например, как Tableau , именно визуализацию сделали краеугольным камнем своих аналитических систем. Тренд пронизывает рынок систем аналитики полностью: сегодня даже простейшие аналитические инструменты для конечных пользователей зачастую опираются именно на визуальное представление данных.

Визуализация больших данных

Наглядное представление результатов анализа имеет принципиальное значение для их интерпретации. Не секрет, что восприятие человека ограничено, и ученые продолжают вести исследования в области совершенствования современных методов представления данных в виде изображений, диаграмм или анимаций. Казалось бы, ничего нового здесь придумать уже невозможно, но на самом деле это не так. В качестве иллюстрации приводим несколько прогрессивных методов визуализации, относительно недавно получивших распространение.

  • Облако тегов

Каждому элементу в облаке тега присваивается определенный весовой коэффициент, который коррелирует с размером шрифта. В случае анализа текста величина весового коэффициента напрямую зависит от частоты употребления (цитирования) определенного слова или словосочетания. Позволяет читателю в сжатые сроки получить представление о ключевых моментах сколько угодно большого текста или набора текстов.

  • Кластерграмма

Метод визуализации, использующийся при кластерном анализе. Показывает как отдельные элементы множества данных соотносятся с кластерами по мере изменения их количества. Выбор оптимального количества кластеров – важная составляющая кластерного анализа.

  • Исторический поток

Помогает следить за эволюцией документа, над созданием которого работает одновременно большое количество авторов. В частности, это типичная ситуация для сервисов wiki и сайта tadviser в том числе. По горизонтальной оси откладывается время, по вертикальной – вклад каждого из соавторов, т.е. объем введенного текста. Каждому уникальному автору присваивается определенный цвет на диаграмме. Приведенная диаграмма – результат анализа для слова «ислам» в Википедии . Хорошо видно, как возрастала активность авторов с течением времени.

  • Пространственный поток

Эта диаграмма позволяет отслеживать пространственное распределение информации. Приведенная в качестве примера диаграмма построена с помощью сервиса New York Talk Exchange. Она визуализирует интенсивность обмена IP-трафиком между Нью-Йорком и другими городами мира. Чем ярче линия – тем больше данных передается за единицу времени. Таким легко, не составляет труда выделить регионы, наиболее близкие к Нью-Йорку в контексте информационного обмена.

Обработка операционных баз данных и многомерных хранилищ

  • Транзакционные тяжелонагруженные базы данных
  • Реляционные и многомерные хранилища
  • Прямые обращения к API систем
  • Работа с коннекторами
  • Обработка плоских файлов (CSV, Excel , XML и т.п.)

Построение аналитических моделей в памяти

Компьютеры создавались для автоматизации вычислений, но скоро обнаружилось, что счетом дело не ограничивается и их можно использовать как универсальное устройство для работы с данными. Потом были попытки заставить компьютер думать, но менее известны попытки превратить его в интеллектуального помощника, не претендующего на собственный разум, но облегчающего умственную деятельность человека. Ванневар Буш первым облек эту идею в форму гипотетической машины Memex, а идеологически близкие замыслы Дага Энгельбарта воплотились в системе On Line System (NLS). В начале 60-х годов математик и философ Ричард Хэмминг написал: «Назначение компьютера в познании, а не в счете». Однако эти великие благие замыслы оставались нереализованными, поскольку практическая возможность для создания систем, органично сочетающих в себе аналитические способности человека и машины, появилась только сегодня.

Совместно творческий ум человека и способность машины перемалывать огромные объемы данных дают синергетический эффект, оценить который можно, проанализировав последствия проигрыша в 1997 году Гарри Каспарова суперкомпьютеру IBM Deep Blue PowerParallel SP2 с 32 узлами, включающими специальные платы по 8 шахматных спецпроцессоров. После этого поединка гроссмейстер решил, что нужно уравнять шансы и для этого следует позволить игрокам расширить свои аналитические возможности посредством шахматных программ, работающих на ПК. С Deep Blue Каспаров больше не встречался, однако прежде чем Deep Blue был разобран, с ним сыграли еще один матч двое любителей, «вооруженных» обыкновенными ПК. Не будучи гроссмейстерами, не имея серьезной шахматной квалификации, эти двое оказались успешнее чемпиона мира в противоборстве с монстром. Это служит отличной иллюстрацией того, что системы, где функции гармонично разделены между человеком и машиной, могут быть эффективнее полностью автоматизированной системы. Первые признаки этого мы можем наблюдать в бизнес-аналитике, именно здесь - по способу взаимодействия человека с машиной, а не по делению на типы анализируемых данных (структурированные или неструктурированные) - проходит водораздел между старым и новым в бизнес-аналитике.

Открывшаяся возможность продуктивного взаимодействия человека с машиной стала причиной активного подъема в области бизнес-аналитики и в создании новых аналитических платформ . Любой период подъема обычно сопровождается заметными переменами внутри соответствующего сегмента рынка. В данном случае фокус внимания смещается с признанных и хорошо известных технологий, поддерживаемых крупными производителями, на подмножество почти неизвестных в массах технологий Data Discovery (DD) - их иначе называют Visual Analytics (VA) или Visual Data Discovery (VDD), - разрабатываемых в основном небольшими компаниями и отличающихся продвинутыми возможностями взаимодействия человека с машиной. Есть и другие показатели изменений, параллельно с DD и VA активно развиваются еще две группы аналитических технологий: контентная и предиктивная, или предсказательная аналитика (Predictive Analytics, PA).

Область действия визуальной аналитики чрезвычайно велика (рис. 1), но здесь остановимся только на сегментах, связанных с бизнес-аналитикой.

На протяжении всей недолгой истории бизнес-аналитики самое важное место среди используемых методов занимали системы подготовки отчетов (Query and Reporting), суть которых состоит в формулировке запросов, адресованных тем или иным источникам данных, а затем составлении отчетов по их результатам. Все решения Query and Reporting делятся на два больших потока: одни формируют Production Reporting - периодически выпускаемые отчеты, содержащие сведения о производстве, а вторые выдают Business Query and Reporting - оперативные отчеты, рассчитанные на требования менеджмента предприятия. В начале девяностых в дополнение к ним появились системы оперативной аналитической обработки (OnLine Analytical Processing, OLAP). Расплатой за быстрый анализ служит длительная подготовительная процедура - эта категория технологий служит для анализа только тех данных, которые предварительно агрегированы в структурированные многомерные OLAP-кубы. Каждый такой куб содержит всю информацию, которая может потребоваться для ответов на предполагаемые запросы. Необходимость в подготовке куба исключает какую-либо синхронизацию с входным потоком данных. Тем не менее на основе OLAP и близких к ней технологий стали развиваться еще более оперативные средства анализа - например, «директорские пульты управления» (Management Dashboard), снабженные разнообразными приборными панелями, напоминающими капитанский мостик. Утвердилась также концепция «предприятия, работающего в режиме реального времени» (Real Time Enterprise, RTE).

Параллельно со всеми этими средствами в бизнес-аналитике развивались теоретические направления, такие как разработка, или добыча, данных (Data Mining, DM) и предсказательная аналитика. Еще совсем недавно казалось, что именно в DM и PA заложен основной ресурс для развития BI, однако на практике более востребованными оказались интерактивные методы DD, VA и VDD. Именно они теперь оцениваются как наиболее перспективные, хотя силы, которые их создают, на порядки уступают по мощности традиционным игрокам решений бизнес-аналитики.

Предпосылки к изменениям в аналитике

Объяснений тому, что происходит в аналитике, и причин происходящего так много, что приходят на ум слова Дэна Брауна из романа «Ангелы и демоны»: «Одни возносят молитвы Иисусу, другие отправляются в Мекку, а третьи изучают поведение элементарных частиц. В конечном итоге все заняты поиском истины». Поэтому по аналогии разделим взгляды на эволюцию бизнес-аналитики на три группы.

Наиболее популярна и широко растиражирована «менеджерская» точка зрения, ассоциируемая с размышлениями на такие модные темы, как Большие Данные, «очередная промышленная революция», Industry 4.0 и др. Чаще всего говорят о «трех V» аналитики Больших Данных: Volume («объем»); Variety («разнообразие»); Velocity («подвижность»).

Вторую группу взглядов на изменения формируют приверженцы теории управления знаниями (Knowledge Management, KM). Они связывают происходящее с «информационной революцией», разделяя ее на пять этапов восхождения от данных к информации, от информации к знаниям, от знаний к пониманию и интеллекту: операционный - анализируются фрагментарные данные отдельно взятыми аналитиками; консолидированный - большие объемы данных анализируются рабочими группами аналитиков; интеграционный - создается инфраструктура предприятия, которая поддерживает КМ; оптимизационный - для повышения эффективности анализируется корпоративная информация в целом; инновационный - совмещение корпоративного разума и аналитики создает новые ценности.

Согласно третьей точке зрения результатом эволюционного процесса становится переход от общих представлений о предприятии к реальному знанию.

Стоит заметить, что первые две точки зрения ближе к культовым, а третья - альтернативная, она, как и в цитате, близка к естественно-научной позиции, в данном случае это системный взгляд, который полезен при рассмотрении самых разных явлений, в частности происходящих в аналитике. Важно, однако, обратить внимание на следующее - у всех систем управления имеется общность независимо от их природы. Об этом писал еще Ноберт Винер, который первым высказал мысль о единстве принципов управления в живых организмах, машинах и организациях. Достойного теоретического продолжения работы Винера не получили, и в реальной практике управление техническими объектами пошло своим путем, а бизнесом - своим. Между двумя классами систем управления - техническими и корпоративными - долгие годы не было общности, более того, возникла разделяющая их на две непересекающиеся области преграда. И это не чья-то злая воля - наличие разделения на определенный временной период совершенно оправданно и закономерно, таковы требования жизни, разделение вызвано существовавшим в прошлом жестким лимитом на компьютерные ресурсы и стремлением использовать имеющиеся средства оптимально, в наибольшей степени удовлетворяя требованиям поставленной задачи. Поскольку есть два типа задач - техническое и корпоративное управление, то возникло, соответственно, два типа решений.

В последующем оказалось, что идея автоматизации управления в бизнесе уступила место банальной обработке данных и была погребена под грузом разного рода рутинных приложений типа ERP, CRM и пр., в которых все построено на учете и контроле, то есть попросту на здравом смысле. Оценка результатов и состояния, принятие решений и все остальное, что образует обратную связь, оказалось вне области автоматизации. Но в реальной жизни никакие системы управления не могут существовать без обратной связи, и на нынешнем уровне автоматизации обратная связь реализуется в умах менеджеров, получающих данные извне и принимающих решение.

Во втором десятилетии XXI века ограничения на используемые ресурсы были практически сняты и открылась возможность для конвергенции технических систем и систем управления бизнесом, причем решающая роль в этом объединительном процессе принадлежит аналитическим системам, которые превратились в рабочий узел цепи обратной связи. Используя аналитические системы, человек с равным успехом может управлять и бизнесом, и технологическими процессами. Вот почему о наступающей эпохе говорят как об «экономике обратной связи» (feedback economy).

Еще до нынешнего взрыва интереса к аналитике возникла концепция предприятия, работающего в режиме реального времени (RTE), ставшая реальностью с появлением новых технологий интеграции приложений - сервисных архитектур, сервисных шин предприятия и систем обработки сложных событий. Изначально предполагалось, что важнейшим компонентом RTE станет аналитика в реальном времени, однако главным импульсом к распространению аналитики стало увеличение объемов данных.

Показательным примером универсального использования аналитики служат средства автоматизации нефтедобычи, где необходимо сочетать управление буровым оборудованием с оценкой рыночной и экономической ситуации, здесь технологическое и бизнес-управление образуют единое целое. Для обмена по Сети данными по скважинам был создан язык Wellsite Information Transfer Standard Markup Language (WITSML), выступающий в роли связующего звена между двумя типами систем управления, а сегодня рассматривается возможность его применения в энергетике, на транспорте и в других отраслях. Основным условием применимости таких систем является использование открытых стандартов для обмена данными между системами геолого-технологических исследований, системами контроля процесса бурения, системами геофизических исследований и пакетами моделирования и анализа данных.

Data Discovery

Еще совсем недавно вся дисциплина бизнес-анализа строилась на основе структурированных данных, но с появлением проблемы Больших Данных обострилась необходимость в работе с неструктурированными данными, составляющими свыше 80% всех хранимых данных, причем их количество нарастает на порядок быстрее по сравнению со структурированными данными. Но дело не только в том, что анализируемые данные оказались более разнообразными - после смещения акцента на неструктурированые данные для аналитики складывается совсем иная, чем прежде, перспектива извлечения полезных, но до поры скрытых данных в потоке сведений из самых разнообразных источников. Иными словами, принципиально меняется парадигма. Раньше функция аналитики сводилась к получению ограниченного числа ответов на заранее поставленные вопросы и созданию отчетов, а теперь аналитика превращается в интерактивный процесс общения человека с большими объемами данных через средства превращения сырых данных в полезную информацию. Примечательно, что для этой цели не обязательно мощное и дорогостоящее оборудование.

Чаще всего современную аналитику ассоциируют с двумя смежными направлениями - Data Discovery и Visual Analytics, однако использование двух разных терминов практически для одного и того же запутывает и без того не слишком ясную и перенасыщенную названиями картину, которую образуют технологии, так или иначе относящиеся к аналитике. Чтобы обозначить их место, надо выполнить попытку классификации технологий бизнес-анализа, разделить их, например, на три большие, частично пересекающиеся группы:

  • технологии извлечения информации и знаний (Information and Kowledge Discovery): OLAP, Data Mining, Text Mining, Web Mining и различные механизмы поиска;
  • системы поддержки принятия решений и интеллектуальные системы (Decision Support and Inrelligent Systems): обычные и групповые системы поддержки принятия решений, прикладные методы искусственного интеллекта, экспертные системы, предиктивная аналитика;
  • средства визуализации (Visualization): визуальная аналитика, различного рода «приборные доски» и пульты.

Формально Data Discovery (обнаружение скрытого смысла) явно попадает в первую группу, а Visual Analytics в третью, но у них много общего - упор делается на творческие возможности человека, подкрепленные компьютерными технологиями. Можно предположить, что Data Discovery - более общее понятие, это множество методов работы с данными, а Visual Analytics - скорее средство (пока единственное). Видимо, по этой причине недавно оба направления пошли на сближение, и появилось общее название Visual Data Discovery. Системы такого класса позволяют превратить компьютер в инструмент, усиливающий интеллектуальный потенциал пользователя. VDD еще называют изыскательной (exploratory) или исследовательской (investigative) аналитикой. Первое название в 2007 году предложил специалист по визуализации данных Стивен Фью, понимающий под изыскательной аналитикой поиск смысла, скрытого в данных. Второе было введено в 2011 году известным аналитиком Куртом Монашем для обозначения анализа, выполняемого с целью поиска прежде неизвестного в уже имеющихся данных: скрытые образы, закономерности и другое содержание, которое может быть использовано для принятия решений.

Средства DD более демократичны, они призваны повысить эффективность работы с данными обычного пользователя, потребляющего информацию, а не специалиста в области анализа данных (data scientist), которому доступны сложные аналитические системы и математические методы. В свое время мэйнфреймы были доступны избранным профессионалам, а появление ПК сделало компьютеры доступными каждому, появление DD можно назвать консьюмеризацией бизнес-аналитики.

Как и на заре ПК, лидерами нового течения стали отнюдь не ведущие игроки рынка бизнес-аналитики, а относительно неизвестные компании: QlikTech, Salient Management Company, SiSence, Tableau, Tibco, за которыми пытаются угнаться признанные гранды: MicroStrategy усовершенствовала Visual Insight; SAP, SAS и IBM запустили новые продукты Visual Intelligence, Visual Analytics и Cognos Insight соответственно; а Microsoft дополнила PowerPivot продуктом with Power View.

Артур Конан Дойл наделил Шерлока Холмса способностью делать умозаключения на основе небольшого числа наблюдений, однако при желании те же факты можно интерпретировать иначе и выводы будут иными - слабость дедуктивного метода, используемого великим сыщиком, в его ограниченности. Но если данных достаточно и имеются адекватные инструменты, то можно принимать объективные и вполне обоснованные решения - точность их принятия зависит от объема данных и качества инструмента. Секрет успеха DD прост - эти технологии позволяют принимать решения, основываясь на большем объеме данных.

Цель систем DD - создание средств, которые ориентированы на людей, поддерживают их в работе, открывают человеку возможность использовать свою интуицию при выделении полезной и значимой информации из имеющихся данных. В таком случае складывается следующий цикл: сначала формулируется запрос, ответ на него представляется чаще всего в графической форме, поэтому в DD особое значение имеют технологии визуализации, затем результаты оцениваются и при необходимости цикл повторяется. Отличие от традиционного бизнес-анализа состоит в наглядности представления и скорости - человеку желательно, чтобы режим работы был близок к реальному времени.

Visual Analytics

Начнем с терминологического уточнения, так как есть три схожих термина: Visual Analysis, Visual Data Mining и Visual Analytics - но у каждого свой смысл.

Первым появился Visual Data Mining - примерно так в 2000 году в Европе стали называть интеграцию методов Data Mining с технологиями визуализации. Одна из первых научных школ в этой области сложилась в Университете Кобленца (Германия).

Появление Visual Analytics (рис. 2) датируется 2004 годом - его предложил Джим Томас, один из авторов книги «Освещая путь, программа исследований и разработок по Visual Analytics», выпущенной как программный документ Тихоокеанской северо-западной национальной лаборатории, входящей в число шестнадцати лабораторий Министерства энергетики США. В книге VA определяется как умение мыслить аналитически, поддержанное графическим интерфейсом. Лаборатория была переориентирована на VA по заказу Министерства внутренней безопасности США в рамках программы противодействия террористическим угрозам и к сегодняшнему дню превратилась в крупнейший научный центр, практически полностью специализирующийся на разнообразных аспектах VA, имеющий филиалы в ряде стран; несколько лет назад и лаборатория университета в Кобленце вошла в ее состав.


Visual Analysis имеет как минимум две трактовки. Согласно первой так называют широкой круг междисциплинарных исследований, так или иначе связанных с применением интерактивных визуальных средств для анализа данных. Второе значение распространяется на собственно аналитический компонент Visual Analytics, состоящий из автоматической и интерактивной частей.

Аналитические задачи являются частью самой быстрорастущей из всех областей применения ИТ - средствами автоматического анализа можно решить некоторые из этих задач, они применимы в тех случаях, когда данные строго формализованы и имеются обоснованные критерии их сравнения. Но в реальной жизни и в реальном бизнесе редко соблюдаются такие ограничения, поэтому на помощь приходят методы визуализации данных. Это могут быть самые неожиданные данные - например, сейчас активно развивается область визуализации текстовых данных (возможность вынести достоверное суждение о содержании документов, не прибегая к чтению в деталях). Визуальная аналитика лежит на пересечении этих двух областей.

Хотя за последние 15–20 лет разработано множество методов автоматического анализа данных, вряд ли весь анализ можно будет передать машине, скорее всего, аналитика будет строиться по схеме, показанной на рис. 3. Сначала используются средства автоматического анализа, адаптированные к той или иной сфере применения, они порождают сокращенные по сравнению с исходными объемы данных, к ним применяются методы Data Mining и создается модель, пригодная для дальнейшего исследования. Визуализация и интерактивные технологии позволяют человеку анализировать и совершенствовать эту модель. Большая часть действий выполняется в итерационном режиме последовательного приближения к желаемому результату. В практических реализациях могут присутствовать не все компоненты (рис. 3), но итерационный замкнутый цикл обратной связи будет в любом случае.

Главное достоинство решений Data Discovery и визуальной аналитики состоит в том, что они дают возможность человеку извлечь из данных то, что в них скрыто, или «разговорить» данные, как сказано в книге «Вероятность» Фредерика Мостеллера: «Часто можно услышать, что данные говорят сами за себя, но их голос бывает слишком тих и скромен».

Данные — новая мировая валюта, а интернет — обменный пункт. В информационных потоках потеряться просто. Как представить данные, чтобы привлечь внимание? Пользователь разберется с таблицей в десять строчек и три столбца. А если это тысячи, сотни тысяч строк?

Акцентируйте ключевые моменты и закономерности, которые не обнаружить в сухих цифрах, с помощью инфографики, интерактивных виджетов на сайте и дашбордов. В этом помогут инструменты визуализации.

Смотрите и используйте 21 инструмент визуализации в этой статье.

Сервисы для создания диаграмм и графиков

Infogr.am

Сервис для создания интерактивной, внедряемой визуализации. Более 30 типов диаграмм и шесть тем оформления.

Данные заносите в редакторе, загружаете в табличном или текстовом формате (например, csv) или импортируете из облака. Далее выбираете, что хотите получить - диаграмму, график, карту, - и конечный формат.

Можете внедрить интерактивную визуализацию на сайт с помощью айфрейма, а также скачать свои диаграммы в pdf или gif и вставить в презентацию.

Стартовый тариф - бесплатный. Ограничения в размере библиотеки, числе шаблонов, возможности скачать диаграммы в виде изображений. Но этого тарифа с лихвой хватит для оформления одного небольшого сайта или онлайн-презентации. Платные тарифы начинаются от $19 в месяц.

Creately

Инструмент для совместной работы, который позволяет создавать интерактивные схемы, диаграммы Ганта и простую инфографику. В арсенале — более 50 типов диаграмм с тысячами образцов и доступных библиотек форм.

Интерфейс напоминает MicrosoftVisio, и неудивительно: Creately выполняет аналогичные задачи.

Результаты можно импортировать на сайты, мобильные приложения, а также сохранять в формате PDF и SVG.

Главный минус: все версии платные. Онлайн-сервис - от $5 в месяц. Десктоп-версия обойдется в $75.

Fusiontables

Инструмент Google для создания подробных диаграмм, графиков и карт.

Помогает собирать и визуализировать данные, отобразить их на сайте.

Вы импортируете данные из файла на компьютере (практически любой табличный формат), таблиц Google Docs или создаете новую таблицу. Можно использовать поиск информации из внешних источников.

Минусы: сложный интерфейс, нет дизайнерских изысков.

Плюсы: совместная работа, так как все данные на Google Диске.

Инструмент использует The Guardian, и это уже неплохая рекомендация.

VisualizeFree

Визуализацию можно экспортировать в формате Excel, PowerPoint и PDF.

Сервис бесплатный. Интересная особенность: хотя при разработке вы можете использовать Flash, результат можно сохранять в формате HTML5.

Tableaupublic

Бесплатная интерактивная система визуализации данных.

Импортируете данные (поддерживаются практически все привычные форматы и многие сервисы), и получаете визуализацию для размещения на сайте или в соцсетях.

Для хранения проектов сервис дает 10 GB на своих серверах.

Javascript-библиотеки

Dygraphs

Библиотека с открытым кодом для создания диаграмм. Помогает изучать, обрабатывать и интерпретировать большие наборы данных. Гибкие настройки.

Минус: это инструмент скорее разработчика, чем маркетолога. Его функции - только создание графиков и диаграмм. Для работы требует навык работы с javascript и мануал. Однако ничего сложного даже для новичка тут нет.

D3.JS

Библиотека работает с документами на основе данных, с использованием html, svg и css. Импортирует данные из файлов csv.

Подойдет и для простых бизнес-визуализаций, но ее главное предназначение - научная информация.

Leaflet

Бесплатная javascript-библиотека для создания мобильных интерактивных карт. Используйте ее, если не хотите внедрять на сайт или в мобильное приложение Google Maps и Яндекс-карты.

Главные преимущества: экстремально малый вес библиотеки, плюс работает и без интернет-подключения.

Highcharts

Огромное количество опций и типов диаграмм. Выходной формат — SVG или VML для Internet Explorer старых версий.

Поддерживает анимацию и потоки данных в реальном времени.

Бесплатно для некоммерческих проектов.

Chart.js

Библиотека с открытым кодом. 6 типов диаграмм, что с лихвой покроет потребности небольшого проекта, но недостаточно для профессионала в статистике.

Поддерживает HTML5 Canvas и создает адаптивные анимированные диаграммы и графики в стиле флэт-дизайна.

jqPlot

Плагин для построения простых графиков, линейных и круговых диаграмм.

Легко встраивается на сайт. Простая настройка, привлекательный дизайн диаграмм. Поддерживает анимацию, нет интерактивности.

Хорошее бесплатное решение для простых задач.

ZingChart

Использует HTML5 Canvas, при этом поддерживает Flash. В вашем распоряжении — сотня типов диаграмм для визуализации данных.

Бесплатной версии достаточно для решения большинства задач. Визуализации подписываются «PoweredbyZingChart». Самый популярный, по мнению разработчиков, тариф «SaaS» обойдется в $1999 в год.

JavaScriptInfoVisToolkit

Модульная структура. Адаптация для мобильных устройств. Пользователь загружает лишь то, что необходимо в конкретном случае.

Есть комплект уникальных стилей оформления и анимационных эффектов.

Сервисы для создания инфографики

Piktochart

Предлагает много бесплатных и премиум-шаблонов для инфографики, презентаций, отчетов и докладов. Все они выглядят впечатляюще, и их легко использовать.

Можно использовать все, что нужно для привлекательной презентации: диаграммы, графики, фото, видео, иконки и т.д. Простой встроенный редактор: выбираете один из шести сотен готовый шаблон, загружаете собственные файлы, перетаскиваете на рабочее поле объекты.

Импорт данных из Excel, Google Docs и сервиса интернет-опросов SurveyMonkey.

Easel.ly

Простой в использовании инструмент с сотнями шаблонов. Если хотите — начинайте с чистого листа.

На верхней панели выбираете интересующий объект (иконки, клипарты, диаграммы и т. д) и перетаскиваете в нужное место. Можно внедрять видео.

Стартовый тариф бесплатный, за дополнительные «печеньки» сервис просит $3 в месяц.

Платформы бизнес-аналитики и создания дашбордов

Sisense

Позволяет объединять данные из нескольких источников и искать новые идеи благодаря визуализации. Для создания только презентации Sisense - не лучший выбор. А вот если надо в кратчайшие сроки создать собственный дашборд с множеством виджетов - самое то.

Разработчики уверяют, что даже неподготовленный человек справится с задачей за полтора часа.

Короткий бесплатный тестовый период. Тарифы предоставляются по запросу.

Nuvi

Сервис платный, тарификация определяется конкретными задачами. Владельцы утверждают, что идут навстречу некоммерческим проектам и стартапам, так что можно торговаться.

Bime

Облачная платформа визуализации BI-аналитики. Берет исходные данные из систем контекстной рекламы, CRM, систем веб-аналитики, соцсетей и других источников. К сожалению, российские сервисы «из коробки» не поддерживаются. Нужны специалисты по IT-интеграции.

Преобразует данные в выразительные визуализации, которые хорошо смотрятся на любом дисплее вне зависимости от платформы и размера.

Бесплатный тестовый период на 2 недели. Базовый тариф - $490 в месяц.

iCharts

Облачная BI-платформа визуальной аналитики для бизнеса. Коллективный доступ к панели управления с виджетами в режиме реального времени. Результаты легко внедрять, распространять и просматривать.

Интеграция с Google Analytics, Salesforce, Zendesk, Azure, AmazonAurora, GoogleCloudSQL, GitHub и десятками других сервисов.

Платформа платная, стартовый тариф - $460 в месяц.

Plotly

Платформа, которая создает как отдельные диаграммы и графики, так и презентации и полноценные дашборды.

Работает с JavaScript, Python, R, Matlab, Excel. Импорт данных из нескольких источников (MySQL, Microsoft SQL Server, Redshift, Excel и т. д.).

Есть бесплатная версия. Платный тариф - $33 в месяц.

DataHero

Эта облачная платформа дает возможность полноценной работы без обращения к ИТ-специалистам. Импорт из облачных сервисов.

Можно создавать отдельные виджеты и дашборды.

Принципы «кнопки и перетаскивания»: не придется тратить время на освоение интерфейса.

Есть бесплатный тариф. Каждому новому пользователю сервис предоставляет бесплатный тестовый период на 2 недели с возможностями премиум-тарифа. Платные тарифы начинаются от $59.

Заключение

Конечно, большинство рутинных задач по обработке и визуализации данных, можно решить по старинке - в Excel, Adobe Illustrator и Power Point. Однако мощь современных технологий позволяет идти дальше, даже без специфических знаний и навыков.

Все сервисы работают на любой платформе и в любом браузере (за исключением старых версий). При этом не нужно быть специалистом IT или дизайнером, устанавливать Java, Silverlight или Flash.

Надеемся, вы не только подберете инструменты визуализации для ваших задач, но и узнаете новое о ваших данных.

4.1. Звуковое расширенние визуальной аналитики

Одним из современных эффективных методов анализа различных научных данных является метод компьютерной визуализации этих - метод научной визуализации.

Решение задач анализа научных данных методом научной визуализации заключается:

  1. В получении представления анализируемых данных в виде их некоторого графического изображения (задача визуализации исходных данных). Для получения такого графического изображения необходимо данным поставить в соответствие пространственную сцену (совокупность пространственных объектов), а точнее говоря, ее геометрическое и оптическое (текстурное) описания (модели), а затем получить графическое изображение этой пространственной сцены (рендеринг), которое можно вывести на монитор, на принтер и другие устройства вывода для последующего анализа.
  2. В визуальном анализе полученного графического изображения анализируемых данных. При этом результаты анализа интерпретируются по отношению к исходным данным. Эта задача решается непосредственно самим пользователем. Под визуальным анализом графического изображения подразумевается визуальный анализ упомянутой пространственной сцены. Человек может делать суждения о взаимном расположении пространственных объектов, их форме и текстурном покрытии.

Рис. 4.1. Метод звуковой расширенной научной визуализации.

Рассмотрим возможность подключения в процессе визуального анализа другого органа чувств - органа слуха. Для того, чтобы осуществить анализ исходных данных посредством звука, соответственно необходимо:

  1. Получить представления анализируемых данных в виде их некоторого звукового отображения. Для получения такого отображения необходимо дополнить геометрическое и оптическое описание пространственной сцены ее звуковым описанием, и такую звуковую пространственную сцену поставить в соответствие исходным данным, а затем получить звуковое отображение этой пространственной сцены (звуковой рендеринг), которое можно вывести на колонки и другие устройства вывода для последующего анализа.
  2. Проанализировать звуковое отображение и результаты анализа интерпретировать по отношению к исходным данным.
    Важно отметить, что получение как звукового отображения, так и графического изображения, поставленного в соответствие исходным данным для последующего анализа зачастую делает процесс анализа более эффективным.

На рис.4.1 представлена структурная схема алгоритма расширенной визуализации, т.е. совместного получения графического изображения и звукового отображения исходных данных.

Рис. 4.2. Структурная схема алгоритма расширенной научной визуализации.

Такой алгоритм реализуется с использованием компьютера путем написания прикладной программы визуализации на некотором входном языке программирования используемого инструментального средства (совокупности средств) в виде некоторого программного продукта или совокупности программных продуктов.

Рассмотрим основные характеристики метода расширенной научной визуализации применительно к определенному классу задач анализа научных данных, когда в качестве таких данных используются описания тех или иных скалярных полей.

4.2. Звуковая расширенная визуальная аналитика скалярных полей.

Исходные данные

Эти данные представляют собой описание скалярного поля на некотором прямоугольном отсеке трехмерного физического пространства, представленное в файле. В качестве описания используется математическая модель скалярного поля в виде значений функции 3-х переменных вида F(x,y,z) в узлах заданной трехмерной прямоугольной сетки.

Отфильтрованные данные

В качестве отфильтрованных данных используется интерполяционная функции f(x,y,z), использующая значения исходной функции в узлах сетки. Для получения функции f(x,y,z), заданной на рассматриваемой области определения (параллелепипеде) нами была использована трилинейная интерполяция.

Описание пространственной сцены

Это описание включает в себя 3 составляющие:

  1. Описание изоповерхности функции f(x,y,z) в виде: f(x,y,z)=с, при этом совместно принимаемые значения x,y,z принадлежат указанной выше области определения функции f(x,y,z), а с – задаваемое пользователем вещественное число, соответствующее некоторому значению анализируемого скалярного поля.
    Данная изоповерхность является 1-ым компонентом вводимой в рассмотрение пространственной сцены.
  2. Оптическое описание, т.е. описание текстурного покрытия упомянутой изоповерхности, задаваемого пользователем.
  3. Звуковое описание, т.е. описание вводимого в рассмотрение точечного источника звука. Его расположение (значения координат x0,y0,z0) задается пользователем, а частота исходящего звука w связана со значением функции f(x,y,z) следующим образом: w = k*f(x0,y0,z0), где значение коэффициента k задается пользователем.
    Данный точечный источник звука является 2-ым компонентом вводимой в рассмотрение пространственной сцены.

Графическое изображение и звуковое отображение пространственной сцены

Результатом выполнения рендеринга являются соответственно:

  • проекционное графическое изображение изоповерхности на используемом графическом терминале,
  • звуковая волна, генерируемая используемым звуковым терминалом.

Следует пояснить, что частота звуковой волны воспринимается пользователем как тон звука.




Top