Анонсы на Саммите PASS 2012 («Hekaton», PDW, PolyBase)

Вчера (07.11.2012) завершился первый день Саммит PASS, на котором было сделано несколько важных анонсов.

В части доклада со стороны PASS была анонсирована конференция PASS Business Analytics Conference, которая будет проходить в Чикаго с 10 по 12 апреля 2013 года. Регистрация на конференцию открыта.

Далее Тед Куммерт, вице президент Microsoft, анонсировал выход SQL Server 2012 SP1, который интегрируется с Office 2013, а также рассказал о новых возможностях ускорения обработки данных в следующей версии SQL Server.

Транзакционная СУБД в памяти, проект «Hekaton»

Транзакционная СУБД в памяти, проект с кодовым именем «Hekaton», выйдет со следующей версией SQL Server. В демонстрации была показана возможность возможность диагностики таблиц-кандидатов для размещения в памяти, операция миграции существующей таблицы в память и увеличение производительности в десятки раз (и уменьшение количества локировок).

Обновляемые и кластерные индексы хранения колонок

Индекс хранения колонок (СolumnStore Index) в следующей версии SQL Server станет поддерживать обновления данных (т.е. можно будет постоянно подгружать данные в хранилище данных), а также будет поддерживаться кластерный индекс хранения колонок.

SQL Server 2012 PDW

SQL Server 2012 Parallel Data Warehouse (PDW) будет доступен в первой половине 2013 года. Программно-аппаратный комплекс будет поддерживать индексы хранения колонок с возможностью обновления (возможно увеличение производительности до 50 раз), работать с комплексом можно будет через SQL Server Data Tools, SQL Server Reporting Services сможет подсоединяться к PDW через родной коннектор SQL Server.

PolyBase

PolyBase позволит работать из SQL Server Data Tools с данными из HDInsight (Hadoop для Windows), а также делать запросы одновременно на основании реляционных данных и данных из Hadoop. В будущем PolyBase позволит делать запросы одновременно к нескольким дополнительным источникам данных.

PolyBase будет доступен в следующем релизе SQL Server 2012 PDW в первой половине 2013 года.

Дополнительные материалы

  1. Ключевой доклад PASS Summit 2012
  2. Фрагменты сессий PASS Summit 2012
  3. Презентации с PASS Summit 2012 (требуется регистрация)
  4. Финальная версия SQL Server 2012 Service Pack 1
  5. MSDN: New or Enhanced Features in SQL Server 2012 SP1
  6. SQL Server Blog. PASS Summit 2012: Accelerating Business through Data Insights
  7. ZDNet. Microsoft: Hey, we’re an in-memory database player, too
  8. ZDNet. Microsoft to fold in-memory database technology into SQL Server Next

«Большие данные» и HDInsight (Hadoop от Microsoft) для обработки петабайт информации

Последняя версия этой статьи: https://microsoftbi.ru/basics/bigdata/hdinsight/

В настоящее время становятся все более актуальными решения для работы с большими объемами данных (в английской терминологии – «Big Data»). Под «большими данными» понимаются данные больших объемов (петабайты информации), возникающие или обновляющиеся с большой скоростью, а также данные с большим разнообразием типов данных.

Примеры сценариев использования «больших данных»:

  • анализ социальных сетей;
  • мониторинг и оптимизация дорожного движения, работы веб-приложений, оборудования;
  • анализ ухода клиентов;
  • исследование природных ресурсов, медицинские и прочие научные исследования;
  • обнаружение мошенничества;
  • анализ рекламных кампаний.

Решение Microsoft для работы с большими данными состоит из задач:

  • управления данными, которое реализуется через SQL Server Parallel Data Warehouse для управления сотнями терабайт структурированных данных; SQL Server StreamInsight для выявления сложных событий в реальном времени и HDInsight для обработки петабайт неструктурированной информации;
  • обогащения данных через каталог статистических данных Azure Marketplace Datamarket;
  • исследования данных с помощью PowerPivot и Power View для Excel и SharePoint.

Hadoop

Архитектурно Hadoop состоит из файловой системы Hadoop Distributed File System (HDFS) и механизма вычислений MapReduce, поверх которых могут использоваться различные расширения.

Структура узлов HDFS

Hadoop Distributed File System (HDFS) – это файловая система, предназначенная для хранения очень больших файлов с возможностью потокового доступа к данным, работающая на кластерах из произвольного аппаратного обеспечения.

Файлы в HDFS разбиваются на блоки, если размер файла превышает размер блока. По умолчанию размер блока в HDFS может составлять 64, 128 или 256 Мбайт, и каждый блок реплицируется в трех экземплярах.

Кластер HDFS состоит из управляющего узла (NameNode) и узлов хранения данных (DataNode). NameNode управляет пространством имен файловой системы (дерево файлов и мета-данные файлов и каталогов).

При чтении файла из HDFS клиент получает адреса расположения блоков от управляющего узла и самостоятельно осуществляет последовательное чтение с узлов блоков файла. При этом для каждого блока выбирается «ближайший узел».

Благодаря тому, что клиент извлекает данные с узлов данных напрямую HDFS может масштабироваться до большого количества конкурентных клиентов, т.к. трафик распределен между узлами данных в кластере.

Механизм MapReduce

Поверх файловой системы HDFS находится механизм MapReduce, который позволяет на уровне узлов данных сделать извлечение данных и расчет на основании этих данных, а на главном узле подготовить общий ответ на основании данных от всех узлов данных.

Microsoft HDInsight

25 октября 2012 года на конференции Strata Conference-Hadoop World было представлено решение HDInsight (Hadoop для Windows), которое может быть размещено как в пределах собственных корпоративных центров данных организаций, так и в облаке. В текущий момент с сайта microsoft.com/bigdata можно скачать предварительную версию HDInsight для изучения и функционального тестирования.

Открытые компоненты для Hadoop

Существует множество компонентов Hadoop, которые можно использовать в проектах на базе HDInsight. Ниже приведен список наиболее значимых компонентов.

  • Java, Phython, JavaScript, .NET, C# (языки разработки);
  • HBase (OLTP база данных);
  • Pig (организация потоков данных);
  • Sqoop (перемещение больших объемов данных);
  • Hive ODBC Driver (доступ к данным, в том числе из PowerPivot);
  • HCatalog (управление мета-данными);
  • Pegasus (интеллектуальный анализ графов);
  • Hive (SQL-подобное хранилище данных);
  • Mahout (машинное самообучение);
  • R (статистический пакет).

Дополнительные материалы

  1. Официальный сайт Microsoft Big Data
  2. Microsoft at Strata-Hadoop World 2012
  3. Simplifying Big Data for the Enterprise
  4. Материалы конференции Strata Conference-Hadoop World