Microsoft Business Intelligence

PASS Summit 2010 — день третий

Третий день саммита прошел в более спокойном режиме. Все важные анонсы были сделаны в предыдущие дни, а ключевая сессия была сугубо технической и, я бы даже сказал, академической.

Большая часть сессий, которые я посетил, были посвящены существующим технологиям. Кроме последней сессии.

Но обо всем по порядку…

Ключевой доклад

Ключевой доклад третьего дня конференции начал Rick Heiges (вице-президент по маркетингу, PASS).

В своей речи он:

Непосредственно ключевой доклад был посвящен теме оптимизации SQL-запросов. Эту тему представил David J. DeWitt (технический советник, подразделение платформы данных и хранения Microsoft).

David J. DeWitt начал с того, что задача оптимизации запросов (то есть преобразования SQL-запроса в наиболее эффективный план выполнения из возможных) является очень сложной задачей, которая впервые была сформулирована 30 лет назад Пэтом Силенгером (IBM Research).

Он привел пример запроса, который можно выполнить с помощью 22 млн. альтернативных планов, и в ходе своей презентации рассказал, как решается задача нахождения лучшего плана.

Если резюмировать, доклад о роли оптимизатора содержал информацию о том как формируются планы выполнения (логические и физические), почему в планах бывают неточности, как оценивается количество элементов в каждой ветке плана, как оценивается стоимость выполнения каждой ветки и плана в целом, как исключаются заведомо ненужные варианты планов.

Далее привожу несколько интересных слайдов. Доклад можно посмотреть по ссылке на странице https://www.sqlpass.org/summit/na2010/, а презентация доступна в блоге Дэвида.

В заключительной части Дэвид рассказал о последних результатах исследований, которые позволят улучшить планы выполнения запросов.

Сессия 1 – SSRS в интегрированном режиме SharePoint

Доклад Брайана Ларсона (Superior Consulting Services) был посвящен вопросам работы SSRS в интегрированном режиме SharePoint.

В ходе доклада Брайан осветил вопросы:

Сессия 2 – Хранимые процедуры Analysis Services

В своем докладе Стасия Миснер (Data Inspirations) подробно рассказала о том, как создавать, использовать и осуществлять отладку хранимых процедур SSAS, а также немного затронула тему использования функции OpenQuery.

Если резюмировать, процесс создания ASSP (Analysis Services Stored Procedure) состоит из трех шагов:

Варианты применения ASSP: статистические выборки, пространственные фильтры и прочее (примеры можно найти на www.codeplex.com).

Сессия 3 – Применение ReportBuilder и SharePoint PerformancePoint Services

На третьей сессии я побывал на двух докладах:

В обоих докладах подробно раскрывались функции соответствующих продуктов, поэтому особенно комментировать нечего.

Сессия 4 – Data Quality Services и Master Data Services

Наконец-то! Анонсы изменений в Master Data Services и нового компонента Data Quality Services…

Нововведения в Master Data Services представила Denise Draper (Microsoft).

Денис начала с рассказа об области задач Управления информацией предприятия (Enterprise Information Management — EIM). Понятно, что EIM – это скорее область знаний, но SQL Server «Denali» поддерживает ее требования с помощью:

В части Integration Services SQL Server «Denali» обеспечит:

Master Data Services в SQL Server «Denali» будет коробочным продуктом с возможностью управления мета информацией в Excel. Основная идея здесь состоит в том, что уже сейчас у подавляющего большинства клиентов справочники ведутся в Excel, и этот инструмент очень удобен для подобных задач.

Будут также доступны инструменты для анализа влияния мета-информации, такие как «из какого источника получены эти колонки?» и «куда идут данные из этой таблицы?». Функции анализа влияния будут анализировать системы, находить таблицы, хранимые процедуры, пакеты и отчеты и записывать их взаимодействия.

Далее Joseph Malka (директор по исследованиям и разработке DQ и MD, Microsoft) представил новый компонент SQL Server Denali — Data Quality Services.

Новый компонент позволит разрешить проблемы с качеством данных, такие как:

Качество данных будет обеспечиваться за счет применения:

Далее Joseph Malka прокомментировал архитектуру решения и продемонстрировал работу существующего прототипа.

В процессе демонстрации Joseph Malka показал создание предметной области, задания бизнес-правил, определение проекта, профилирование данных (прототип в виде изображения), авто-корректировку данных, просмотр и экспорт результатов обработки данных.