Третий день саммита прошел в более спокойном режиме. Все важные анонсы были сделаны в предыдущие дни, а ключевая сессия была сугубо технической и, я бы даже сказал, академической.
Большая часть сессий, которые я посетил, были посвящены существующим технологиям. Кроме последней сессии.
Но обо всем по порядку…
Ключевой доклад
Ключевой доклад третьего дня конференции начал Rick Heiges (вице-президент по маркетингу, PASS).
В своей речи он:
- озвучил новый состав президиума PASS;
- рассказал о концепции работы PASS на ближайшие годы;
- анонсировал новое событие PASS SQL Rally (www.sqlrally.com), которое представляет собой технический тренинг на несколько дней и пройдет 11-13 мая 2011 года в Орландо, Флорида;
- анонсировал новый PASS Summit 2011.
Непосредственно ключевой доклад был посвящен теме оптимизации SQL-запросов. Эту тему представил David J. DeWitt (технический советник, подразделение платформы данных и хранения Microsoft).
David J. DeWitt начал с того, что задача оптимизации запросов (то есть преобразования SQL-запроса в наиболее эффективный план выполнения из возможных) является очень сложной задачей, которая впервые была сформулирована 30 лет назад Пэтом Силенгером (IBM Research).
Он привел пример запроса, который можно выполнить с помощью 22 млн. альтернативных планов, и в ходе своей презентации рассказал, как решается задача нахождения лучшего плана.
Если резюмировать, доклад о роли оптимизатора содержал информацию о том как формируются планы выполнения (логические и физические), почему в планах бывают неточности, как оценивается количество элементов в каждой ветке плана, как оценивается стоимость выполнения каждой ветки и плана в целом, как исключаются заведомо ненужные варианты планов.
Далее привожу несколько интересных слайдов. Доклад можно посмотреть по ссылке на странице https://www.sqlpass.org/summit/na2010/, а презентация доступна в блоге Дэвида.
В заключительной части Дэвид рассказал о последних результатах исследований, которые позволят улучшить планы выполнения запросов.
Сессия 1 – SSRS в интегрированном режиме SharePoint
Доклад Брайана Ларсона (Superior Consulting Services) был посвящен вопросам работы SSRS в интегрированном режиме SharePoint.
В ходе доклада Брайан осветил вопросы:
- архитектуры;
- конфигурирования;
- установки;
- настройки библиотек SSRS;
- использования ReportBuilder;
- создания подписок;
- версионности / check in-out / подтверждения контента;
- создания копий отчетов со связью;
- задания прав на отчеты;
- создания нотификаций;
- использования списков SharePoint в отчетах.
Сессия 2 – Хранимые процедуры Analysis Services
В своем докладе Стасия Миснер (Data Inspirations) подробно рассказала о том, как создавать, использовать и осуществлять отладку хранимых процедур SSAS, а также немного затронула тему использования функции OpenQuery.
Если резюмировать, процесс создания ASSP (Analysis Services Stored Procedure) состоит из трех шагов:
- создание проекта .net для ASSP;
- регистрация сборки;
- запуск ASSP.
Варианты применения ASSP: статистические выборки, пространственные фильтры и прочее (примеры можно найти на www.codeplex.com).
Сессия 3 – Применение ReportBuilder и SharePoint PerformancePoint Services
На третьей сессии я побывал на двух докладах:
- Bob Meyers. Использование ReportBuilder – подробности;
- Craig Utley. Мониторинг и аналитика с помощью PerformancePoint Services.
В обоих докладах подробно раскрывались функции соответствующих продуктов, поэтому особенно комментировать нечего.
Сессия 4 – Data Quality Services и Master Data Services
Наконец-то! Анонсы изменений в Master Data Services и нового компонента Data Quality Services…
Нововведения в Master Data Services представила Denise Draper (Microsoft).
Денис начала с рассказа об области задач Управления информацией предприятия (Enterprise Information Management — EIM). Понятно, что EIM – это скорее область знаний, но SQL Server «Denali» поддерживает ее требования с помощью:
- компонента «Integration Services» для управления интеграцией приложений;
- компонента «Master Data Services» для управления нормативно-справочной информацией предприятия;
- нового компонента «Data Quality Services» для управления качеством данных;
- набора инструментов анализа зависимостей и отслеживания определения источника появления данных.
В части Integration Services SQL Server «Denali» обеспечит:
- улучшение удобства использования инструментов разработки, таких как возможность настройки панели инструментов и undo-redo при редактировании пакетов интеграции;
- улучшения механизмов отладки (журналирования и индикации ошибок), такие как история шагов выполнения потока управления и анализ отказов без перезапуска пакета;
- управление проектами, конфигурациями и развертыванием за счет возможности отделить пакеты от конфигураций и новых возможностей управления и мониторинга.
Master Data Services в SQL Server «Denali» будет коробочным продуктом с возможностью управления мета информацией в Excel. Основная идея здесь состоит в том, что уже сейчас у подавляющего большинства клиентов справочники ведутся в Excel, и этот инструмент очень удобен для подобных задач.
Будут также доступны инструменты для анализа влияния мета-информации, такие как «из какого источника получены эти колонки?» и «куда идут данные из этой таблицы?». Функции анализа влияния будут анализировать системы, находить таблицы, хранимые процедуры, пакеты и отчеты и записывать их взаимодействия.
Далее Joseph Malka (директор по исследованиям и разработке DQ и MD, Microsoft) представил новый компонент SQL Server Denali — Data Quality Services.
Новый компонент позволит разрешить проблемы с качеством данных, такие как:
- неверный формат данных;
- несоответствие стандартным наименованиям;
- неполнота, несоответствие и неполнота данных;
- неверное значение некоторых атрибутов;
- значения вне допустимых границ;
- дубликаты.
Качество данных будет обеспечиваться за счет применения:
- базы знаний по обеспечению качества данных (Data Quality Knowledge Base);
- определения семантических моделей;
- извлечение дополнительной информации из примеров данных и информации от пользователей системы;
- открытость и расширяемость за счет внешних провайдеров ссылочных данных (например, на основании данных из SQL Azure Marketplace DataMart);
- простота использования.
Далее Joseph Malka прокомментировал архитектуру решения и продемонстрировал работу существующего прототипа.
В процессе демонстрации Joseph Malka показал создание предметной области, задания бизнес-правил, определение проекта, профилирование данных (прототип в виде изображения), авто-корректировку данных, просмотр и экспорт результатов обработки данных.