Виртуализация 2.0: что дальше?
Технологии виртуализации только начинают получать массовое распространение в России. Между тем, эксперты уже говорят о воплощении в жизнь концепции Virtualization 2.0 и скором переходе к Virtualization 3.0. «Платформа – управление – самооптимизация» – так можно условно описать трансформацию основных принципов технологии.
Предполагается, что в итоге виртуализация будет ориентирована на создание полностью автономных ЦОД, не требующих поддержки, сервисы которых доступны из любой точки мира по требованию. Полную версию статьи читайте в февральском номере журнала CNews.
Российские компании уже несколько лет используют технологии виртуализации. Изначально возможность запуска нескольких операционных систем на одном компьютере представляла в основном чисто исследовательский интерес и еще десять лет назад не рассматривалась как промышленная технология. Сегодня ситуация коренным образом изменилась: технологии виртуализации, массовые внедрения которых на Западе начались в 2005-2006 годах, применяются в различных направлениях, таких как консолидация серверов, обеспечение отказоустойчивости и высокой доступности, безопасность, мобильность сервисов и др. Безусловно, наиболее востребованной на данный момент является виртуализация серверов, которая позволяет реализовать множество функциональных возможностей, без которых немыслим сегодня прибыльный и динамичный бизнес.
От платформы к управлению
Наиболее важным компонентом виртуальной инфраструктуры является платформа, именно она отвечает за жизнь нескольких виртуальных систем на одном компьютере и обеспечивает их производительность. Таким образом, несколько лет назад появилась концепция Virtualization 1.0, основным принципом которой была сфокусированность на платформе. Уже только сама платформа позволяла компаниям начать экономить деньги: на уменьшении затрат на оборудование за счет консолидации нескольких виртуальных систем на одном компьютере и, как следствие, снижении энергопотребления серверов, а также на обслуживании систем за счет их высокой мобильности. Однако по мере роста возможностей технологии и степени ее распространенности ИТ-сообщество заговорило о новой эре в развитии виртуализации – Virtualization 2.0. Ключевым понятием новой концепции стало «управление». Ведь именно снижение затрат на содержание ИТ-инфраструктуры за счет повышения ее управляемости является одной из основных целей CIO.
Как только ведущие вендоры продуктов для виртуализации осознали актуальные потребности бизнеса, появились следующие направления развития технологии. Это, во-первых, построение четкой методологии подсчета суммарной стоимости владения (Total cost of ownership, TCO) парком компьютеров с виртуальной инфраструктурой и без нее. Здесь также говорят об уровне возврата инвестиций в виртуализацию (Return On Investment, ROI). Во-вторых, построение методологии аудита ИТ-инфраструктуры на предмет перевода систем в виртуальную среду и расчет емкости требуемой виртуальной инфраструктуры (Capacity Planning). Попросту говоря, нужно понять, какие и сколько виртуальных систем можно консолидировать на одной физической платформе и сколько серверов необходимо. В-третьих, развитие унифицированного инструмента управления виртуальной инфраструктурой, позволяющего производить все операции по эксплуатации виртуальных машин в контексте различных ролей организационной структуры предприятия.
В-четвертых, поддержка виртуализации со стороны производителей аппаратного обеспечения, а также поддержка платформами виртуализации полного спектра доступного на рынке оборудования. В-пятых, обеспечение контроля над производительностью систем и мониторинг их доступности. В-шестых, упрощение административных процедур за счет полной автоматизации типовых операций. В-седьмых, развитие средств обеспечения отказоустойчивости, резервного копирования и восстановления после сбоев, поставляемых вендором платформы виртуализации. В-восьмых, унификация управления жизненным циклом виртуальных машин, включая как существование систем в производственной среде, так и процесс их переноса из тестовой среды в производственную. И, наконец, в-девятых, формирование стандартов по обеспечению безопасности в виртуальной среде.
Очевидно, что такой комплекс направлений, порожденный растущими потребностями бизнеса, требует новых решений. Virtualization 2.0 представляет собой концепцию, в рамках которой решаются перечисленные задачи с ориентацией на бизнес-потребности пользователей. Поскольку виртуализация является технологией, которая коренным образом меняет ИТ-инфраструктуру, необходим комплексный подход к формированию концепции построения виртуальной вычислительной среды предприятия. При этом управление, администрирование и обслуживание систем – самые «тяжелые» статьи расходов на ИТ.
Наиболее зрелые системы виртуализации, стремящиеся реализовать концепцию Virtualization 2.0
Категория / Оценка Gartner | VMware | Citrix | Virtual Iron | Oracle | Sun | Microsoft |
Управляемость и автоматизация | Высокая | Средняя | Средняя | Низкая | Низкая | Выше среднего |
Зрелость и стабильность | Высокая | Выше среднего | Выше среднего | Средняя | Средняя | Низкая |
Цена (без учета TCO) | Дорого | Средне | Средне | Дешево | Дешево | Средне |
Безопасность | Выше среднего | Низкая | Низкая | Средняя | Средняя | Низкая |
Поддержка производителями ПО | Выше среднего | Низкая | Низкая | Низкая | Низкая | Средняя |
Доля рынка | 89% | 2% | 1% | <1% | <1% | 7% |
Источник: Gatner, 2008
В декабре 2006 года аналитическое агентство IDC опубликовало отчет, в котором были сформулированы следующие основные принципы построения Virtualization 2.0. Пользователи платформ виртуализации будут ориентированы на использование средств обеспечения непрерывности бизнеса, восстановления после сбоев и высокой доступности сервисов. Виртуальные приложения, применяемые в виртуальных машинах, станут одним из стандартов распространения программного обеспечения, при этом пробные копии ПО наиболее удобно будет получать именно таким образом. Платформы, использующие технологии паравиртуализации для открытых систем, будут продолжать развитие в ОС с открытым исходным кодом. Управление виртуальной инфраструктурой станет самым важным фактором обеспечения ИТ в крупных компаниях, при этом увеличится степень адаптации технологии в сфере тестирования и разработки ПО. Виртуализация и безопасность станут ключевыми понятиями обеспечения бизнеса, построенного на принципах ITIL/ITSM.
Безусловно, IDC тогда забыла упомянуть о стремительно набирающей обороты тенденции к консолидации настольных ПК в виртуальной среде (Virtual Desktop Infrastructure, VDI), которая является еще одной характеристикой Virtualization 2.0. В ближайшие несколько лет виртуализация десктопов, по прогнозам аналитиков Gartner, будет иметь даже больший потенциал, чем виртуализация серверов. Решения VDI уже сейчас активно продвигают компании VMware и Citrix, в ближайшее время к ним присоединятся Microsoft (с купленными технологиями Kidaro) и, возможно, Symantec, который приобрел компанию nSuit Technologies.
В сфере виртуализации приложений в концепции Virtualization 2.0 может наметиться тенденция к построению гетерогенных сред виртуализации, где будет использоваться наиболее зрелое решение от каждого вендора. Например, сегодня практикуется публикация приложений от Citrix в среде виртуальной инфраструктуры VMware. Отдельное место в Virtualization 2.0, как уже упоминалось, занимают функции обеспечения отказоустойчивости и высокой доступности на всех уровнях – от сетевой карты сервера до целого ЦОД. Непрерывность бизнеса и его устойчивость к катастрофам напрямую зависит от ИТ-сервисов и их доступности, а технологии виртуализации позволяют свести к нулю их запланированные и незапланированные простои. Здесь лидирующие позиции на сегодняшний день занимает компания VMware, предоставляющая инструменты для решения полного спектра задач по обеспечению непрерывной доступности служб. Однако Parallels, Citrix, Microsoft и другие вендоры продуктов для виртуализации не отстают.
Безопасность на данный момент является одним из серьезных вопросов к Virtualization 2.0. Смогут ли вендоры обеспечить должный уровень защиты своих продуктов и своевременное решение проблем? Ведь уязвимость одного сервера может скомпрометировать сразу несколько виртуальных систем. Управление жизненным циклом виртуальных машин – еще одна характерная черта Virtualization 2.0. Поскольку принцип построения ИТ-инфраструктуры меняется, необходимо пересмотреть организационные процедуры по развертыванию новых систем, их контролю и тестированию, а также выводу из эксплуатации. Создать виртуальную машину очень просто и быстро, в связи с чем в инфраструктуре предприятия может присутствовать множество никем не контролируемых и уязвимых систем.
Кроме того, необходим контроль над соблюдением правил лицензирования в виртуальной среде, и в этом плане уже наметились определенные сдвиги. Вендоры операционных систем и прикладных приложений адаптируют лицензионную политику использования своих продуктов в виртуальных машинах. Как положительный пример можно привести изменение лицензионной политики Microsoft, как в отношении серверов, так и в отношении десктопов – теперь не требуются две лицензии для поддержки кластера отказоустойчивости VMware, а Windows Vista может быть лицензирована на «устройство доступа» (программа Vista Enterprise Centralized Desktop, VECD), что очень удобно для решений VDI.
На третьем уровне
Следующая концепция виртуализации – Virtualization 3.0 – уже не за горами. На прошедшей в сентябре 2008 года международной конференции VMworld 2008, проводимой лидером индустрии, компанией VMware, были сформулированы новые идеи развития технологии, ее более тесной интеграции с бизнесом. В частности, продолжая идею создания «самооптимизирующегося» дата-центра, компания VMware предложила ИТ-сообществу операционную систему для ЦОД (Virtual Datacenter Operating System, VDС-OS), включающую в себя полный комплект продуктов и служб, необходимых для поддержки виртуальной среды предприятия. Это как мощная и функциональная платформа со средствами управления, так и инструменты для обеспечения организационных процедур, например, VMware Lifecycle Manager – средство обслуживания жизненного цикла виртуальных машин (создание, эксплуатация, списание). Такая «операционная система», например, развертывается в плавучем автономном ЦОД, запатентованном Google, и, возможно, именно такие решения будут составлять основу Virtualization 3.0.
Безусловно, одной из основных черт Virtualization 3.0 будет также организация «вычислений в облаке» (сloud computing) на базе виртуальных систем, что станет одной из основных тенденций ИТ в ближайшие годы. В конечном счете виртуализация станет технологией, решающей прежде всего бизнес-задачи. Она будет ориентирована на создание полностью автономных центров обработки данных, не требующих поддержки, сервисы которых доступны из любой точки мира по требованию.
А. Самойленко
источник: http://www.cnews.ru/reviews/index.shtml?2009/03/02/339303
Свежие комментарии