В Беркли составили прогноз развития облачных вычислений
Ученые видят потребность в стандартизации программного обеспечения
Ученые видят потребность в стандартизации программного обеспечения
Группа специалистов по вычислительной технике опубликовала широкий обзор так называемых технологий «облачных вычислений». Они призывают к разработке интерфейсов прикладных программ (API), чтобы привлечь к этим технологиям широкий круг поставщиков и пользователей.
Облачные вычисления позволяют организациям для решения собственных задач подключаться к ресурсам крупных центров работки данных. Сегодня такие услуги предлагают Amazon, Google, Microsoft и ряд других компаний. Эта тенденция может «коренным образом изменить существенную часть ИТ-индустрии», утверждает группа авторов, состоящая из одиннадцати профессоров Калифорнийского университете в Беркли.
По их мнению, чтобы тенденция развивалась, поставщики услуг облачных вычислений должны применять шифрование и совершенствовать программные инструменты виртуализации, отладки и разработки масштабируемого кода. Кроме того, производителям компьютеров нужно лучше оптимизировать свое оборудование для нужд современных крупных ЦОДов и включить в иерархию систем хранения данных твердотельные диски.
«Облачные вычисления будут развиваться и окажут влияние как на прикладное ПО, так и на ПО инфраструктуры и оборудование», - утверждает один из авторов обзора, директор новой лаборатории параллельных вычислений Беркли Parallel Computing Lab Дэвид Паттерсон.
В марте 2008 года та же группа опубликовала документ, в котором доказывает острую потребность в новой модели программирования для многоядерных процессоров. Большой интерес к этой работе привлекло обещание подготовить обзор по облачным вычислениям, на что ученые потратили последние пять месяцев.
Одно из самых интересных положений, выдвинутых в новом документе, состоит в том, что отрасль нуждается в API для облачных вычислений, чтобы пользователи в могли быть уверены, что их данные не окажутся запертыми в единственной проприетарной службе. В работе описываются разные технические подходы, применяемые сегодня к облачным вычислениям службами Amazon, Google и Microsoft.
Служба Amazon EC2 оперирует относительно низкоуровневой технологией, позволяя клиентам контролировать большую часть программ, но не обеспечивает функций автоматического масштабирования и обработки отказов. На противоположном конце спектра находится Google AppEngine с более развитой инфраструктурой прикладного ПО, которая создает «чистое разделение» между вычислительным уровнем без отслеживания состояния и уровнем хранения данных с отслеживанием состояния, что создает условия для впечатляющего автоматического масштабирования и использования механизмов безотказной работы, говорится в обзоре.
Где-то посередине находится недавно анонсированная Microsoft служба Azure, которая переводит библиотеки ПО .NET компании в ее не зависящую от языка среду управления Common Language Runtime.
«Три основных игрока уже сделали свои очень разные ставки, - пишет Паттерсон. - Мы убеждены, что если появится общий API, то гораздо больше компаний задумается об использовании этих услуг».
Поставщики облачных вычислений будут конкурировать не столько по способу предоставления своих услуг, сколько по качеству этих услуг, продолжают авторы. «Мы считаем, что предложения будут различаться уровнем абстракции, предлагаемым программисту, и уровню управления ресурсами. Успех зависит от того, насколько эффективно службы используют статистическое мультиплексирование, чтобы скрыть внутренние детали и предложить простой способ неограниченного наращивания вычислительных ресурсов, накопителей и коммуникаций».
Аналогично, облачные службы должны использовать шифрование, виртуальные частные сети и межсетевые экраны для защиты данных пользователей, говорится в документе. В числе других рекомендаций по оборудованию авторы приводят необходимость усовершенствовать технологию управления потребляемой энергией в масштабах всей системы. Серверы должны отключать неиспользуемые банки оперативной памяти и переводить простаивающие жесткие диски на более медленные обороты.
Еще более трудная задача - переписать программное обеспечение для ЦОДа, чтобы в качестве промежуточного уровня хранения данных, расположенного между сегодняшними банками оперативной памяти и жесткими дисками, можно было использовать флэш-диски. «Это революционное изменение, - пишет Паттерсон. - Полная смена иерархии хранения данных в компьютерных системах происходит не так часто».
В результате производителям компьютеров придется оптимизировать свои системы «в масштабах контейнера - как минимум дюжины стоек - который станет минимальным размером закупок для поставщиков облачных услуг». Они будут измерять системы, исходя из своих затрат на эксплуатацию и из количества виртуальных машин, которые им нужно задействовать.
В части программного обеспечения документ призывает к совершенствованию виртуальных машин, отладчиков, систем управления накопителями и средств автоматического масштабирования. «Программное обеспечение должно учитывать, что оно работает не на голом железе, а на виртуальных машинах, и в него с самого начала должна быть встроена система учета и ведения расчетов».
В гонку включается IBM
10 февраля на специальной конференции в Шанхае свою новую стратегию облачных вычислений представила IBM, объявившая себя «первой ИТ-компанией, предлагающей услуги, которые позволяют заказчикам покупать для своих центров обработки данных эквивалент защиты от овердрафта».
По словам директора IBM Cloud Labs, ввиду роста нагрузки на приложения в результате массового освоения Web 2.0 и мобильных сервисов центры обработки данных, которые все чаще называют «частными облаками», достигают предельных мощностей. IBM разработала технологию, которая позволяет ИТ-менеджерам переносить некритичные программы из своих частных ЦОДов в ЦОДы общего пользования, эксплуатируемые IBM.
Big Blue надеется захватить долю растущего рынка облачных вычислений, который, по оценке IDC, вырастет к 2012 году до $42 млрд и который активно осваивают такие конкуренты, как Hewlett-Packard, Sun, Cisco и Amazon.
Многие компании утверждают, что они могут предоставлять вычислительную мощность по требованию, но большинство из них применяет относительно устаревшие технологи и неспособны переносить действующие программы между континентами, например, набрав номер ЦОДа в Дублине, когда серверная ферма в Сан-Хосе достигла своей пиковой мощности. В начале февраля на конференции в Silicon Valley Lab IBM продемонстрировала именно такую возможность: архитектор облачных вычислений компании Рауль Джейн нажал на значок компьютера в Сан-Хосе и отбуксировал его в ЦОД в Дублине.
Группа специалистов по вычислительной технике опубликовала широкий обзор так называемых технологий «облачных вычислений». Они призывают к разработке интерфейсов прикладных программ (API), чтобы привлечь к этим технологиям широкий круг поставщиков и пользователей.
Облачные вычисления позволяют организациям для решения собственных задач подключаться к ресурсам крупных центров работки данных. Сегодня такие услуги предлагают Amazon, Google, Microsoft и ряд других компаний. Эта тенденция может «коренным образом изменить существенную часть ИТ-индустрии», утверждает группа авторов, состоящая из одиннадцати профессоров Калифорнийского университете в Беркли.
По их мнению, чтобы тенденция развивалась, поставщики услуг облачных вычислений должны применять шифрование и совершенствовать программные инструменты виртуализации, отладки и разработки масштабируемого кода. Кроме того, производителям компьютеров нужно лучше оптимизировать свое оборудование для нужд современных крупных ЦОДов и включить в иерархию систем хранения данных твердотельные диски.
«Облачные вычисления будут развиваться и окажут влияние как на прикладное ПО, так и на ПО инфраструктуры и оборудование», - утверждает один из авторов обзора, директор новой лаборатории параллельных вычислений Беркли Parallel Computing Lab Дэвид Паттерсон.
В марте 2008 года та же группа опубликовала документ, в котором доказывает острую потребность в новой модели программирования для многоядерных процессоров. Большой интерес к этой работе привлекло обещание подготовить обзор по облачным вычислениям, на что ученые потратили последние пять месяцев.
Одно из самых интересных положений, выдвинутых в новом документе, состоит в том, что отрасль нуждается в API для облачных вычислений, чтобы пользователи в могли быть уверены, что их данные не окажутся запертыми в единственной проприетарной службе. В работе описываются разные технические подходы, применяемые сегодня к облачным вычислениям службами Amazon, Google и Microsoft.
Служба Amazon EC2 оперирует относительно низкоуровневой технологией, позволяя клиентам контролировать большую часть программ, но не обеспечивает функций автоматического масштабирования и обработки отказов. На противоположном конце спектра находится Google AppEngine с более развитой инфраструктурой прикладного ПО, которая создает «чистое разделение» между вычислительным уровнем без отслеживания состояния и уровнем хранения данных с отслеживанием состояния, что создает условия для впечатляющего автоматического масштабирования и использования механизмов безотказной работы, говорится в обзоре.
Где-то посередине находится недавно анонсированная Microsoft служба Azure, которая переводит библиотеки ПО .NET компании в ее не зависящую от языка среду управления Common Language Runtime.
«Три основных игрока уже сделали свои очень разные ставки, - пишет Паттерсон. - Мы убеждены, что если появится общий API, то гораздо больше компаний задумается об использовании этих услуг».
Поставщики облачных вычислений будут конкурировать не столько по способу предоставления своих услуг, сколько по качеству этих услуг, продолжают авторы. «Мы считаем, что предложения будут различаться уровнем абстракции, предлагаемым программисту, и уровню управления ресурсами. Успех зависит от того, насколько эффективно службы используют статистическое мультиплексирование, чтобы скрыть внутренние детали и предложить простой способ неограниченного наращивания вычислительных ресурсов, накопителей и коммуникаций».
Аналогично, облачные службы должны использовать шифрование, виртуальные частные сети и межсетевые экраны для защиты данных пользователей, говорится в документе. В числе других рекомендаций по оборудованию авторы приводят необходимость усовершенствовать технологию управления потребляемой энергией в масштабах всей системы. Серверы должны отключать неиспользуемые банки оперативной памяти и переводить простаивающие жесткие диски на более медленные обороты.
Еще более трудная задача - переписать программное обеспечение для ЦОДа, чтобы в качестве промежуточного уровня хранения данных, расположенного между сегодняшними банками оперативной памяти и жесткими дисками, можно было использовать флэш-диски. «Это революционное изменение, - пишет Паттерсон. - Полная смена иерархии хранения данных в компьютерных системах происходит не так часто».
В результате производителям компьютеров придется оптимизировать свои системы «в масштабах контейнера - как минимум дюжины стоек - который станет минимальным размером закупок для поставщиков облачных услуг». Они будут измерять системы, исходя из своих затрат на эксплуатацию и из количества виртуальных машин, которые им нужно задействовать.
В части программного обеспечения документ призывает к совершенствованию виртуальных машин, отладчиков, систем управления накопителями и средств автоматического масштабирования. «Программное обеспечение должно учитывать, что оно работает не на голом железе, а на виртуальных машинах, и в него с самого начала должна быть встроена система учета и ведения расчетов».
В гонку включается IBM
10 февраля на специальной конференции в Шанхае свою новую стратегию облачных вычислений представила IBM, объявившая себя «первой ИТ-компанией, предлагающей услуги, которые позволяют заказчикам покупать для своих центров обработки данных эквивалент защиты от овердрафта».
По словам директора IBM Cloud Labs, ввиду роста нагрузки на приложения в результате массового освоения Web 2.0 и мобильных сервисов центры обработки данных, которые все чаще называют «частными облаками», достигают предельных мощностей. IBM разработала технологию, которая позволяет ИТ-менеджерам переносить некритичные программы из своих частных ЦОДов в ЦОДы общего пользования, эксплуатируемые IBM.
Big Blue надеется захватить долю растущего рынка облачных вычислений, который, по оценке IDC, вырастет к 2012 году до $42 млрд и который активно осваивают такие конкуренты, как Hewlett-Packard, Sun, Cisco и Amazon.
Многие компании утверждают, что они могут предоставлять вычислительную мощность по требованию, но большинство из них применяет относительно устаревшие технологи и неспособны переносить действующие программы между континентами, например, набрав номер ЦОДа в Дублине, когда серверная ферма в Сан-Хосе достигла своей пиковой мощности. В начале февраля на конференции в Silicon Valley Lab IBM продемонстрировала именно такую возможность: архитектор облачных вычислений компании Рауль Джейн нажал на значок компьютера в Сан-Хосе и отбуксировал его в ЦОД в Дублине.
Опубликовано 12.02.2009