WikiDer > Грид-ориентированное хранилище

Grid-oriented storage

Грид-ориентированное хранилище (GOS) был термином, использовавшимся для хранения данных университетским проектом в то время, когда термин сеточные вычисления был популярен.

Описание

GOS было преемником термина Network Attached Storage (NAS). Системы GOS содержали жесткие диски, часто RAID-массивы (избыточные массивы независимых дисков), как традиционные файловые серверы.

Gosongrid.jpg

GOS была разработана для работы с удаленными, междоменными и файловыми операциями с одним изображением, что типично для грид-сред. GOS ведет себя как файловый сервер через файловый протокол GOS-FS для любого объекта в сети. Похожий на GridFTP, GOS-FS объединяет механизм параллельного потока и Инфраструктура безопасности сети (GSI).

В соответствии с универсальным коммутатором VFS (Virtual Filesystem Switch), GOS-FS может повсеместно использоваться в качестве базовой платформы для наилучшего использования увеличенной полосы пропускания и ускорения NFS/CIFS-основные приложения. GOS также может переехать SCSI, Fibre Channel или же iSCSI, который не влияет на производительность ускорения, предлагая протоколы как файлового, так и блочного уровня для сеть хранения данных (SAN) из той же системы.

В сетевой инфраструктуре ресурсы могут быть географически удалены друг от друга, производиться разными производителями и иметь разные политики управления доступом. Это делает доступ к ресурсам сетки динамичным и обусловленным локальными ограничениями. Методы централизованного управления этими ресурсами ограничены в масштабируемости как с точки зрения эффективности выполнения, так и отказоустойчивости. Для предоставления услуг на таких платформах требуется механизм распределенного управления ресурсами, а одноранговые кластерные устройства GOS позволяют одному образу хранилища продолжать расширяться, даже если одно устройство GOS достигает своих ограничений по емкости. Кластер использует общее совокупное представление данных, хранящихся на всех участвующих устройствах GOS. Каждое устройство GOS управляет собственной внутренней памятью. Основное преимущество такого агрегирования состоит в том, что к кластеризованному хранилищу GOS пользователи могут обращаться как к единой точке монтирования.

Продукты GOS подходят для классификации тонких серверов. По сравнению с традиционными архитектурами хранения на основе «толстых серверов», устройства GOS на тонких серверах обладают многочисленными преимуществами, такими как устранение потенциальных узких мест в сети / распределенной сети, оптимизация ЦП и ОС только для ввода-вывода, простота установки, удаленное управление минимальное обслуживание, низкая стоимость, Plug and Play и т. д. Примеры подобных инноваций включают NAS, принтеры, факсы, маршрутизаторы и коммутаторы.

An Сервер Apache был установлен в операционной системе GOS, что обеспечивает связь на основе HTTPS между сервером GOS и администратором через веб-браузер. Удаленное управление и мониторинг упрощают настройку, управление и мониторинг систем GOS.

История

Фрэнк Чжиган Ван и На Хелиан предложили правительству Великобритании предложение о финансировании под названием «Грид-ориентированное хранилище (GOS): архитектура системы хранения данных нового поколения для эпохи грид-вычислений» в 2003 году. Предложение было одобрено и предоставлено один миллион фунтов стерлингов.[нужна цитата] в 2004 году. Первый прототип был построен в 2005 году в Центре сетевых вычислений, Кембридж-Крэнфилд, Центр высокопроизводительных вычислений. Первая презентация конференции состоялась на симпозиуме IEEE по кластерным вычислениям и сетям (CCGrid), 9–12 мая 2005 г., Кардифф, Великобритания. Как один из пяти лучших незавершенных проектов, он был включен в IEEE Distributed Systems Online. В 2006 году архитектура GOS и ее реализации были опубликованы в IEEE Transactions on Computers под названием «Грид-ориентированное хранилище: однообразная, междоменная архитектура с высокой пропускной способностью». Начиная с января 2007 г. демонстрации были представлены на Университет Принстона, Компьютерная лаборатория Кембриджского университета и другие. К 2013 году Центр Крэнфилда все еще использовал будущее время для проекта.[1]

Одноранговый обмен файлами используйте аналогичные методы.

Примечания

  1. ^ «Центр грид-вычислений». Крэнфилдский университет. Получено 14 июня, 2013.

дальнейшее чтение

  • Фрэнк Ван, На Хелиан, Сининг Ву, Юхуэй Денг, Йике Го, Стив Томпсон, Ян Джонсон, Дэйв Милвард и Роберт Мэддок, Грид-ориентированное хранилище, IEEE Distributed Systems Online, Том 6, Выпуск 9, сентябрь 2005 г.
  • Фрэнк Ван, Сининг Ву, На Хелиан, Энди Паркер, Йике Го, Юхуэй Денг, Винит Кхаре, Грид-ориентированное хранилище: однообразная, междоменная архитектура с высокой пропускной способностью, транзакции IEEE на компьютерах, том 56, № .4. С. 474–487, 2007.
  • Франк Чжиган Ван, Сининг Ву, На Хелиан, Базовый протокол передачи данных для ускорения веб-коммуникаций, Международный журнал компьютерных сетей, Elsevier, 2007.
  • Фрэнк Чжиган Ван, Сининг Ву, На Хелиан, Юхуэй Денг, Винит Кхаре, Крис Томпсон и Майкл Паркер, Сетевой доступ к базе данных нуклеотидных последовательностей с 6-кратным улучшением времени отклика, Вычисления нового поколения, № 2, том 25, 2007 г.
  • Франк Ван, Юхуэй Денг, На Хелиан, Эволюционное хранилище: ускорение работы магнитного диска за счет кластеризации частых данных, IEEE Transactions on Magnetics, выпуск 6, том 43, 2007.
  • Фрэнк Чжиган Ван, На Хелиан, Сининг Ву, Юхуэй Денг, Винит Кхаре, Крис Томпсон и Майкл Паркер, Грид-архитектура хранилища для ускорения биоинформатических вычислений, Журнал систем обработки сигналов СБИС, № 1, том 48, 2007.
  • Юйхуэй Дэн и Франк Ван, Гетерогенная сеть хранения на основе Grid Service, Обзор операционной системы ACM, № 1, том 41, 2007.
  • Юйхуэй Денг и Франк Ван, Оптимальный размер кластеризации доступа к небольшим файлам в сетевом запоминающем устройстве, Письма о параллельной обработке, № 1, том 17, 2007.