WikiDer > Неравномерный доступ к памяти

Non-uniform memory access
HP Z820 с двумя CPUS и NUMA

Неоднородный доступ к памяти (NUMA) это память компьютера дизайн, используемый в многопроцессорность, где время доступа к памяти зависит от расположения памяти относительно процессора. Под NUMA процессор может получить доступ к собственному локальная память быстрее, чем нелокальная память (память, локальная для другого процессора или память, совместно используемая между процессорами). Преимущества NUMA ограничены определенными рабочими нагрузками, особенно на серверах, где данные часто прочно связаны с определенными задачами или пользователями.[1]

Архитектуры NUMA логически следуют в масштабировании от симметричная многопроцессорная обработка (SMP) архитектуры. Они были коммерчески разработаны в 1990-е гг. Unisys, Выпуклый компьютер (потом Hewlett Packard), Honeywell Информационные системы Италии (HISI) (позже Groupe Bull), Силиконовая Графика (потом Silicon Graphics International), Sequent Computer Systems (потом IBM), Общие данные (потом EMC), и Цифровой (потом Compaq, тогда HP, сейчас же HPE). Методы, разработанные этими компаниями, позже были включены в различные Unix-подобный операционные системы, и в некоторой степени Windows NT.

Первой коммерческой реализацией системы Unix на основе NUMA было семейство серверов Symmetrical Multi Processing XPS-100, разработанное Дэном Гиланом из VAST Corporation для Информационные системы Honeywell Италия.

Основная концепция

Одна возможная архитектура системы NUMA. Процессоры подключаются к шине или кроссу соединениями разной толщины / количества. Это показывает, что разные процессоры имеют разные приоритеты доступа к памяти в зависимости от их относительного расположения.

Современные процессоры работают значительно быстрее, чем используемая ими основная память. В первые дни вычислений и обработки данных ЦП обычно работал медленнее, чем его собственная память. Границы производительности процессоров и памяти пересеклись в 1960-х годах с появлением первых суперкомпьютеры. С тех пор процессоры все чаще оказываются «голодными в данных» и вынуждены останавливаться в ожидании поступления данных из памяти. Многие проекты суперкомпьютеров 1980-х и 1990-х годов были ориентированы на обеспечение высокоскоростного доступа к памяти в отличие от более быстрых процессоров, что позволяло компьютерам работать с большими наборами данных на скоростях, недоступных для других систем.

Ограничение количества обращений к памяти стало ключом к достижению высокой производительности современного компьютера. Для массовых процессоров это означало установку все большего количества высокоскоростных кэш-память и используя все более сложные алгоритмы, чтобы избежать промахи в кеше. Но резкое увеличение размера операционных систем и приложений, работающих на них, в целом подавляло эти улучшения обработки кэша. Многопроцессорные системы без NUMA значительно усугубляют проблему. Теперь в системе могут не работать несколько процессоров одновременно, особенно потому, что только один процессор может получить доступ к памяти компьютера одновременно.[2]

NUMA пытается решить эту проблему, предоставляя отдельную память для каждого процессора, избегая падения производительности, когда несколько процессоров пытаются обращаться к одной и той же памяти. Для проблем, связанных с распределенными данными (обычно для серверы и аналогичные приложения), NUMA может улучшить производительность по сравнению с одной общей памятью примерно в несколько раз, увеличивая количество процессоров (или отдельных банков памяти).[3] Другой подход к решению этой проблемы, используемый в основном в системах, отличных от NUMA, - это многоканальная архитектура памяти, в котором линейное увеличение количества каналов памяти линейно увеличивает параллелизм доступа к памяти.[4]

Конечно, не все данные ограничиваются одной задачей, а это означает, что одни и те же данные могут потребоваться более чем одному процессору. Чтобы справиться с этими случаями, системы NUMA включают дополнительное оборудование или программное обеспечение для перемещения данных между банками памяти. Эта операция замедляет процессоры, подключенные к этим банкам, поэтому общее увеличение скорости из-за NUMA сильно зависит от характера выполняемых задач.[3]

AMD внедрил NUMA с его Opteron процессор (2003), используя Гипертранспорт. Intel объявила о совместимости с NUMA для своих x86 и Itanium серверов в конце 2007 г. Nehalem и Туквила ЦП.[5] Оба семейства процессоров Intel имеют общие чипсет; соединение называется Intel Быстрое соединение (QPI).[6]

Кеш-когерентный NUMA (ccNUMA)

Топология ccNUMA Бульдозер сервер, извлеченный с помощью инструмента lstopo от hwloc.

Почти все архитектуры ЦП используют небольшой объем очень быстрой не разделяемой памяти, известной как тайник использовать местонахождение ссылки в доступе к памяти. Используя NUMA, поддерживая согласованность кеша через разделяемую память имеет значительные накладные расходы. Несмотря на то, что системы NUMA проще проектировать и создавать, некогерентные системы NUMA становятся непомерно сложными для программирования в стандартных фон Неймана архитектура модель программирования.[7]

Как правило, ccNUMA использует межпроцессорную связь между контроллерами кеша, чтобы поддерживать согласованный образ памяти, когда более одного кеша хранят одно и то же место в памяти. По этой причине ccNUMA может работать плохо, когда несколько процессоров пытаются получить доступ к одной и той же области памяти в быстрой последовательности. Поддержка NUMA в операционные системы пытается снизить частоту такого рода доступа, выделяя процессоры и память удобными для NUMA способами и избегая алгоритмов планирования и блокировки, которые делают необходимым NUMA-недружественный доступ.[8]

В качестве альтернативы протоколы согласованности кеширования, такие как Протокол MESIF попытка сократить обмен данными, необходимыми для поддержания согласованности кэша. Масштабируемый когерентный интерфейс (SCI) - это IEEE стандарт, определяющий протокол согласованности кэша на основе каталогов, чтобы избежать ограничений масштабируемости, обнаруженных в более ранних многопроцессорных системах. Например, SCI используется в качестве основы для технологии NumaConnect.[9][10]

По состоянию на 2011 год системы ccNUMA являются многопроцессорными системами на основе AMD Opteron процессор, который может быть реализован без внешней логики, и процессор Intel Itanium, для которого чипсет должен поддерживать NUMA. Примерами чипсетов с поддержкой ccNUMA являются SGI Shub (Super hub), Intel E8870, HP sx2000 (используется в серверах Integrity и Superdome), а также в системах NEC на базе Itanium. Более ранние системы ccNUMA, такие как Силиконовая Графика были основаны на MIPS процессоры и DEC Альфа 21364 (EV7) процессор.

NUMA против кластерных вычислений

Можно рассматривать NUMA как тесно связанную форму кластерные вычисления. Добавление виртуальная память пейджинг в кластерную архитектуру может позволить реализовать NUMA полностью программно. Однако межузловая задержка программной NUMA остается на несколько порядков больше (медленнее), чем у аппаратной NUMA.[1]

Поддержка программного обеспечения

Поскольку NUMA в значительной степени влияет на производительность доступа к памяти, необходима определенная оптимизация программного обеспечения, чтобы можно было планировать потоки и процессы, близкие к их данным в памяти.

  • Силиконовая Графика IRIX поддержка архитектуры ccNUMA более 1240 ЦП с серией серверов Origin.
  • Microsoft Windows 7 и Windows Server 2008 R2 добавлена ​​поддержка архитектуры NUMA для 64 логических ядер.[11]
  • Java 7 добавлена ​​поддержка распределителя памяти с учетом NUMA и уборщик мусора.[12]
  • Версия 2.5 Ядро Linux уже содержит базовую поддержку NUMA,[13] который был дополнительно улучшен в последующих выпусках ядра. Версия 3.8 ядра Linux принесла новую основу NUMA, которая позволила разработать более эффективные политики NUMA в более поздних выпусках ядра.[14][15] В версии 3.13 ядра Linux появилось множество политик, нацеленных на размещение процесса рядом с его памятью, а также обработку таких случаев, как страницы памяти разделяется между процессами, или использование прозрачных огромные страницы; новый sysctl настройки позволяют включать или отключать балансировку NUMA, а также настраивать различные параметры балансировки памяти NUMA.[16][17][18]
  • OpenSolaris моделирует архитектуру NUMA с помощью lgroups.
  • FreeBSD добавлено начальное сходство NUMA и конфигурация политики в версии 11.0 [19]

Смотрите также

Рекомендации

  1. ^ а б Накул Манчанда; Каран Ананд (04.05.2010). «Неравномерный доступ к памяти (NUMA)» (PDF). Нью-Йоркский университет. Архивировано из оригинал (PDF) на 2013-12-28. Получено 2014-01-27.
  2. ^ Сергей Благодуров; Сергей Журавлев; Мохаммад Дашти; Александра Федорова (02.05.2011). «Пример использования NUMA-совместимого управления конфликтами в многоядерных системах» (PDF). Университет Саймона Фрейзера. Получено 2014-01-27.
  3. ^ а б Золтан Майо; Томас Р. Гросс (2011). «Производительность системы памяти в многоядерном мультипроцессоре NUMA» (PDF). ACM. Архивировано из оригинал (PDF) на 2013-06-12. Получено 2014-01-27.
  4. ^ «Официальный документ по архитектуре двухканальной памяти DDR Intel» (PDF) (Ред. 1.0). Infineon Technologies North America и Kingston Technology. Сентябрь 2003 г. Архивировано с оригинал (PDF, 1021КБ) на 2011-09-29. Получено 2007-09-06.
  5. ^ Intel Corp. (2008 г.). Архитектура Intel QuickPath [Белая книга]. Извлекаются из http://www.intel.com/pressroom/archive/reference/whitepaper_QuickPath.pdf
  6. ^ Корпорация Intel. (18 сентября 2007 г.). Гелсинджер обращается к Intel и кадену по быстрым технологиям в сфере высоких технологий [пресс-релиз]. Извлекаются из http://www.intel.com/pressroom/archive/releases/2007/20070918corp_b.htm
  7. ^ "ccNUMA: Кэш-когерентный неоднородный доступ к памяти". slideshare.net. 2014 г.. Получено 2014-01-27.
  8. ^ Пер Стенстромт; Трумэн Джо; Ануп Гупта (2002). «Сравнительная оценка производительности кэш-когерентных архитектур NUMA и COMA» (PDF). ACM. Получено 2014-01-27.
  9. ^ Дэвид Б. Густавсон (сентябрь 1991 г.). «Проекты по масштабируемому согласованному интерфейсу и связанным стандартам» (PDF). Публикация SLAC 5656. Стэнфордский центр линейных ускорителей. Получено 27 января, 2014.
  10. ^ «NumaChip обеспечивает когерентную низкую стоимость разделяемой памяти с кэш-памятью». Numascale.com. Архивировано из оригинал на 2014-01-22. Получено 2014-01-27.
  11. ^ Поддержка NUMA (MSDN)
  12. ^ Повышение производительности виртуальной машины Java HotSpot ™
  13. ^ «Усилия по масштабированию Linux: домашняя страница группы NUMA». sourceforge.net. 2002-11-20. Получено 2014-02-06.
  14. ^ «Ядро Linux 3.8, раздел 1.8. Автоматическая балансировка NUMA». kernelnewbies.org. 2013-02-08. Получено 2014-02-06.
  15. ^ Джонатан Корбет (14 ноября 2012 г.). «НУМА спешит». LWN.net. Получено 2014-02-06.
  16. ^ «Ядро Linux 3.13, раздел 1.6. Повышена производительность в системах NUMA». kernelnewbies.org. 2014-01-19. Получено 2014-02-06.
  17. ^ "Документация ядра Linux: Documentation / sysctl / kernel.txt". kernel.org. Получено 2014-02-06.
  18. ^ Джонатан Корбет (01.10.2013). "Прогресс планирования NUMA". LWN.net. Получено 2014-02-06.
  19. ^ "Примечания к выпуску FreeBSD 11.0-RELEASE". freebsd.org. 2016-09-22.

внешняя ссылка