Архитектура суперкомпьютера - Supercomputer architecture

А SGI Altix суперкомпьютер с 23000 процессорами на КИНО объект во Франции

Подходы к суперкомпьютерная архитектура претерпели серьезные изменения с момента появления первых систем в 1960-х годах. Рано суперкомпьютер архитектуры, впервые разработанные Сеймур Крей сделали ставку на компактный инновационный дизайн и местные параллелизм для достижения максимальной вычислительной производительности.[1] Однако со временем потребность в увеличенных вычислительных мощностях привела к эпохе массивно параллельный системы.

В то время как суперкомпьютеры 1970-х годов использовали лишь несколько процессоры В 1990-х годах начали появляться машины с тысячами процессоров, а к концу 20-го века массово-параллельные суперкомпьютеры с десятками тысяч стандартных процессоров стали нормой. Суперкомпьютеры 21 века могут использовать более 100 000 процессоров (некоторые из них графические блоки ) связаны быстрыми подключениями.[2][3]

На протяжении десятилетий управление плотность тепла остается ключевой проблемой для большинства централизованных суперкомпьютеров.[4][5][6] Большое количество тепла, выделяемого системой, может также иметь другие эффекты, такие как сокращение срока службы других компонентов системы.[7] Существуют разные подходы к управлению теплом, от насосных до Флюоринерт через систему к гибридной системе жидкостно-воздушного охлаждения или воздушному охлаждению с нормальным кондиционер температуры.[8][9]

Системы с огромным количеством процессоров обычно выбирают один из двух путей: один подход, например, в сеточные вычисления вычислительная мощность большого количества компьютеров в распределенных, разнообразных административных доменах всегда используется всякий раз, когда компьютер доступен.[10] В другом подходе большое количество процессоров используется в непосредственной близости друг от друга, например, в компьютерный кластер. В такой централизованной массивно параллельный система скорость и гибкость межсоединения становятся очень важными, и современные суперкомпьютеры использовали различные подходы, начиная от улучшенных Infiniband системы в трехмерные соединяет тор.[11][12]

Контекст и обзор

С конца 1960-х годов мощность и распространение суперкомпьютеров резко возросли, и основные архитектурные направления этих систем претерпели значительные изменения. В то время как первые суперкомпьютеры полагались на небольшое количество тесно связанных процессоров, Общая память суперкомпьютеры 21 века используют более 100 000 процессоров, соединенных быстрыми сетями.[2][3]

На протяжении десятилетий управление плотность тепла остается ключевой проблемой для большинства централизованных суперкомпьютеров.[4] Сеймур Крей Девиз "вытащить тепло" был центральным в его философии дизайна и продолжает оставаться ключевым вопросом в суперкомпьютерных архитектурах, например, в крупномасштабных экспериментах, таких как Голубые воды.[4][5][6] Большое количество тепла, выделяемого системой, может также иметь другие эффекты, такие как сокращение срока службы других компонентов системы.[7]

Существуют различные подходы к управлению теплом, например, то Cray 2 накачанный Флюоринерт через систему, а Система X использовалась гибридная система жидкостно-воздушного охлаждения и Синий Джин / P с воздушным охлаждением с нормальным кондиционер температуры.[8][13][14] Тепло от Аквазар суперкомпьютер используется для обогрева университетского городка.[15][16]

Плотность тепла, генерируемого суперкомпьютером, напрямую зависит от типа процессора, используемого в системе, при этом более мощные процессоры обычно выделяют больше тепла, учитывая аналогичные лежащие в основе полупроводниковые технологии.[7] В то время как первые суперкомпьютеры использовали несколько быстрых, плотно упакованных процессоров, которые использовали преимущества локального параллелизма (например, конвейерная обработка и векторная обработка ), со временем количество процессоров росло, и вычислительные узлы можно было размещать дальше, например, в компьютерный кластер, или могут быть географически рассредоточены в сеточные вычисления.[2][17] По мере роста количества процессоров в суперкомпьютере "интенсивность отказов компонентов "начинает становиться серьезной проблемой. Если суперкомпьютер использует тысячи узлов, каждый из которых может выходить из строя в среднем один раз в год, тогда в системе будет несколько сбои узлов каждый день.[9]

Поскольку цена / производительность графические процессоры общего назначения (GPGPU) улучшилось, ряд петафлоп суперкомпьютеры, такие как Тяньхэ-I и Туманности начали полагаться на них.[18] Однако другие системы, такие как K компьютер продолжать использовать обычные процессоры, такие как SPARC -системы и общая применимость GPGPU в высокопроизводительных вычислительных приложениях общего назначения были предметом дискуссий, поскольку хотя GPGPU может быть настроен для получения хороших результатов в конкретных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не приложить значительные усилия потратил на настройку приложения под это.[19] Тем не менее, графические процессоры набирают обороты, и в 2012 году Суперкомпьютер Jaguar был преобразован в Титан путем замены ЦП на ГП.[20][21][22]

По мере увеличения количества независимых процессоров в суперкомпьютере способ доступа к данным в файловая система и как они делятся и получают доступ вторичное хранилище ресурсы становятся заметными. За годы существования ряда систем для распределенное управление файлами были разработаны, например, то Общая параллельная файловая система IBM, BeeGFS, то Параллельная виртуальная файловая система, Hadoop, так далее.[23][24] Ряд суперкомпьютеров на ТОП100 список, такой как Tianhe-I, использующий Linux с Файловая система Lustre.[4]

Ранние системы с несколькими процессорами

В CDC 6600 серии компьютеров были очень ранними попытками суперкомпьютеров и получили свое преимущество над существующими системами, переложив работу на периферийные устройства, освобождая процессор (Центральное процессорное устройство ) для обработки фактических данных. С Миннесотой FORTRAN компилятор 6600 мог выдержать 500 килофлопс на стандартных математических операциях.[25]

Цилиндрическая форма раннего Компьютеры Cray централизованный доступ, короткие и равномерные расстояния.[3]

Другие ранние суперкомпьютеры, такие как Cray 1 и Cray 2 появившиеся впоследствии использовали небольшое количество быстрых процессоров, которые работали согласованно и были единообразно подключены к большему количеству Общая память это можно было сделать в то время.[3]

Эти ранние архитектуры представили параллельная обработка на уровне процессора, с такими инновациями, как векторная обработка, в котором процессор может выполнять несколько операций за один такт, а не ждать последовательных циклов.

Со временем, по мере увеличения количества процессоров, возникли различные архитектурные проблемы. Две проблемы, которые необходимо решить по мере увеличения количества процессоров, - это распределение памяти и обработка. В подходе с распределенной памятью каждый процессор физически упакован вместе с некоторой локальной памятью. Память, связанная с другими процессорами, затем «дальше» в зависимости от пропускная способность и задержка параметры в неравномерный доступ к памяти.

В 1960-е годы конвейерная обработка считалось нововведением, и к 1970-м годам использование векторные процессоры был хорошо установлен. К 1980-м годам многие суперкомпьютеры использовали параллельные векторные процессоры.[2]

Относительно небольшое количество процессоров в ранних системах позволяло им легко использовать архитектура с общей памятью, что позволяет процессорам получать доступ к общему пулу памяти. В первые дни распространенным подходом было использование единый доступ к памяти (UMA), в котором время доступа к области памяти было одинаковым для разных процессоров. Использование неравномерный доступ к памяти (NUMA) позволяла процессору получать доступ к своей локальной памяти быстрее, чем к другим ячейкам памяти, в то время как архитектуры памяти только кеш (COMA) позволяла использовать локальную память каждого процессора в качестве кеша, что требовало координации при изменении значений памяти.[26]

По мере увеличения количества процессоров эффективная межпроцессорная связь и синхронизация на суперкомпьютере становится проблемой. Для достижения этой цели можно использовать несколько подходов. Например, в начале 1980-х гг. Cray X-MP система, общие регистры были использованы. При таком подходе все процессоры имели доступ к общие регистры которые не перемещали данные туда и обратно, а использовались только для межпроцессорной связи и синхронизации. Однако неотъемлемые проблемы с управлением большим объемом разделяемой памяти между многими процессорами привели к переходу на большее количество распределенные архитектуры.[27]

Массивный централизованный параллелизм

А Синий ген / L шкаф с изображением штабелированных лезвия, каждый из которых имеет много процессоров

В течение 1980-х годов, когда спрос на вычислительные мощности увеличился, началась тенденция к гораздо большему количеству процессоров, открывая эру массивно параллельный системы, с распределенная память и распределенные файловые системы, при условии архитектуры с общей памятью не может масштабироваться на большое количество процессоров.[2][28] Гибридные подходы, такие как распределенная разделяемая память также появился после ранних систем.[29]

Подход компьютерной кластеризации соединяет ряд легко доступных вычислительных узлов (например, персональных компьютеров, используемых в качестве серверов) через быструю частную локальная сеть.[30] Действия вычислительных узлов координируются «промежуточным программным обеспечением кластеризации», программным уровнем, который находится поверх узлов и позволяет пользователям рассматривать кластер как в целом один связанный вычислительный блок, например через единый образ системы концепция.[30]

Компьютерная кластеризация основана на централизованном подходе к управлению, который делает узлы доступными как согласованные. общие серверы. Он отличается от других подходов, таких как пиринговый или же сеточные вычисления которые также используют много узлов, но с гораздо большим распределенная природа.[30] К 21 веку TOP500 полугодовой список 500 самых быстрых суперкомпьютеров организации часто включает множество кластеров, например самый быстрый в мире в 2011 году, K компьютер с распределенная память, кластерная архитектура.[31][32]

Когда используется большое количество локальных полунезависимых вычислительных узлов (например, в кластерной архитектуре), скорость и гибкость межсоединения становятся очень важными. Современные суперкомпьютеры используют разные подходы к решению этой проблемы, например: Тяньхэ-1 использует проприетарную высокоскоростную сеть на основе Infiniband QDR, улучшенный с FeiTeng-1000 ЦП.[4] С другой стороны, Синий ген / L система использует трехмерный тор соединяться со вспомогательными сетями для глобальных коммуникаций.[11] В этом подходе каждый узел связан со своими шестью ближайшими соседями. Подобный тор использовался Cray T3E.[12]

В массивных централизованных системах иногда используются специализированные процессоры, разработанные для конкретного приложения, и могут использоваться программируемые вентильные матрицы (FPGA), чтобы повысить производительность, жертвуя общностью. Примеры суперкомпьютеров специального назначения включают: Belle,[33] Темно-синий,[34] и Гидра,[35] для игры шахматы, Гравитационная труба для астрофизики,[36] МДГРАП-3 для расчета структуры белковмолекулярная динамика[37] и Глубокая трещина,[38] за нарушение DES шифр.

Массивный распределенный параллелизм

Пример архитектуры географически разнесенной вычислительной системы, соединяющей множество узлов по сети

Грид-вычисления использует большое количество компьютеров в распределенных, разнообразных административных доменах. Это оппортунистический подход, при котором ресурсы используются всякий раз, когда они доступны.[10] Примером является BOINC а на добровольной основе, оппортунистическая сеточная система.[39] Немного BOINC приложения достигли уровня в несколько петафлопов за счет использования почти полумиллиона компьютеров, подключенных к Интернету, всякий раз, когда становятся доступны добровольческие ресурсы.[40] Однако такие результаты часто не отображаются в TOP500 рейтинги, потому что они не имеют общего назначения Linpack эталон.

Хотя грид-вычисления успешно справляются с параллельным выполнением задач, требуются такие суперкомпьютерные приложения, как моделирование погоды или же вычислительная гидродинамика остались вне досягаемости, отчасти из-за препятствий в надежном распределении большого количества задач, а также из-за надежной доступности ресурсов в определенный момент времени.[39][41][42]

В квазиоппортунистический суперкомпьютер большое количество географически рассредоточить компьютеры организованы с встроенные гарантии.[43] Квази-оппортунистический подход выходит за рамки волонтерские вычисления в сильно распределенных системах, таких как BOINC, или вообще сеточные вычисления в такой системе, как Глобус разрешив промежуточное ПО чтобы обеспечить практически беспрепятственный доступ ко многим вычислительным кластерам, чтобы существующие программы на таких языках, как Фортран или же C могут быть распределены между несколькими вычислительными ресурсами.[43]

Квази-оппортунистические суперкомпьютеры призваны обеспечить более высокое качество обслуживания, чем гибкое совместное использование ресурсов.[44] Квази-оппортунистический подход позволяет выполнять требовательные приложения в компьютерных сетях путем заключения соглашений о распределении ресурсов по сетям; и отказоустойчивой передача сообщений для абстрактной защиты от сбоев базовых ресурсов, таким образом поддерживая некоторый оппортунизм, обеспечивая при этом более высокий уровень контроля.[10][43][45]

Архитектурные тенденции 21 века

Человек, идущий между стеллажами Cray XE6 суперкомпьютер

IBM с воздушным охлаждением Синий ген В архитектуре суперкомпьютера скорость процессора обменивается на низкое энергопотребление, так что большее количество процессоров может использоваться при комнатной температуре с использованием обычного кондиционирования воздуха.[14][46] Система Blue Gene / P второго поколения имеет процессоры со встроенной логикой связи между узлами.[47] Он энергоэффективен, достиг 371 MFLOPS / Вт.[48]

В K компьютер это с водяным охлаждением, однородный процессор, распределенная память система с кластерная архитектура.[32][49] Использует более 80 000 SPARC64 VIIIfx процессоров, по восемь ядра, всего более 700 000 ядер - почти вдвое больше, чем в любой другой системе. Он состоит из более чем 800 шкафов, каждый с 96 вычислительными узлами (каждый с 16 ГБ памяти) и 6 узлами ввода-вывода. Несмотря на то, что он более мощный, чем следующие пять систем в списке TOP500 вместе взятых, при 824,56 MFLOPS / Вт он имеет самое низкое соотношение мощности к производительности среди всех существующих крупных суперкомпьютерных систем.[50][51] Последующая система для компьютера K, называемая PRIMEHPC FX10 использует то же шестимерное соединение типа тор, но только по одному процессору на узел.[52]

В отличие от компьютера K, Тяньхэ-1А Система использует гибридную архитектуру и объединяет процессоры и графические процессоры.[4] Использует более 14000 Xeon универсальные процессоры и более 7000 Nvidia Tesla универсальные графические процессоры (GPGPU) примерно на 3500 лезвия.[53] Он имеет 112 компьютерных шкафов и 262 терабайта распределенной памяти; 2 петабайта дискового хранилища реализовано через Блеск кластерные файлы.[54][55][56][4] Tianhe-1 использует проприетарную высокоскоростную коммуникационную сеть для подключения процессоров.[4] Собственная межсоединительная сеть была основана на Infiniband QDR, улучшенный с китайского производства FeiTeng-1000 ЦП.[4] В случае межсоединения система в два раза быстрее, чем Infiniband, но медленнее, чем некоторые межсоединения на других суперкомпьютерах.[57]

Пределы конкретных подходов продолжают проверяться, поскольку границы достигаются посредством крупномасштабных экспериментов, например, в 2011 году IBM прекратила свое участие в Голубые воды петафлопс в Университете Иллинойса.[58][59] Архитектура Blue Waters была основана на IBM МОЩНОСТЬ7 процессор и предполагалось иметь 200 000 ядер с петабайтом «глобально адресуемой памяти» и 10 петабайтами дискового пространства.[6] Цель стабильного петафлопа привела к выбору дизайна, который оптимизировал одноядерную производительность и, следовательно, меньшее количество ядер. Тогда ожидалось, что меньшее количество ядер повысит производительность программ, которые плохо масштабируются для большого количества процессоров.[6] Архитектура большой глобально адресуемой памяти была направлена ​​на эффективное решение проблем с адресом памяти для однотипных программ.[6] Ожидалось, что Blue Waters будет работать с устойчивой скоростью не менее одного петафлопа, и для управления теплом полагалась на специальный подход с водяным охлаждением. За первые четыре года работы Национальный научный фонд потратил на проект около 200 миллионов долларов. IBM выпустила Мощность 775 вычислительный узел был создан на основе технологии этого проекта вскоре после этого, но фактически отказался от подхода Blue Waters.[58][59]

Архитектурные эксперименты продолжаются по ряду направлений, например. то Циклоп64 Система использует подход «суперкомпьютер на кристалле» в направлении от использования массивных распределенных процессоров.[60][61] Каждый 64-битный чип Cyclops64 содержит 80 процессоров, а вся система использует глобально адресный архитектура памяти.[62] Процессоры соединены переключающим переключателем без внутренней блокировки и взаимодействуют друг с другом через глобальную перемежаемую память. Здесь нет кеш данных в архитектуре, но половина каждого SRAM bank можно использовать как блокнотную память.[62] Хотя этот тип архитектуры допускает неструктурированный параллелизм в динамически несмежной системе памяти, он также создает проблемы в эффективном отображении параллельных алгоритмов в многоядерный система.[61]

Смотрите также

Рекомендации

  1. ^ Сан-Цзе Чен; Гуан-Хуэй Линь; Пао-Анн Сюн; Ю-Хен Ху (9 февраля 2009 г.). Совместное проектирование аппаратного обеспечения мультимедийной социальной платформы. Springer. С. 70–72. ISBN  978-1-4020-9622-8. Получено 15 июн 2012.
  2. ^ а б c d е Хоффман, Аллан Р. (1989). Суперкомпьютеры: направления в технологиях и приложениях. Вашингтон, округ Колумбия: National Academy Press. С. 35–47. ISBN  978-0-309-04088-4.
  3. ^ а б c d Хилл, Марк Д .; Джуппи, Норман П.; Сохи, Гуриндар (2000). Чтения по компьютерной архитектуре. Сан-Франциско: Морган Кауфманн. С. 40–49. ISBN  978-1-55860-539-8.
  4. ^ а б c d е ж грамм час я Ян, Сюэ-Цзюнь; Ляо, Сян-Кэ; Лу, Кай; Ху Цин-Фэн; Сун, Цзюнь-Цян; Су, Джин-Шу (2011). «Суперкомпьютер TianHe-1A: его аппаратное и программное обеспечение». Журнал компьютерных наук и технологий. 26 (3): 344–351. Дои:10.1007 / s02011-011-1137-8.
  5. ^ а б Мюррей, Чарльз Дж. (1997). Супермены: история Сеймура Крея и технических волшебников, создавших суперкомпьютер. Нью-Йорк: Джон Вили. стр.133–135. ISBN  978-0-471-04885-5.
  6. ^ а б c d е Бисвас, под редакцией Рупака (2010). Параллельная вычислительная гидродинамика: последние достижения и будущие направления: доклады 21-й Международной конференции по параллельной вычислительной гидродинамике. Ланкастер, Пенсильвания: публикации DEStech. п. 401. ISBN  978-1-60595-022-8.CS1 maint: дополнительный текст: список авторов (связь)
  7. ^ а б c Юнге Хуан, изд. (2008). Достижения исследований в области суперкомпьютеров. Нью-Йорк: Nova Science Publishers. С. 313–314. ISBN  978-1-60456-186-9.
  8. ^ а б Тохи, М. О .; Hossain, M. A .; Шахид, М. Х. (2003). Параллельные вычисления для обработки сигналов и управления в реальном времени. Лондон [u.a.]: Springer. С. 201–202. ISBN  978-1-85233-599-1.
  9. ^ а б Вейди С. Сундерам, изд. (2005). Вычислительная наука - ICCS 2005. 5-я международная конференция, Атланта, Джорджия, США, 22-25 мая 2005 г .: материалы (1-е изд.). Берлин: Springer. С. 60–67. ISBN  978-3-540-26043-1.
  10. ^ а б c Продан, Раду; Томас Фарингер (2007). Управление экспериментами по грид-вычислениям, интеграция инструментов и научные рабочие процессы. Берлин: Springer. С. 1–4. ISBN  978-3-540-69261-4.
  11. ^ а б Найт, Уилл (27 июня 2007 г.). «IBM создает самый мощный компьютер в мире». Новый ученый.
  12. ^ а б Adiga, N. R .; Блюмрих, М. А .; Chen, D .; Coteus, P .; Gara, A .; Giampapa, M.E .; Heidelberger, P .; Singh, S .; Steinmacher-Burow, B.D .; Takken, T .; Tsao, M .; Вранас, П. (март 2005 г.). «Сеть межсоединений тора Blue Gene / L» (PDF). Журнал исследований и разработок IBM. 49 (2.3): 265–276. Дои:10.1147 / ряд.492.0265. Архивировано из оригинал (PDF) на 2011-08-15.CS1 maint: несколько имен: список авторов (связь)
  13. ^ Варадараджан, С. (14 марта 2005 г.). System X создает суперкомпьютер Virginia Tech. Компьютерные коммуникации и сети, 2004. ICCCN 2004. Труды. 13-я Международная конференция по. п. 1. Дои:10.1109 / ICCCN.2004.1401570. ISBN  978-0-7803-8814-7. ISSN  1095-2055.
  14. ^ а б Прикетт Морган, Тимоти (22 ноября 2010 г.). "IBM обнаруживает 20 петафлопс BlueGene / Q super". Реестр.
  15. ^ "Суперкомпьютер IBM с водяным охлаждением запускается в ETH Zurich". HPCwire. Цюрих. 2 июля 2010 г. Архивировано с оригинал 13 августа 2012 г.
  16. ^ ЛаМоника, Мартин (10 мая 2010 г.). "Суперкомпьютер IBM с жидкостным охлаждением нагревает здание". Зеленые технологии. Cnet.
  17. ^ Хендерсон, Гарри (2008). «Архитектура суперкомпьютера». Энциклопедия компьютерных наук и технологий. п. 217. ISBN  978-0-8160-6382-6.
  18. ^ Прикетт Морган, Тимоти (31 мая 2010 г.). «500 лучших суперов - расцвет графических процессоров». Реестр.
  19. ^ Райнер Келлер; Дэвид Крамер; Ян-Филипп Вайс (1 декабря 2010 г.). Столкнувшись с проблемой многоядерности: аспекты новых парадигм и технологий в параллельных вычислениях. Springer. С. 118–121. ISBN  978-3-642-16232-9. Получено 15 июн 2012.
  20. ^ Поэтер, Дэймон (11 октября 2011 г.). «Суперкомпьютер Cray Titan для ORNL может стать самым быстрым в мире». Журнал ПК.
  21. ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar ORNL в титан мощностью 20 петафлоп». Провод HPC.
  22. ^ Прикетт Морган, Тимоти (11 октября 2011 г.). «Oak Ridge меняет позиции Jaguar с центральных процессоров на графические процессоры».
  23. ^ Хай-Сян Линь; Майкл Александр; Марти Форселл, ред. (2010). Семинары по параллельной обработке Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Делфт, Нидерланды, 25-28 августа 2009 г .; мастерские (Online-Ausg. Ed.). Берлин: Springer. п. 345. ISBN  978-3-642-14121-8.
  24. ^ Райнер Думке; Рене Браунгартен; Гюнтер Бюрен (3 декабря 2008 г.). Программный процесс и измерение продукта: международные конференции, IWSM 2008, MetriKon 2008 и Mensura 2008, Мюнхен, Германия, 18-19 ноября 2008 г .: Материалы. Springer. С. 144–117. ISBN  978-3-540-89402-5. Получено 15 июн 2012.
  25. ^ Фриш, Майкл Дж. (Декабрь 1972 г.). «Замечания по алгоритму 352 [S22], алгоритму 385 [S13], алгоритму 392 [D3]». Коммуникации ACM. 15 (12): 1074. Дои:10.1145/361598.361914.
  26. ^ Эль-Ревини, Хешам; Мостафа Абд-эль-Барр (2005). Расширенная компьютерная архитектура и параллельная обработка. Хобокен, Нью-Джерси: Wiley-Interscience. С. 77–80. ISBN  978-0-471-46740-3.
  27. ^ Дж. Дж. Донгарра; Л. Грандинетти; Дж. Ковалик; G.R. Жубер (13 сентября 1995 г.). Высокопроизводительные вычисления: технологии, методы и приложения. Эльзевир. С. 123–125. ISBN  978-0-444-82163-8. Получено 15 июн 2012.
  28. ^ Грег Астфальк (1996). Приложения на компьютерах с продвинутой архитектурой. СИАМ. С. 61–64. ISBN  978-0-89871-368-8. Получено 15 июн 2012.
  29. ^ Елица Протич; Мило Томашевич; Мило Томашевич; Велько Милутинович (1998). Распределенная разделяемая память: концепции и системы. IEEE Computer Society Press. стр. ix – x. ISBN  978-0-8186-7737-3. Получено 15 июн 2012.
  30. ^ а б c Томоя Энокидо; Леонард Баролли; Макото Такидзава, ред. (2007). Сетевые информационные системы: первая международная конференция, NBiS 2007, Регенсбург, Германия, 3-7 сентября 2007 г .: материалы. Берлин: Springer. п. 375. ISBN  978-3-540-74572-3.
  31. ^ Список TOP500 Чтобы просмотреть все кластеры в списке TOP500, выберите «кластер» в качестве архитектуры из «меню подсписка» на сайте TOP500.
  32. ^ а б Yokokawa, M .; Сёдзи, Фумиёси; Уно, Ацуя; Курокава, Мотоёси; Ватанабэ, Тадаши (22 августа 2011 г.). Компьютер K: японский проект по разработке суперкомпьютеров нового поколения. Маломощная электроника и дизайн (ISLPED) 2011 Международный симпозиум по. С. 371–372. Дои:10.1109 / ISLPED.2011.5993668. ISBN  978-1-61284-658-3.
  33. ^ Кондон, Дж. и К. Томпсон, "Belle Chess Hardware", In Успехи в компьютерных шахматах 3 (под редакцией М. Р. Б. Кларка), Pergamon Press, 1982.
  34. ^ Сюй, Фэн-сюн (2002). За Deep Blue: создание компьютера, победившего чемпиона мира по шахматам. Princeton University Press. ISBN  978-0-691-09065-8.CS1 maint: ref = harv (связь)
  35. ^ Доннингер, Чрилли; Ульф Лоренц (2004). Гидра шахматного монстра. Конспект лекций по информатике. 3203. С. 927–932. Дои:10.1007/978-3-540-30117-2_101. ISBN  978-3-540-22989-6.
  36. ^ Макино, Дзюнъитиро; Макото Тайцзи (1998). Научное моделирование на специальных компьютерах: системы GRAPE. Чичестер [u.a.]: Уайли. ISBN  978-0-471-96946-4.
  37. ^ Пресс-релиз RIKEN, Завершение разработки компьютерной системы мощностью в один петафлопс для моделирования молекулярной динамики. В архиве 2012-12-02 в Wayback Machine
  38. ^ Фонд электронных рубежей (1998). Взлом DES - Секреты исследований в области шифрования, политики прослушивания телефонных разговоров и дизайна микросхем. Oreilly & Associates Inc. ISBN  978-1-56592-520-5.
  39. ^ а б Вега, Франсиско Фернандес де Вега (2010). Эрик Канту-Пас (ред.). Параллельный и распределенный вычислительный интеллект (Online-Ausg. Ed.). Берлин: Springer-Verlag. С. 65–68. ISBN  978-3-642-10674-3.
  40. ^ Статистика BOIN, 2011 г. В архиве 2010-09-19 на Wayback Machine
  41. ^ Гуан Р. Гао, изд. (2010). Языки и компиляторы для параллельных вычислений: 22-й международный семинар, LCPC 2009, Ньюарк, Делавэр, США, 8-10 октября 2009 г., отредактированные отдельные статьи (1-е изд.). Берлин: Springer. С. 10–11. ISBN  978-3-642-13373-2.
  42. ^ Марио Р. Гуаррачино, изд. (2011-06-24). Euro-par 2010, Семинары параллельной обработки Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Италия, 31 августа - 3 сентября 2010 г.. Берлин [u.a.]: Springer-Verlag New York Inc., стр. 274–277. ISBN  978-3-642-21877-4.
  43. ^ а б c Кравцов, Валентин; Дэвид Кармели; Вернер Дубицкий; Ариэль Орда; Ассаф Шустер; Бенни Йошпа (2007). «Квазиоппортунистические суперкомпьютеры в сетях». Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям: 233–244.
  44. ^ Мариан Бубак, изд. (2008). Вычислительная наука - ICCS 2008: 8-я международная конференция, Краков, Польша, 23-25 ​​июня 2008 г .; судебное разбирательство (Online-Ausg. Ed.). Берлин: Springer. С. 112–113. ISBN  978-3-540-69383-3.
  45. ^ Габриэль Аллен, изд. (2009). Вычислительные науки - ICCS 2009: 9-я международная конференция, Батон-Руж, Луизиана, США, 25-27 мая 2009 г .; судебное разбирательство. Берлин: Springer. С. 387–388. ISBN  978-3-642-01969-2.
  46. ^ Кунья, Хосе К. (2005). Euro-Par 2005 Параллельная обработка. [Нью-Йорк]: Springer-Verlag Berlin / Heidelberg. С. 560–567. ISBN  978-3-540-28700-1.
  47. ^ «IBM утроила производительность самого быстрого и самого энергоэффективного суперкомпьютера в мире». 2007-06-27. Получено 2011-12-24.
  48. ^ «Список Green500». Архивировано из оригинал на 2016-08-26. Получено 2020-02-13.
  49. ^ Список TOP500 В архиве 2012-01-20 на Wayback Machine
  50. ^ Такуми Маруяма (2009). SPARC64 (TM) VIIIfx: восьмиядерный процессор Fujitsu нового поколения для вычислений в масштабе PETA (PDF). Труды Hot Chips 21. Компьютерное общество IEEE.
  51. ^ "Передовой институт вычислительных наук RIKEN" (PDF). RIKEN. Архивировано из оригинал (PDF) 27 июля 2011 г.. Получено 20 июн 2011.
  52. ^ Fujitsu представляет суперкомпьютер Post-KHPC Wire 7 ноября 2011 г.
  53. ^ «MSN | Outlook, Office, Skype, Bing, последние новости и последние видео». Архивировано из оригинал на 2010-10-07.
  54. ^ "Китай ..." 28 октября 2010 г.
  55. ^ "Top100 ..." 28 октября 2010 г.
  56. ^ Тяньхэ-1А
  57. ^ Тибодо, Патрик (4 ноября 2010 г.). «США заявляют, что Китай строит« полностью исконный »суперкомпьютер». Computerworld. Архивировано из оригинал 11 октября 2012 г.. Получено 5 февраля 2012.
  58. ^ а б Реестр: IBM срывает цепь на суперкомпьютере "Голубые воды"
  59. ^ а б Государственный деятель Компьютерный бизнес IBM на базе Unix переживает бум
  60. ^ Ниу, Янвэй; Цзян Ху; Кеннет Барнер; Гуан Р. Гао (2005). Моделирование производительности и оптимизация доступа к памяти на архитектуре сотового компьютера cyclops64. Proceeding NPC'05 Proceedings of the 2005 IFIP International Conference on Network and Parallel Computing. Конспект лекций по информатике. 3779. С. 132–143. Дои:10.1007/11577188_18. ISBN  978-3-540-29810-6.
  61. ^ а б Тан, Гуанмин; Sreedhar, Vugranam C .; Гао, Гуан Р. (13 ноября 2009 г.). «Анализ и результаты производительности централизации вычислительной среды на IBM Cyclops64». Журнал суперкомпьютеров. 56 (1): 1–24. Дои:10.1007 / s11227-009-0339-9.
  62. ^ а б Хай Джин; Дэниел А. Рид; Вэньбинь Цзян (2005). Сети и параллельные вычисления: Международная конференция IFIP, NPC 2005, Пекин, Китай, 30 ноября - 3 декабря 2005 г .; Труды. Birkhäuser. С. 132–133. ISBN  978-3-540-29810-6. Получено 15 июн 2012.