Intel iPSC - Intel iPSC

В Intel Персональный суперкомпьютер (Intel iPSC) была линейкой продуктов параллельные компьютеры в 1980-х и 1990-х. iPSC / 1 был заменен Intel iPSC / 2, а затем Intel iPSC / 860.

Четырехмерный гиперкуб топология

ИПСК / 1

В 1984 г. Джастин Раттнер стал менеджером группы Intel Scientific Computers в Бивертон, Орегон. Он нанял команду, в которую входил математик Клив Молер.[1]ИПСК использовал гиперкуб соединений между процессорами, внутренне вдохновленных Космический куб Калифорнийского технологического института Исследовательский проект, поэтому он был сконфигурирован с нумерацией узлов в степени двойки, которые соответствуют углам гиперкубов возрастающей размерности.[2]

Intel iPSC-1 (1985) на Музей истории компьютеров. (Смотрите также другое фото )

Intel анонсировала iPSC / 1 в 1985 году с 32-128 узлами, подключенными к Ethernet в гиперкуб. Системой управлял персональный компьютер из ПК / AT эра бега Xenix, "менеджер куба".[3] Каждый узел имел 80286 CPU с 80287 математический сопроцессор, 512К ОЗУ и восемь портов Ethernet (семь для межсоединения гиперкуба и один для связи с менеджером куба).[1]

Интерфейс передачи сообщений под названием NX, который был разработан Полом Пирсом, развивался на протяжении всей жизни линейки iPSC.[4]Поскольку только менеджер куба имел подключение к внешнему миру, разработка и отладка приложений были затруднены.[5]

Базовыми моделями были iPSC / d5 (пятимерный гиперкуб с 32 узлами), iPSC / d6 (шесть измерений с 64 узлами) и iPSC / d7 (семь измерений со 128 узлами). В каждом шкафу было 32 узла, а цена модели iPSC / d7 с четырьмя шкафами составляла около полумиллиона долларов.[1]Дополнительная память (iPSC-MX) и векторный процессор (iPSC-VX) также были доступны в трех размерах. Также был доступен четырехмерный гиперкуб (iPSC / d4) с 16 узлами.[6]

iPSC / 1 был назван первым параллельным компьютером, построенным на коммерческая готовая продукция части.[7] Это позволило ему выйти на рынок примерно в то же время, что и его конкурент из nCUBE Несмотря на то, что проект nCUBE стартовал раньше. Размер каждого корпуса iPSC (в целом) составлял 127 см x 41 см x 43 см. Общая производительность компьютера оценивалась в 2 млн.ФЛОПЫ Ширина памяти была 16 бит.

Серийный номер 1 iPSC / 1 с 32 узлами был доставлен в Национальную лабораторию Ок-Ридж в 1985 году.[8][9]

ИПСК / 2

16-узловой параллельный компьютер Intel iPSC / 2. 22 августа 1995 г.

Intel iPSC / 2 был анонсирован в 1987 году. Он был доступен в нескольких конфигурациях, базовая установка представляла собой один шкаф с 16 Intel 80386 процессоры с частотой 16 МГц, каждый с 4 МБ памяти и 80387 сопроцессор на том же модуле.[10] Операционная система и пользовательские программы были загружены с управляющего ПК. Этим ПК обычно был Intel 301 со специальной интерфейсной картой. Вместо Ethernet для соединения гиперкубов использовался специальный модуль прямого подключения с восемью каналами со скоростью передачи данных около 2,8 Мбайт / с каждый.[10]Специальное оборудование для межсоединений приводит к более высокой стоимости, но сокращает задержки связи.[11]Программное обеспечение в процессоре управления называлось System Resource Manager вместо «cube manager». Система допускает расширение до 128 узлов, каждый с процессором и сопроцессором.[12]

Базовые модули можно обновить до версии SX (Scalar eXtension), добавив Weitek 1167 блок с плавающей запятой.[13]Другая конфигурация позволяла соединять каждый процессорный модуль с модулем VX (Vector eXtension) с выделенными модулями умножения и сложения. Обратной стороной этого является уменьшение вдвое количества доступных слотов интерфейсных плат. Наличие нескольких шкафов как части одной системы iPSC / 2 необходимо для работы максимального количества узлов и возможности их подключения к модулям VX.[14]

Узлы iPSC / 2 работали под собственной операционной системой NX / 2, в то время как хост-машина работала Система V или Xenix.[15]Узлы можно настроить, как iPSC / 1, без локального дискового хранилища, или использовать одно из подключений модуля Direct-Connect с кластерная файловая система (в то время называлась параллельной файловой системой).[14][16]Использование более быстрых узловых вычислительных элементов и системы межсоединений улучшило производительность приложений по сравнению с iPSC / 1.[17][18]Было построено около 140 систем iPSC / 2.[19]

iPSC / 860

Передняя панель 32-узлового параллельного компьютера Intel iPSC / 860 во время работы Тахионный механизм параллельной трассировки лучей. 22 августа 1995 г.

Intel анонсировала iPSC / 860 в 1990 году. IPSC / 860 состоял из до 128 обрабатывающих элементов, соединенных в гиперкуб, каждый элемент состоял из Intel i860 при 40–50 МГц или Intel 80386 микропроцессор.[20]Объем памяти на узел был увеличен до 8 МБ, и использовался аналогичный модуль прямого подключения, который ограничивал размер до 128 узлов.[21]

32-узловой параллельный компьютер Intel iPSC / 860 с открытой передней дверью, показывающий вычислительные узлы, узлы ввода-вывода и платы управления системой. 22 августа 1995 г.

Один клиент был Национальная лаборатория Окриджа.[20] Производительность iPSC / 860 анализировалась в нескольких исследовательских проектах.[22][23] IPSC / 860 также была исходной платформой для разработки Тахионный механизм параллельной трассировки лучей[24][25] который стал частью теста SPEC MPI 2007 и до сих пор широко используется.[26]Линия ИПСК была заменена исследовательским проектом под названием Touchstone Delta на Калифорнийский технологический институт который превратился в Intel Paragon.

использованная литература

  1. ^ а б c Клив Молер (28 октября 2013 г.). «Intel Hypercube, часть 1». Получено 4 ноября, 2013.
  2. ^ «Персональный суперкомпьютер». Музей истории компьютеров. Получено 4 ноября, 2013.
  3. ^ Пол Р. Пирс. «Intel iPSC / 1». Архивировано из оригинал 3 июня 2013 г.. Получено 4 ноября, 2013.
  4. ^ Пол Пирс (апрель 1994 г.). «Интерфейс передачи сообщений NX». Параллельные вычисления. 20 (4): 1285–1302. Дои:10.1016 / 0167-8191 (94) 90023-X.
  5. ^ Мартин Дж. Шедлбауэр (1989). «Система управления вводом-выводом для гиперкуба iPSC / 1». Материалы 17-й конференции ACM Annual Computer Science Conference: 400. Дои:10.1145/75427.1030220 (неактивно 09.09.2020).CS1 maint: использует параметр авторов (ссылка на сайт) CS1 maint: DOI неактивен по состоянию на сентябрь 2020 г. (ссылка на сайт)
  6. ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf[мертвая ссылка ]
  7. ^ Пол Р. Пирс. «Другие артефакты в коллекции». Архивировано из оригинал 3 июня 2013 г.. Получено 4 ноября, 2013.
  8. ^ Бетси А. Райли. "История ORNL HPCC (подробности графика)".
  9. ^ «История суперкомпьютеров».
  10. ^ а б «Intel iPSC / 2 (Рубик)». Компьютерный музей. Katholieke Universiteit Leuven. Получено 4 ноября, 2013.
  11. ^ Филип Дж. Хэтчер и Майкл Джей Куинн (1991). Параллельное программирование данных на MIMD-компьютерах. MIT Press. п. 7. ISBN  9780262082051.CS1 maint: использует параметр авторов (ссылка на сайт)
  12. ^ П. Пал Чауддхури (2008). Компьютерная организация и дизайн. PHI Learning. п. 826. ISBN  9788120335110.
  13. ^ Si. Пи Равикумар (1996). Параллельные методы проектирования компоновки СБИС. Издательская группа «Гринвуд». п. 183. ISBN  9780893918286.
  14. ^ а б Джек Донгарра и Иэн С. Дафф (1991). «Компьютеры с передовой архитектурой». В Ходжат Адели (ред.). Суперкомпьютерные вычисления в инженерном анализе. CRC Press. С. 51–54. ISBN  9780893918286.CS1 maint: использует параметр авторов (ссылка на сайт)
  15. ^ Пол Пирс (1988). «Операционная система NX / 2». Труды третьей конференции по параллельным компьютерам и приложениям Hypercube Архитектура, программное обеспечение, компьютерные системы и общие вопросы -. Труды Третьей конференции по параллельным компьютерам и приложениям Hypercube. C3П. 1. ACM. С. 384–390. Дои:10.1145/62297.62341. ISBN  978-0-89791-278-5. S2CID  45688408.
  16. ^ Джеймс К. Френч, Терренс В. Пратт и Мриганка Дас (май 1991 г.). «Измерение производительности системы параллельного ввода / вывода для Intel iPSC / 2 Hypercube». Материалы конференции ACM SIGMETRICS 1991 г. по измерению и моделированию компьютерных систем - SIGMETRICS '91. Материалы конференции ACM SIGMETRICS 1991 г. по измерению и моделированию компьютерных систем. ACM. С. 178–187. Дои:10.1145/107971.107990. ISBN  978-0-89791-392-8. S2CID  13899933.CS1 maint: использует параметр авторов (ссылка на сайт)
  17. ^ С. Арши, Р. Асбери, Дж. Бранденбург и Д. Скотт (1988). «Повышение производительности приложений на компьютере iPSC / 2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube Архитектура, программное обеспечение, компьютерные системы и общие вопросы -. Труды Третьей конференции по параллельным компьютерам и приложениям Hypercube. 1. ACM. С. 149–154. Дои:10.1145/62297.62316. ISBN  978-0-89791-278-5. S2CID  46148117.CS1 maint: использует параметр авторов (ссылка на сайт)
  18. ^ Люк Боманс и Дирк Руз (сентябрь 1989 г.). «Тестирование мультипроцессора гиперкуба iPSC / 2». Параллелизм: практика и опыт. 1 (1): 3–18. Дои:10.1002 / cpe.4330010103.CS1 maint: использует параметр авторов (ссылка на сайт)
  19. ^ Гилберт Калб; Роберт Моксли, ред. (1992). «Коммерчески доступные системы». Массовые параллельные, оптические и нейронные вычисления в США. IOS Press. С. 17–18. ISBN  9781611971507.
  20. ^ а б Сиддхартхан Рамачандрамурти (1996). «Руководство по iPSC / 860». Образовательный проект по вычислительным наукам в Окриджской национальной лаборатории. Получено 4 ноября, 2013.
  21. ^ В. Венкатакришнан (1991). «Параллельные неявные методы для аэродинамических приложений на неструктурированных сетках». У Дэвида Э. Киза; Ю. Саад; Дональд Г. Трухлар (ред.). Доменный параллелизм и методы декомпозиции задач в вычислительной науке и технике. СИАМ. п. 66. ISBN  9781611971507.
  22. ^ Рудольф Беррендорф и Юкка Хелин (май 1992 г.). «Оценка базовой производительности параллельного компьютера Intel iPSC / 860». Параллелизм: практика и опыт. 4 (3): 223–240. Дои:10.1002 / cpe.4330040303.CS1 maint: использует параметр авторов (ссылка на сайт)
  23. ^ Т. Х. Дуниган (декабрь 1991 г.). «Производительность гиперкубов Intel iPSC / 860 и Ncube 6400». Параллельные вычисления. 17 (10–11): 1285–1302. Дои:10.1016 / S0167-8191 (05) 80039-0.
  24. ^ Stone, J .; Андервуд, М. (1996-07-01). Визуализация численного моделирования потоков с использованием MPI. Конференция разработчиков MPI, 1996. Труды, вторая. С. 138–141. CiteSeerX  10.1.1.27.4822. Дои:10.1109 / MPIDC.1996.534105. ISBN  978-0-8186-7533-1. S2CID  16846313.
  25. ^ Стоун, Джон Э. (январь 1998 г.). «Эффективная библиотека для параллельной трассировки лучей и анимации». Магистерские диссертации. РС. докторская диссертация, факультет компьютерных наук, Университет Миссури-Ролла, апрель 1998 г.
  26. ^ Stone, J.E .; Isralewitz, B .; Шультен, К. (1 августа 2013 г.). Ранний опыт масштабирования задач молекулярной визуализации и анализа VMD в голубых водах. Семинар по экстремальному масштабированию (XSW), 2013 г.. С. 43–50. CiteSeerX  10.1.1.396.3545. Дои:10.1109 / XSW.2013.10. ISBN  978-1-4799-3691-5. S2CID  16329833.