Пожалуйста подождите...

Поставка комплектов вычислительных узлов для суперкомпьютера "Ломоносов-2"

Компания АЙТИЭНТИ в сотрудничестве с партнерами успешно осуществили поставку, монтаж и пуско-наладку комплектов вычислительных узлов для суперкомпьютера "Ломоносов-2". Важным фактом является то что суперкомпьютер Ломоносов-2 построен с использованием российских разработок.

Суперкомпьютер «Ломоносов-2» — самый мощный суперкомпьютер России и Восточной Европы пиковая производительность которого на данном этапе составляет 4,946 петафлопс — установлен в Московском государственном университете имени М.В. Ломоносова и создан с целью увеличения производительности суперкомпьютерного комплекса МГУ для поддержки исследований на ведущем мировом уровне в части проведения крупных и ресурсоемких расчетов, использующих свыше тысячи процессоров одновременно. На момент инсталляции, система попала на 22-е место 44 редакции списка мирового суперкомпьютерного рейтинга ТOP500.

Вычислитель

В основе нового суперкомпьютера МГУ — уникальные российские аппаратные разработки. Вычислительная часть системы построена на базе суперкомпьютерных платформ A-Class с высокой плотностью вычислений, которые позволяют размещать до 786 терафлопс процессорной мощности в одной стойке. A-Class — суперкомпьютер «уровня стойки», где все элементы тесно интегрированы внутри специально разработанного вычислительного шкафа. A-Class имеет жидкостную систему охлаждения, в которой теплоносителем выступает вода с высоким тепловым потенциалом. 192 таких стойки можно объединить в суперкомпьютер пиковой производительностью более 100 петафлопс.

В новом суперкомпьютере МГУ 1536 узлов на базе процессоров Xeon E5-2697v3 и ускорителей Tesla K40M, а также 160 узлов на базе процессоров Xeon Gold 6126 и ускорителей Tesla P100, с общим объёмом оперативной памяти более 80 ТБ. В системе две независимые управляющие сети стандарта Ethernet и две сети FDR InfiniBand. Одна из них используется для MPI-трафика и имеет современную топологию Flattened Butterfly, которая не только лучше масштабируется на системах большого размера, но и позволяет снизить количество используемых сетевых коммутаторов, сокращая стоимость сетевой инфраструктуры до 40% по сравнению с традиционными топологиями. Вторая сеть InfiniBand используется для доступа к данным и имеет стандартную топологию Fat Tree. Двухуровневая система хранения включает хранилище расчетных данных объемом 344 ТБ на базе параллельной файловой системы Lustre, а также одну полку Panasas ActiveStor 16 для более размещения домашних файловых систем пользователей.

Инженерная инфраструктура

Каждая стойка суперкомпьютера потребляет до 130кВт и охлаждается водой с температурой до + 44 °С, которая подводится в радиаторы, тесно прилегающие к вычислительным платам. Контур водяного охлаждения построен с применением бескапельных разъёмов. Помимо более высокой плотности вычислений на стойку и снижения уровня шума в машинном зале, охлаждение водой с такой температурой позволяет сократить количество потребляемого всем суперкомпьютерным комплексом электричества, а также круглый год применять режим так называемого «свободного охлаждения». Это позволяет снизить как капитальные вложения в инженерную инфраструктуру суперкомпьютерного центра, так и эксплуатационные затраты, т.к. вместо дорогостоящих и энергоемких холодильных машин используются сухие охладители (т.н. «драйкулеры»), потребляющие значительно меньше энергии.

Применение

Система позволяет реализовать масштабные исследовательские проекты в области медицины (например, моделирование молекулярных процессов в живой клетке), инженерных расчетов (среди них — сложнейшие проблемы вихревой аэродинамики и анализа процессов горения), а также астрофизики, материаловедения, энергетики и многих других областей.

Дата публикации:
25.12
2020
Товарные предложения