Кастомная HPC-система для сложных CFD-моделей | HYPERPC | ПромоСтраницы
Добавить в корзинуПозвонить
Добавить в корзинуПозвонить
Кастомная HPC-система для сложных CFD-моделей
Расчёт, который шёл трое суток, завершился за 4 часа: как мы собрали HPC-монстра за 10 дней

Представьте: инженеры сдают проект. Модель готова, сетка построена, граничные условия выставлены. Они запускают расчёт — и идут домой. Потом ещё раз домой. И ещё. Потому что старое железо жуёт задачу трое суток, а любая ошибка в постановке — и всё по новой.

Это не страшилка. Это был реальный рабочий процесс одного российского инжинирингового центра, который занимается вычислительной гидрогазодинамикой — CFD-расчётами. Пока конкуренты итерируют по несколько раз в день, они ждали.

Они позвонили нам.

Задача, от которой отказались «большие бренды»

Техзадание звучало примерно так: нужен сервер, который будет считать сложные CFD-модели быстро. Очень быстро. И нужен он через 10 рабочих дней — не через квартал согласований, не через два месяца логистики из-за рубежа.

Крупные вендоры на этом месте начинали рассказывать про «процедуры закупки» и «минимальные сроки поставки». Мы начали проектировать.

CFD — это не «просто тяжёлые вычисления». Это специфическая нагрузка: параллельная до мозга костей, требующая огромных объёмов оперативной памяти и безумной пропускной способности к ней, с интенсивным чтением и записью временных файлов на каждом шаге итерации. Коробочный сервер здесь — как грузовик на гоночной трассе: формально едет, но не туда и не так.

Нужна была кастомная архитектура под задачу.

Анатомия скорости: что внутри HYPERPC AMPERE

Мы взяли платформу HYPERPC FORCE в формфакторе 4U и собрали вокруг неё систему, где каждый компонент выбран с одной целью — максимальная скорость параллельных вычислений.

256 ядер, которые не простаивают ни секунды

Кастомная HPC-система для сложных CFD-моделей
Кастомная HPC-система для сложных CFD-моделей

Два процессора AMD EPYC 9754 — это 256 физических ядер и 512 потоков в одном сервере. Газодинамика параллелится идеально: чем больше ядер, тем мельче можно нарезать расчётную сетку и раздать каждому потоку свой кусок. На 256 ядрах задачи, которые раньше занимали трое суток, превращаются в несколько часов.

Но ядра бесполезны, если им нечем заняться. Вот где начинается самое интересное.

1,5 ТБ памяти без единого «бутылочного горлышка»

Кастомная HPC-система для сложных CFD-моделей
Кастомная HPC-система для сложных CFD-моделей

Мы установили 24 модуля DDR5-4800 по 64 ГБ — итого 1,5 терабайта оперативной памяти. Но дело не только в объёме.

Каждый процессор EPYC 9754 имеет 12 каналов памяти. Мы задействовали все 24 канала обоих CPU одновременно. Это означает, что 256 ядер получают данные максимально широким потоком — без очередей, без ожидания, без тактов простоя. Тяжелейшие mesh-сетки загружаются в RAM целиком и живут там всё время расчёта.

Когда данные не нужно постоянно гонять между диском и памятью — скорость взлетает кратно.

Трёхуровневое хранилище: каждый диск на своём месте

CFD-расчёт генерирует горы временных файлов на каждой итерации. Мы разделили хранилище по ролям:

  • NVMe SSD 3,84 ТБ — scratch-диск для временных файлов солвера. Максимальные IOPS, минимальная латентность. Пока идёт расчёт, солвер пишет и читает сюда тысячи раз в секунду.
  • 2 × SATA SSD в RAID 1 — надёжное хранилище для исходных моделей и финальных результатов. Зеркалирование защищает от потери данных при отказе диска.

Ни один уровень не тормозит другой. Ни один не является узким местом.

Питание: 12 000 Вт с резервированием

Четыре блока питания по 3000 Вт в резервированной конфигурации. Отказ одного БП — система даже не моргнёт. Для производственного HPC-комплекса, который должен работать без остановок, это не опция, а обязательное условие.

Результат, который говорит сам за себя

Расчёты, которые занимали несколько дней, теперь завершаются за несколько часов.

Это не маркетинговая фраза. Это разница между «запустил и пошёл домой» и «запустил, попил кофе, посмотрел результат, скорректировал модель, запустил снова». Это другая скорость инженерной итерации. Другая скорость разработки. Другой темп работы всего R&D-подразделения.

И всё это — за 10 рабочих дней с момента звонка до момента, когда комплекс встал в стойку и начал считать.

Почему это важно именно сейчас

Российская инженерная школа сильна. CFD, прочностные расчёты, тепловые симуляции — компетенции есть. Не хватало инструмента, который не уступает западным аналогам, собирается под конкретную задачу и поставляется в реальные сроки.

HYPERPC AMPERE — это ответ на этот запрос. Не адаптированный зарубежный продукт, не «примерно подходящий» каталожный сервер. Кастомная HPC-система, спроектированная под CFD с нуля, произведённая и протестированная в России.

💬 Свяжитесь с нами:

📱Telegram → t.me

📱WhatsApp → wa.me

📱ВКонтакте → vk.com

📱MAX → max.ru

📧Почта server@hyperpc.ru

Если ваши расчёты идут дольше, чем должны — вероятно, проблема не в модели. Проблема в железе. Мы проектируем HPC-решения под конкретные задачи и знаем, как сделать так, чтобы ваши инженеры итерировали быстро.