Расчёт, который шёл трое суток, завершился за 4 часа: как мы собрали HPC-монстра за 10 дней
Представьте: инженеры сдают проект. Модель готова, сетка построена, граничные условия выставлены. Они запускают расчёт — и идут домой. Потом ещё раз домой. И ещё. Потому что старое железо жуёт задачу трое суток, а любая ошибка в постановке — и всё по новой.
Это не страшилка. Это был реальный рабочий процесс одного российского инжинирингового центра, который занимается вычислительной гидрогазодинамикой — CFD-расчётами. Пока конкуренты итерируют по несколько раз в день, они ждали.
Они позвонили нам.
Задача, от которой отказались «большие бренды»
Техзадание звучало примерно так: нужен сервер, который будет считать сложные CFD-модели быстро. Очень быстро. И нужен он через 10 рабочих дней — не через квартал согласований, не через два месяца логистики из-за рубежа.
Крупные вендоры на этом месте начинали рассказывать про «процедуры закупки» и «минимальные сроки поставки». Мы начали проектировать.
CFD — это не «просто тяжёлые вычисления». Это специфическая нагрузка: параллельная до мозга костей, требующая огромных объёмов оперативной памяти и безумной пропускной способности к ней, с интенсивным чтением и записью временных файлов на каждом шаге итерации. Коробочный сервер здесь — как грузовик на гоночной трассе: формально едет, но не туда и не так.
Нужна была кастомная архитектура под задачу.
Анатомия скорости: что внутри HYPERPC AMPERE
Мы взяли платформу HYPERPC FORCE в формфакторе 4U и собрали вокруг неё систему, где каждый компонент выбран с одной целью — максимальная скорость параллельных вычислений.
256 ядер, которые не простаивают ни секунды
Два процессора AMD EPYC 9754 — это 256 физических ядер и 512 потоков в одном сервере. Газодинамика параллелится идеально: чем больше ядер, тем мельче можно нарезать расчётную сетку и раздать каждому потоку свой кусок. На 256 ядрах задачи, которые раньше занимали трое суток, превращаются в несколько часов.
Но ядра бесполезны, если им нечем заняться. Вот где начинается самое интересное.
1,5 ТБ памяти без единого «бутылочного горлышка»
Мы установили 24 модуля DDR5-4800 по 64 ГБ — итого 1,5 терабайта оперативной памяти. Но дело не только в объёме.
Каждый процессор EPYC 9754 имеет 12 каналов памяти. Мы задействовали все 24 канала обоих CPU одновременно. Это означает, что 256 ядер получают данные максимально широким потоком — без очередей, без ожидания, без тактов простоя. Тяжелейшие mesh-сетки загружаются в RAM целиком и живут там всё время расчёта.
Когда данные не нужно постоянно гонять между диском и памятью — скорость взлетает кратно.
Трёхуровневое хранилище: каждый диск на своём месте
CFD-расчёт генерирует горы временных файлов на каждой итерации. Мы разделили хранилище по ролям:
- NVMe SSD 3,84 ТБ — scratch-диск для временных файлов солвера. Максимальные IOPS, минимальная латентность. Пока идёт расчёт, солвер пишет и читает сюда тысячи раз в секунду.
- 2 × SATA SSD в RAID 1 — надёжное хранилище для исходных моделей и финальных результатов. Зеркалирование защищает от потери данных при отказе диска.
Ни один уровень не тормозит другой. Ни один не является узким местом.
Питание: 12 000 Вт с резервированием
Четыре блока питания по 3000 Вт в резервированной конфигурации. Отказ одного БП — система даже не моргнёт. Для производственного HPC-комплекса, который должен работать без остановок, это не опция, а обязательное условие.
Результат, который говорит сам за себя
Расчёты, которые занимали несколько дней, теперь завершаются за несколько часов.
Это не маркетинговая фраза. Это разница между «запустил и пошёл домой» и «запустил, попил кофе, посмотрел результат, скорректировал модель, запустил снова». Это другая скорость инженерной итерации. Другая скорость разработки. Другой темп работы всего R&D-подразделения.
И всё это — за 10 рабочих дней с момента звонка до момента, когда комплекс встал в стойку и начал считать.
Почему это важно именно сейчас
Российская инженерная школа сильна. CFD, прочностные расчёты, тепловые симуляции — компетенции есть. Не хватало инструмента, который не уступает западным аналогам, собирается под конкретную задачу и поставляется в реальные сроки.
HYPERPC AMPERE — это ответ на этот запрос. Не адаптированный зарубежный продукт, не «примерно подходящий» каталожный сервер. Кастомная HPC-система, спроектированная под CFD с нуля, произведённая и протестированная в России.
💬 Свяжитесь с нами:
📱Telegram → t.me
📱WhatsApp → wa.me
📱ВКонтакте → vk.com
📱MAX → max.ru
📧Почта → server@hyperpc.ru
Если ваши расчёты идут дольше, чем должны — вероятно, проблема не в модели. Проблема в железе. Мы проектируем HPC-решения под конкретные задачи и знаем, как сделать так, чтобы ваши инженеры итерировали быстро.