Общий глоссарий - единый словарь терминов
AI (Artificial Intelligence) / ML (Machine Learning) — искусственный интеллект и машинное обучение; технологии, позволяющие компьютерам обучаться и принимать решения на основе данных.
ASIC (Application-Specific Integrated Circuit) — специализированная интегральная схема, спроектированная для выполнения строго определенной функции, что позволяет достичь максимальной эффективности в рамках этой задачи.
CAPEX (Capital Expenditure) — капитальные затраты; единовременные инвестиции в приобретение или создание основных фондов (оборудование, инфраструктура).
D2C-охлаждение (Direct-to-Chip) - прямое жидкостное охлаждение, при котором охлаждающая жидкость подается непосредственно к холодным пластинам, установленным на самые горячие компоненты (GPU, CPU).
DCIM (Data Center Infrastructure Management) - система управления инфраструктурой ЦОД, объединяющая все инженерные подсистемы и предоставляющая аналитику в реальном времени.
Digital Twin (цифровой двойник) - виртуальная модель инженерной системы, используемая для мониторинга и прогнозирования физических процессов.
ECN (Explicit Congestion Notification) — механизм уведомления об угрозе перегрузки без потери пакетов.
Fat-Tree (Толстое дерево) — сетевая топология, в которой пропускная способность каналов увеличивается по мере приближения к корню системы, устраняя узкие места.
GPU (Graphics Processing Unit) — графический процессор, изначально созданный для рендеринга графики, но ставший ключевым вычислительным элементом для обучения AI благодаря своей массово-параллельной архитектуре.
Heat Reuse (Рекуперация тепла) — использование избыточного тепла, отведенного от IT-оборудования ЦОД, для отопления зданий или технологических нужд.
OPEX (Operational Expenditure) — операционные затраты; текущие расходы на поддержание и эксплуатацию инфраструктуры (электроэнергия, аренда, зарплаты, техобслуживание).
Overhead-модель - архитектурный подход к проектированию ЦОД, при котором все инженерные системы (электропитание, охлаждение, сети) размещаются над стойками, формируя целевые зоны высокой плотности.
PFC (Priority Flow Control) — механизм Ethernet для предотвращения потерь пакетов.
Prefabricated Modular Data Centers (PFM) - предварительно изготовленные модульные дата-центры, ключевые компоненты которых производятся на заводе и собираются на площадке, что значительно ускоряет процесс развертывания.
PUE (Power Usage Effectiveness) - показатель эффективности использования энергии в дата-центре; отношение общей энергии, потребленной ЦОД, к энергии, потребленной непосредственно IT-оборудованием.
RDMA (Remote Direct Memory Access) — технология, позволяющая напрямую обмениваться данными из памяти, минуя CPU и OS.
RoCE (RDMA over Converged Ethernet) — технология RDMA, работающая поверх Ethernet.
Spine-Leaf — практическая реализация топологии Fat-Tree.
TCO (Total Cost of Ownership) — общая стоимость владения; методология расчета всех затрат на протяжении всего жизненного цикла IT-актива, включая закупку, эксплуатацию, обслуживание и утилизацию.
TPU (Tensor Processing Unit) — специализированный процессор (ASIC) от Google, спроектированный исключительно для ускорения операций машинного обучения, в первую очередь на основе тензорной алгебры.
Блокирующая сеть — сетевая архитектура, в которой установка новых соединений может быть невозможна из-за занятости ресурсов существующими потоками.
Высоковольтные системы электропитания - системы питания ЦОД, использующие повышенное напряжение (575В AC / 400В DC) для снижения потерь и увеличения эффективности при высоких плотностях мощности.
Диэлектрическая жидкость - специальная жидкость, не проводящая электрический ток, используемая в иммерсионных системах охлаждения.
Задержка (Latency) — время, необходимое для выполнения одной операции или получения ответа на запрос. Критичный параметр для инференса AI.
Иммерсионное охлаждение - технология охлаждения, при которой все серверное оборудование полностью погружается в диэлектрическую жидкость для максимально эффективного отвода тепла.
Инференс (Inference) — процесс использования обученной модели AI для выполнения практических задач (классификация, прогнозирование, генерация текста).
Модульность - принцип проектирования инфраструктуры, предполагающий создание стандартизированных, повторяемых блоков (модулей), которые могут легко масштабироваться и интегрироваться в общую систему.
Неблокирующая сеть — архитектура, гарантирующая возможность установки нового соединения без нарушения существующих.
Обучение (Training) — процесс «создания» модели AI путем обработки больших наборов данных и настройки миллионов/миллиардов параметров.
Плотность стойки — показатель мощности (в кВт), потребляемой оборудованием в одной серверной стойке. Классическая плотность — 5-15 кВт, для AI — 50-100+ кВт.
Пропускная способность (Throughput) — количество задач или операций, которые система может выполнить за единицу времени. Критичный параметр для обучения AI.
Тензорное ядро — специализированный блок в современных GPU, предназначенный для высокоскоростного выполнения матричных операций (тензорных операций) с пониженной точностью, что критически важно для ускорения глубокого обучения.
Тепловой throttling - автоматическое снижение тактовой частоты процессора или GPU для предотвращения перегрева, приводящее к падению производительности.
Чиплеты — модульный подход к проектированию процессоров, при котором процессор собирается из нескольких небольших независимых кристаллов (чиплетов), соединенных высокоскоростными интерфейсами, что позволяет повысить выход годной продукции и комбинировать различные технологии в одном изделии.
