Перейти к основному содержанию

Общий глоссарий - единый словарь терминов

AI (Artificial Intelligence) / ML (Machine Learning) — искусственный интеллект и машинное обучение; технологии, позволяющие компьютерам обучаться и принимать решения на основе данных.

ASIC (Application-Specific Integrated Circuit) — специализированная интегральная схема, спроектированная для выполнения строго определенной функции, что позволяет достичь максимальной эффективности в рамках этой задачи.

CAPEX (Capital Expenditure) — капитальные затраты; единовременные инвестиции в приобретение или создание основных фондов (оборудование, инфраструктура).

D2C-охлаждение (Direct-to-Chip) - прямое жидкостное охлаждение, при котором охлаждающая жидкость подается непосредственно к холодным пластинам, установленным на самые горячие компоненты (GPU, CPU).

DCIM (Data Center Infrastructure Management) - система управления инфраструктурой ЦОД, объединяющая все инженерные подсистемы и предоставляющая аналитику в реальном времени.

Digital Twin (цифровой двойник) - виртуальная модель инженерной системы, используемая для мониторинга и прогнозирования физических процессов.

ECN (Explicit Congestion Notification) — механизм уведомления об угрозе перегрузки без потери пакетов.

Fat-Tree (Толстое дерево) — сетевая топология, в которой пропускная способность каналов увеличивается по мере приближения к корню системы, устраняя узкие места.

GPU (Graphics Processing Unit) — графический процессор, изначально созданный для рендеринга графики, но ставший ключевым вычислительным элементом для обучения AI благодаря своей массово-параллельной архитектуре.

Heat Reuse (Рекуперация тепла) — использование избыточного тепла, отведенного от IT-оборудования ЦОД, для отопления зданий или технологических нужд.

OPEX (Operational Expenditure) — операционные затраты; текущие расходы на поддержание и эксплуатацию инфраструктуры (электроэнергия, аренда, зарплаты, техобслуживание).

Overhead-модель - архитектурный подход к проектированию ЦОД, при котором все инженерные системы (электропитание, охлаждение, сети) размещаются над стойками, формируя целевые зоны высокой плотности.

PFC (Priority Flow Control) — механизм Ethernet для предотвращения потерь пакетов.

Prefabricated Modular Data Centers (PFM) - предварительно изготовленные модульные дата-центры, ключевые компоненты которых производятся на заводе и собираются на площадке, что значительно ускоряет процесс развертывания.

PUE (Power Usage Effectiveness) - показатель эффективности использования энергии в дата-центре; отношение общей энергии, потребленной ЦОД, к энергии, потребленной непосредственно IT-оборудованием.

RDMA (Remote Direct Memory Access) — технология, позволяющая напрямую обмениваться данными из памяти, минуя CPU и OS.

RoCE (RDMA over Converged Ethernet) — технология RDMA, работающая поверх Ethernet.

Spine-Leaf — практическая реализация топологии Fat-Tree.

TCO (Total Cost of Ownership) — общая стоимость владения; методология расчета всех затрат на протяжении всего жизненного цикла IT-актива, включая закупку, эксплуатацию, обслуживание и утилизацию.

TPU (Tensor Processing Unit) — специализированный процессор (ASIC) от Google, спроектированный исключительно для ускорения операций машинного обучения, в первую очередь на основе тензорной алгебры.

Блокирующая сеть — сетевая архитектура, в которой установка новых соединений может быть невозможна из-за занятости ресурсов существующими потоками.

Высоковольтные системы электропитания - системы питания ЦОД, использующие повышенное напряжение (575В AC / 400В DC) для снижения потерь и увеличения эффективности при высоких плотностях мощности.

Диэлектрическая жидкость - специальная жидкость, не проводящая электрический ток, используемая в иммерсионных системах охлаждения.

Задержка (Latency) — время, необходимое для выполнения одной операции или получения ответа на запрос. Критичный параметр для инференса AI.

Иммерсионное охлаждение - технология охлаждения, при которой все серверное оборудование полностью погружается в диэлектрическую жидкость для максимально эффективного отвода тепла.

Инференс (Inference) — процесс использования обученной модели AI для выполнения практических задач (классификация, прогнозирование, генерация текста).

Модульность - принцип проектирования инфраструктуры, предполагающий создание стандартизированных, повторяемых блоков (модулей), которые могут легко масштабироваться и интегрироваться в общую систему.

Неблокирующая сеть — архитектура, гарантирующая возможность установки нового соединения без нарушения существующих.

Обучение (Training) — процесс «создания» модели AI путем обработки больших наборов данных и настройки миллионов/миллиардов параметров.

Плотность стойки — показатель мощности (в кВт), потребляемой оборудованием в одной серверной стойке. Классическая плотность — 5-15 кВт, для AI — 50-100+ кВт.

Пропускная способность (Throughput) — количество задач или операций, которые система может выполнить за единицу времени. Критичный параметр для обучения AI.

Тензорное ядро — специализированный блок в современных GPU, предназначенный для высокоскоростного выполнения матричных операций (тензорных операций) с пониженной точностью, что критически важно для ускорения глубокого обучения.

Тепловой throttling - автоматическое снижение тактовой частоты процессора или GPU для предотвращения перегрева, приводящее к падению производительности.

Чиплеты — модульный подход к проектированию процессоров, при котором процессор собирается из нескольких небольших независимых кристаллов (чиплетов), соединенных высокоскоростными интерфейсами, что позволяет повысить выход годной продукции и комбинировать различные технологии в одном изделии.