donation DRA: Важливий крок для екосистеми Kubernetes
Огляд на KubeCon 2026: Canonical вітає donation NVIDIA GPU DRA driver в CNCF
Протягом KubeCon Europe в Амстердамі, NVIDIA оголосила про donation GPU Dynamic Resource Allocation (DRA) Driver до Cloud Native Computing Foundation (CNCF). Це важливий крок для екосистеми Kubernetes та майбутнього інфраструктури AI.
Протягом багатьох років GPU стали центральними елементами для сучасного машинного навчання та обчислювальних навантажень високої продуктивності. Але інтеграція GPU в Kubernetes вимагала спеціалізованих інструментів та компонентів від постачальників. Donation DRA driver представляє собою зсув до глибшої стандартизації оркестрації GPU в хмарних середовищах. Завдяки впровадженню цієї технології в екосистему CNCF, NVIDIA сприяє розвитку прогресивних можливостей планування GPU разом з широкою спільнотою Kubernetes.
Цей вклад зміцнює Kubernetes як платформу для великомасштабних AI навантажень і забезпечує основу для гнучкішого програмованого управління ресурсами GPU. Щоб зрозуміти, чому це важливо, варто ознайомитися з більшою екосистемою NVIDIA GPU, яка підтримує AI навантаження в Kubernetes.
Екосистема NVIDIA GPU для Kubernetes
Станом на 2026 рік, стек NVIDIA GPU в Kubernetes організований у три основні шари: GPU Operator, Modern Resource Stack, побудований навколо DRA, та розширені можливості оркестрації, такі як Kubernetes AI (KAI) Scheduler. Разом ці компоненти перетворюють GPU з простих апаратних прискорювачів у повністю оркестровані інфраструктурні ресурси.
GPU Operator: автоматизація інфраструктури GPU
NVIDIA GPU Operator автоматизує управління життєвим циклом програмного забезпечення, необхідного для функціонування GPU в кластері Kubernetes. Замість того, щоб вимагати від адміністраторів ручного налаштування драйверів, середовищ виконання та моніторингових інструментів, оператор автоматично розгортає та управляє цими компонентами. Це забезпечує постійне, готове до виробництва середовище для навантажень GPU.
DRA driver: сучасна модель ресурсів для GPU
DRA driver представляє наступне покоління управління ресурсами GPU для Kubernetes. Історично Kubernetes розглядав GPU як прості цілісні ресурси. Наприклад, робоче навантаження запитувало б nvidia.com/gpu:1. Хоча це ефективно, ця модель не мала виразності, необхідної для сучасних AI навантажень.
DRA впроваджує багатшу модель, засновану на ResourceClaims, що дозволяє застосункам запитувати дуже специфічні апаратні можливості, а не просто кількість GPU. Цей рівень контролю є важливим для сучасних навантажень навчання, які часто покладаються на тісно пов’язане спілкування GPU.
KAI Scheduler: AI-орієнтоване планування
Ефективне виконання AI навантажень вимагає не лише виділення GPU. Це потребує рішень щодо планування, які розуміють, як поводяться AI задачі. KAI Scheduler додає шар інтелекту на сходинку вище Kubernetes планування, забезпечуючи більш просунуту координацію ресурсів.
Canonical Kubernetes: платформа для хмарної AI інфраструктури
Запуск сучасних AI навантажень вимагає більше, ніж просто GPU та планувальників. Це потребує платформи Kubernetes, яка є відносно безпечною, простою в експлуатації та здатною підтримувати великомасштабні навантаження з апаратним прискоренням. Canonical пропонує розподіл Kubernetes, призначений для забезпечення саме цього.
В результаті Canonical Kubernetes підтримує розгортання в найрізноманітніших середовищах – від малих кластерів, що використовуються для експериментів, до великих підприємницьких розгортань, що працюють у кількох регіонах. Платформа легко інтегрується з більшою стеком відкритої інфраструктури Canonical та має перевагу в надійності та безпеці Ubuntu.
Чому donation CNCF важливий
Donation DRA driver до CNCF представляє собою важливий крок для того, щоб зробити просунуту оркестрацію GPU важливим елементом екосистеми Kubernetes. Це прискорює впровадження моделей ресурсів, орієнтованих на Kubernetes, сприяє інноваціям на базі спільноти та зміцнює основу для великомасштабних AI навантажень.
Про Canonical
Canonical, видавець Ubuntu, надає безпеку, підтримку та послуги. Наша пропозиція охоплює критичні системи – від найменших пристроїв до найбільших хмар, від ядра до контейнерів, від баз даних до AI.
Більше інформації читайте на Canonical.




