AI відкритого програмного забезпечення: приєднуйтесь до Canonical на AI4 2025
Дата: 11 – 13 серпня 2025
Стенд: 353
Ви знаєте стару приказку: що відбувається у Вегасі… трансформує вашу подорож у сфері штучного інтелекту за допомогою надійного відкритого програмного забезпечення. З 11 по 13 серпня Canonical знову буде на AI4 2025, щоб поділитися секретами побудови безпечної та масштабованої інфраструктури штучного інтелекту для прискорення кожного етапу вашого циклу машинного навчання – чи то створюєте ви суверенне AI-хмарне середовище, чи розгортаєте з гіпермасштаберами.
Ось що вас чекає на стенді 353.
Побудова AI на основі надійного відкритого програмного забезпечення
Canonical є видавцем Ubuntu, провідного дистрибутива Linux. За понад 20 років досвіду у підтримці відкритого програмного забезпечення, ми пропонуємо ту ж стабільність і підтримку, з якими ви знайомі з Ubuntu, для ваших операцій машинного навчання.
Наша MLOps-стек забезпечує всі рішення відкритого програмного забезпечення, які вам потрібні для оптимізації повного циклу машинного навчання. Ці інструменти тісно інтегровані, щоб забезпечити плавну подорож MLOps від експериментів до виробництва.
- Стек даних для початківців: DSS є простим у розгортанні рішенням, яке може працювати на будь-якій робочій станції. Він дозволяє налаштувати ML-середовища на вашій AI-робочій станції за допомогою рішення «з коробки» для науки про дані.
- Cloud Native MLOps: Charmed Kubeflow – це наша повністю відкрита кінцева MLOps, що використовується для розробки та розгортання моделей у масштабах. Вона інтегрується з нашим портфоліо додатків даних і AI, включаючи MLFlow, Feast, Spark і OpenSearch. Наша платформа працює на будь-якому CNCF-сумісному Kubernetes, включаючи Canonical K8s, AKS, EKS і GKE.
- Ubuntu Core та Kserve для Edge AI: Пристрої на краю часто підтримують критично важливі додатки, тому важливо мати безпечну операційну систему для захисту всіх артефактів, незалежно від архітектури. Ми підтримуємо розгортання та масштабування моделей на краю завдяки нашій переносній технології упаковки додатків і підприємницькій підтримці KServe.
AI інфраструктура з надійним відкритим програмним забезпеченням
Цього року на AI4 ми також продемонструємо, як ви можете побудувати свою AI інфраструктуру з надійним відкритим програмним забезпеченням. Від суверенної хмари до публічної хмари, ми покажемо як використовувати безпечні блоки для побудови для будь-якого середовища.
- Любуйтеся своїм AI суверенним хмарним середовищем з повністю відкритими технологіями. Canonical дозволяє конфіденційні та ізольовані AI-розгортання з повним контролем над вашим стеком. Від інфраструктури до моделей, все працює на безпечно розроблених, сертифікованих компонентах – ніякої залежності від постачальників.
- Запускайте AI навантаження на будь-якій публічній хмарі, з постійно однаковим досвідом і контролем витрат. AI стек Canonical є хмарно-агностичним, оптимізованим для всіх основних постачальників. Розгорніть і масштабуйте з упевненістю – від розробки до виробництва – за допомогою одного і того ж стека скрізь.
- З упевненістю розгортаєте та підтримуйте AI/ML навантаження з посиленими контейнерами. Ми будуємо, підписуємо і підтримуємо безпечно розроблені контейнери для AI/ML – оптимізовані для продуктивності та відповідності. Наша довгострокова підтримка та патчі CVE забезпечують вашій інфраструктурі захист та актуальність.
Якщо будь-які з цих тем вас цікавлять, запрошуємо вас на стенд 353, де наша команда з радістю розгляне їх детальніше та поглибиться у ваші виклики чи випадки використання.
Монархи в небі: побудова суверенних AI хмар з відкритими інструментами
Оскільки навантаження AI зростає, а регуляції посилюються, організації піддаються тиску щодо розгортання машинного навчання з повним контролем над даними, інфраструктурою та відповідністю. У цій доповіді Стефано Фіораванцо, менеджер продуктів AI в Canonical, поділиться, як побудувати суверенну AI хмару за допомогою платформи MLOps та інфраструктури Canonical.
Наприкінці сесії ви дізнаєтеся, як оркеструвати кінцеві ML конвеєри, інтегрувати безпечні контейнерні технології та автоматизувати операції в гібридних і мультишарових середовищах. Ми заглибимося в реальні стратегії досягнення суверенітету даних, уникнення залежності від постачальника та роботи з продукційним рівнем AI на великій шкалі за допомогою відкритого програмного забезпечення в основі.
Сесія запланована на понеділок, 11 серпня, о 15:10-15:30 на технічному тракті MLOps & Platforms.
Щоб продовжити досліджувати цю тему, ми проведемо демонстрації на нашому стенді 353, щоб дослідити, як досягти суверенітету даних у ваших додатках GenAI з RAG. Хуан Пабло Норена, наш інженер з AI, продемонструє, як побудувати ваші відкриті RAG додатки на інфраструктурі Ubuntu.
- Ефективне управління ресурсами GPU з Canonical K8s,
- Самостійна векторна база даних,
- Події потокового Kafka з джерел знань,
- Локальна інференція LLM на сервісах інференції Kubeflow.
Приєднуйтесь до нас на стенді 353
Ми з нетерпінням чекаємо зустрічі зі старими друзями та новими на цьому перехресті глобальної спільноти AI. Якщо ви відвідуєте AI4 2025 у Лас-Вегасі, США, з 11 по 13 серпня, обов’язково завітайте до стенду 353!
Чекаємо на вас у Лас-Вегасі. Бережіть себе під час подорожі!
Корпоративний AI, спрощений
AI не має бути складним. Прискорте інновації за допомогою кінцевого стека, який надає всі інструменти відкритого програмного забезпечення, необхідні для всього циклу AI/ML.