The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Выпуск Cozystack 0.33, открытой PaaS-платформы на базе Kubernetes

17.07.2025 10:24

Доступен выпуск свободной PaaS-платформы Cozystack 0.33, построенной на базе Kubernetes. Проект нацелен на предоставление готовой платформы для хостинг-провайдеров и фреймворка для построения частных и публичных облаков. Платформа устанавливается напрямую на серверы и охватывает все аспекты подготовки инфраструктуры для предоставления управляемых сервисов. Cozystack позволяет запускать и предоставлять кластеры Kubernetes, базы данных и виртуальные машины. Код платформы доступен на GitHub и распространяется под лицензией Apache-2.0.

В качестве базового стека технологий используется Talos Linux и Flux CD. Образы с системой, ядром и необходимыми модулями формируются заранее, и обновляются атомарно, что позволяет обойтись без таких компонентов как dkms и пакетный менеджер, и гарантировать стабильную работу. Предоставляется простой метод установки в пустом дата-центре с помощью PXE и debian-подобного установщика talos-bootstrap. В рамках платформы можно по клику разворачивать Kafka, FerretDB, PostgreSQL, Cilium, Grafana, Victoria Metrics и другие сервисы.

Платформа включает свободную реализацию сетевой инфраструктуры (fabric) на базе Kube-OVN, и использует Cilium для организации сервисной сети, MetalLB для анонса сервисов наружу. Хранилище реализовано на LINSTOR, где предлагается использование ZFS в качестве базового слоя для хранилища и DRBD для репликации. Имеется преднастроенный стек мониторинга на базе VictoriaMetrics и Grafana. Для запуска виртуальных машин используется технология KubeVirt, которая позволяет запускать классические виртуальные машины прямо в контейнерах Kubernetes и уже имеет все необходимые интеграции с Cluster API для запуска управляемых Kubernetes-кластеров внутри "железного" Kubernetes-кластера.

За последние полтора месяца команда проекта выпустила новые версии 0.31, 0.32 и 0.33. Среди изменений в данных выпусках:

  • Унифицировано управление выделением ресурсов CPU и памяти. Добавлены единые переменные конфигурации cpu-allocation-ratio и memory-allocation-ratio для ограничения ресурсов CPU и потребления памяти в виртуальных машинах под управлением KubeVirt. Переменные применяются ко всем управляемым приложениям и квотам ресурсов tenant-ов. Предустановки также учитывают коэффициенты выделения ресурсов и ведут себя так же, как явные определения ресурсов. При обновлении с более ранних версий Cozystack конфигурация ресурсов в управляемых приложениях автоматически конвертируется в новый формат.
  • Добавлена функция резервного копирования PVC в tenant-ных Kubernetes-кластерах, позволяющая администраторам как всей платформы, так и отдельных tenant-ов, создавать резервные копии и восстанавливать данные запущенных в кластерах сервисов. Для резервного копирования задействован проект Velero, а сама система требует внешнего S3-совместимого хранилища.
  • Реализована поддержка использования общих NFS-хранилищ с новым опциональным системным модулем.
  • Добавлена возможность настройки доступных CPU-сокетов для виртуальных машин через параметр resources.cpu.sockets, что позволяет назначать виртуальным машинам конкретные сокеты.
  • Добавлена поддержка использования предзагруженных golden-образов для виртуальных машин, ускоряющая подготовку за счёт ссылок на существующие образы вместо загрузки по HTTP.
  • Реализована опция exposeMethod для Ingress-NGINX в tenant-ных кластерах, которая позволяет выбирать Proxied и LoadBalancer.
  • Улучшенная поддержка Java-приложений: параметры "heap" теперь рассчитываются на основе запросов и лимитов памяти.
  • Заменён стандартный менеджер пакетов — вместо Helm теперь используется новая утилита cozypkg (обёртка вокруг Helm и Flux для локальной разработки).
  • Добавлен синхронизатор HelmRelease для системных компонентов, обеспечивающий автоматический контроль ключевых изменений конфигурации для своевременного обновления системных приложений.
  • Добавлена поддержка registry mirror в tenant-ных Kubernetes-кластерах, настраивающего containerd для tenant-ных кластеров.
  • Реализована единая маркировка дочерних объектов приложений для мониторинга через WorkloadMonitors.
  • Добавлена опция cluster-domain для переопределения домена cozy.local.
  • Добавлены правила RBAC для проброса портов в KubeVirt (SSH через virtctl).
  • Включён сбор событий и аудит-логов.
  • Реализовано резервное копирование/восстановление PostgreSQL.
  • Добавлен новый инструмент cozyreport и обеспечен сбор отчетов в CI. Теперь вся диагностическая информация сохраняется в виде сборочных артефактов.
  • Обновлены компоненты: cozykpg v1.1.0, flux-operator 0.23.0, Flux 2.6.x, Talos Linux v1.10.3, Cilium 1.17.4, MetalLB 0.15.2, Kube-OVN 1.13.13, cozy-proxy 0.2.0, Kafka Operator 0.45.1-rc1.
  • Предоставлена возможность установки Talos в Air Gap-окружениях.
  • Добавлена поддержка GPU для tenant-ных Kubernetes-кластеров. Пользователи платформы могут запускать GPU-ворклоады как в виртуальных машинах, так и в Kubernetes-кластерах.
  • Обеспечена бета-поддержка архитектуры ARM (кросс-архитектурная сборка). Система сборки переработана для поддержки мультиархитектурных бинарных файлов и контейнерных образов.
  • Расширен VerticalPodAutoscaler (VPA), который включён для большего количества компонентов Cozystack и позволяет проводить автоматическую настройку ресурсов. В частности, VPA был добавлен для control plane tenant-ных кластеров, панели управления Cozystack и etcd-operator. Все компоненты Cozystack с включенным VPA могут автоматически корректировать свои запросы CPU и памяти на основе их использования, что повышает стабильность.
  • Добавлена поддержка Gateway API в Cilium, позволяющая использовать расширенные функции маршрутизации L4/L7 через Kubernetes Gateway API.
  • Предоставлена возможность добавления собственных параметров в конфигурации Cilium для tenent-ных кластеров.
  • В контроллере Tenant HelmRelease Reconcile обеспечено распространение изменений конфигурации на рабочие нагрузки tenant-ов (гарантирует, что любой HelmRelease, определённый в tenant-е, синхронизирован с обновлениями платформы).
  • Добавлена возможность настройки коэффициента выделения CPU в KubeVirt (то, как виртуальные CPU соотносятся с физическими) через значение cpu-allocation-ratio в configmap. Администраторы могут настраивать overcommit CPU для виртуальных машин, соблюдая необходимый баланс между производительностью и плотностью.
  • Реализован экспорт виртуальных машин KubeVirt. Функция работает через VirtualMachineExport в KubeVirt и позволяет пользователям создавать снапшоты или резервные копии образов виртуальных машин.
  • Обеспечена поддержка различных классов хранилищ (storage classes) для виртуальных машин. Приложение virtual-machine позволяет выбирать любой StorageClass для системного диска виртуальной машины вместо использования жёстко заданного PVC (cм. значения systemDisk.storage и systemDisk.storageClass в конфигурации приложения).


  1. Главная ссылка к новости (https://blog.aenix.io/cozystac...)
  2. OpenNews: Проект Cozystack принят в организацию CNCF
  3. OpenNews: Проект Cozystack выпустил Talm, менеджер конфигураций для Talos Linux
  4. OpenNews: Опубликован код COSI-драйвера для SeaweedFS
  5. OpenNews: Выпуск Cozystack 0.30, открытой PaaS-платформы на базе Kubernetes
Автор новости: Timur Tukaev
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/63589-cozystack
Ключевые слова: cozystack, kubernetes
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (50) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.2, Аноним (2), 11:22, 17/07/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Этот ваш PaaS не нужон!
    Мы просто в гуе проксмокса виртуалочку подняли да постгрес установили!
     
     
  • 2.3, tym83 (ok), 11:30, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +4 +/
    God bless you!:))
     
  • 2.4, Аноним (4), 11:48, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Этот ваш proxmox не нужон. В пару команд накатил paas и в 1 клик установил HA постгрес с pgbouncer и бекапами
     
     
  • 3.5, Аноним (5), 12:42, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • –3 +/
    И потом весь этот винегред на***тся и будешь копать разбираться, как эта шляпа работает.
    Всякая HA херня настраивается на шлюзе при помощи HAPROXY и этого достаточно. Сетевучку проще вставить на 10G, чем этот велосипед ковырять. Смузихлебное гавнище.
     
     
  • 4.22, tym83 (ok), 16:28, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +6 +/
    > И потом весь этот винегред на***тся и будешь копать разбираться, как эта
    > шляпа работает.
    > Всякая HA херня настраивается на шлюзе при помощи HAPROXY и этого достаточно.
    > Сетевучку проще вставить на 10G, чем этот велосипед ковырять. Смузихлебное гавнище.

    Я, видимо, говорю с кем-то типа сталлоне, которого только что в разрушителе разморозили. Опеншифты, ранчеры, кубернетесы никому не нужны, ага:) Это просто злые люди придумали, чтобы портить жизнь людям добрым:)

     
  • 4.29, Аноним (29), 18:09, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Если с пятью демонами и rbac не можешь разобраться, может вообще не стоит в системное администрирование лезть?
     
     
  • 5.38, tym83 (ok), 21:46, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А почему вы считаете, что это задачи именно для системных администраторов? Почему бы не делегировать рутину платформе? Много вы инфры настроите своими руками в современном банке или чем-тот таком? При этом внутренние пользователи смогут по кнопке заказывать себе готовые кластеры, виртуалки и другие окружения? И при этом будет всё это не на башизмах, которые со временем будет невозможно прочитать, а знать, как всё это устроено, будете только вы? Если вы живёте в таком мире, то у меня для вас плохие новости:)
     
     
  • 6.40, Аноним (40), 23:25, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Воу-воу, палехчи, не в ту сторону воюешь. Я за вашей платформой слежу с корыстным интересом — время от времени появляются клиенты, которым что-то подобное нужно. С блеском и нищетой однокнопочных решений знаком не по наслышке, приходилось реализовывать с нуля для OpenStack и LXD. Не так страшен чёрт как его малюют, тем более что сабж тоже так — в одну кнопку — не очень-то умеет, что-то да придётся делать чтобы это работало. Да и платформа сама с неба не упадёт, кто-то должен её забутстрапить. Так что выдыхай и смотри внимательно на что отвечаешь.
     
     
  • 7.43, tym83 (ok), 05:46, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Я не про кози говорил, а про принцип автоматизации в принципе. В кози как раз гуишка совсем не главное и скиллы нужны (и немало))
     
  • 6.50, Прохожий (??), 10:59, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >И при этом будет всё это не на башизмах, которые со временем будет невозможно прочитать, а знать, как всё это устроено, будете только вы?

    Как будто в неработающих кубернатесах разобраться проще, ага. Ох уж эти сказочники-автоматизаторы.

    Если софт изначально нормальный (согласен, это сейчас большая редкость), то ему вот эта вся контейнеризация просто ненужна. Его поставил, и он работает. И да, порою пара строчек на шелле гораздо проще кубернетовых дебрей, как показывает практика (не моя, просто читал в Инете).

     
     
  • 7.56, tym83 (ok), 13:31, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    По ним специалистов всё же несоизмеримо больше, чем по легаси, написанному одним человеком для одной компании.

    Контейнеризация не нужна? А как вы будете менеджить то, что он должен скейлиться горизонтально и вертикально, как микросервисы крутить и т.п.? Ну утопия же то, что у вас описано. Софт кривой не из-появления кубернетеса, а потому что бабло всегда будет важнее хорошего кода. И если этот софт сделать прямым, необходимость в контейнерах и оркестрами никуда не денется.

    А на что лучше быть завязаным? На то, по чему есть специалисты и комьюнити? Или на единичное решение для одной компании, которое написали несколько лет назад, а теперь даже тронуть боятся, потому что хз, где там отстрелит?

     
     
  • 8.71, Прохожий (??), 01:50, 19/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Elixir, Erlang Есть такие платформы Без всяких контейнеров живут и масштабирую... текст свёрнут, показать
     
  • 7.70, Аноним (40), 19:59, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > просто читал в Инете

    С этого и надо было начинать, чудо ты моё локалхостное.

     
     
  • 8.72, Прохожий (??), 01:52, 19/07/2025 Скрыто ботом-модератором     [к модератору]
  • +/
     
  • 4.31, penetrator (?), 18:27, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +3 +/
    единственно адекватный комент, и то заминусили

    не модно вы батенька работаете )))

     
     
  • 5.39, tym83 (ok), 21:48, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Если наброс в мою сторону или в сторону мейнтейнеров, то мы такие комменты никогда не минусуем. Набросы и критика — это же прям очень хорошо. Это повод глубже разобрать тему и возможность повлиять на тех, кто читает эти самые набросы в комментах.
     
     
  • 6.59, penetrator (?), 13:50, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Если наброс в мою сторону или в сторону мейнтейнеров, то мы такие
    > комменты никогда не минусуем. Набросы и критика — это же прям
    > очень хорошо. Это повод глубже разобрать тему и возможность повлиять на
    > тех, кто читает эти самые набросы в комментах.

    я не знаю кто его минусил, если ты, то тогда да ))

    "Опеншифты, ранчеры, кубернетесы никому не нужны, ага" ну как тебе сказать, вообще-то да, возникновение этого дэрма стало следствием других событий и желаний, например продать тебе облачную хрень за дорого, под соусом скейлишься вместе со своим приложением.

    Так что да, оно конечно нужно, тому, кто его продает... еще бы! такие бабки )))

     
     
  • 7.66, tym83 (ok), 16:38, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    я его не минусил) я ж говорю, нам такие набросы только на руку))
     
  • 5.61, Аноним (5), 14:07, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Да все это херня. Никто адекватный не делает реальной рабочей инфраструктуры на такой фигне.
    Везде где я ходил в очень серьезные конторы с очень серьезными людьми - там везде старая школа, freebsd, debian + qemu. И никто никогда не перейдет туда, пока это работает и выполняет свою функцию.
     
     
  • 6.67, tym83 (ok), 16:39, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Больно избирательно ходите:) Много где на таких вот фигнях собирают уже
     
     
  • 7.75, Прохожий (??), 02:16, 19/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >Много где на таких вот фигнях собирают уже

    Если вы о контейнерах, то это только от безысходности, или глупости, или незнания, что без них (контейнеров) и людей, которые всё это должны обслуживать, можно обойтись при должном проектировании.

     
  • 4.48, User (??), 09:36, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Поздравляю тебя, Шарик - ты только что переместил единую точку отказа с postgresql на haproxy. Ой, нет - не переместил, postgres в multimaster не то, чтобы умеет - а о failover'е ты не подумал...
    Но в общем-то для части решений "И та-ак сойдет!"
     
     
  • 5.60, Аноним (5), 13:59, 18/07/2025 Скрыто ботом-модератором     [к модератору]
  • +/
     
     
  • 6.62, User (??), 14:08, 18/07/2025 Скрыто ботом-модератором     [к модератору]
  • +/
     
  • 3.23, 1 (??), 17:12, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    пара бакапов и денюжка на карточке закончилась.
     

  • 1.24, Аноним (24), 17:34, 17/07/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    Куб, в подах которого виртуалки, поверх которого кубы. Я так сильно отстал от жизни, что это считается валидной реализацией в 21 веке??? Звучит как лютый .....
     
     
  • 2.26, Аноним (29), 17:49, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Рассказывай как надо делать. Каждому кастомеру отдельные серверы для его кластеров? Поставить какую-то другую систему виртуализации и в ней реализовать 3/4 кубернетеса? Вообще не пользоваться автоматизацией и вручную солнце закатывать? Что предлагаешь?
     
     
  • 3.27, Аноним (24), 17:52, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ничего, я ж по этому и спрашиваю шарящих.
     
     
  • 4.28, Аноним (29), 18:05, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Это распространённая схема. OpenStack тоже удобнее так деплоить чтобы «нижний» минимальный деплой менеджил «верхний» полноразмерный для прода. Не заводить же два разных инструмента для одной и той же работы.
     
     
  • 5.30, Аноним (24), 18:09, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Любопытно, пойду ка почитаю про такой подход.
     
     
  • 6.54, Заноним (?), 13:21, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Там платишь за удобство памятью хоста, которую ужирают ОС в kvm под pagecache'ы
     
  • 2.36, tym83 (ok), 21:41, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Как минимум, удобно рулить и виртуалками, и родами в единой парадигме. Курьер по факту становится стандартом, девопсы и сисадмина всё больше его изучают, всё проще найти на него спецов. Удобно управлять всеми сущностями через единый понятный всё большему количеству специалистов Kubernetes API. Мы думаем, что за кубер апи будущее.
     
     
  • 3.73, Прохожий (??), 02:03, 19/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >Мы думаем, что за кубер апи будущее.

    Только если программисты, лепящие свои "шедевры" из г-на и палок, не одумаются, и не выработают более стройную платформу для программирования, а не тот д-мо-стек, который зачастую используется сейчас. В конце концов к этому придут. А вот эти все костыли кубернатесовые станут абсолютно ненужными. Хотя, следует признать, случиться это может нескоро. Увы.

     
  • 2.51, Аноним (51), 11:11, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ИМХО, это и есть лютый трэш. Сначала кажется: "Ой как удобно, быстро разворачиваются кластеры, никаких bash скриптов." Но ровно до тех пор, пока не нужно найти причину нестабильности, тормозов или какого-то бага. И вот тут выясняется, что разобраться во всем этом и отдебажить - вообще ни разу не просто. А уж если, ну я не знаю, какой-то элемент кластера случайно повредился(удалили, сломали конфигурацию), то проще раскатать из бэкапа, чем искать причину и восстанавливать.
     
     
  • 3.57, tym83 (ok), 13:32, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Сами же описали, что без дебага можно решать вопросы. Всегда говорят деньги. Надо принять этот факт. Красивые инженерные решения никому не нужны.
     
     
  • 4.74, Прохожий (??), 02:06, 19/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >Всегда говорят деньги. Надо принять этот факт. Красивые инженерные решения никому не нужны.

    Ещё как нужны, потому что только в них и можно найти реальную экономию. Однако, мало кто это понимает на старте, а потом часть уже бывает или поздно или слишком дорого переделывать.

     
  • 2.76, Прохожий (??), 02:21, 19/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >это считается валидной реализацией в 21 веке???

    Только для безграмотных или неумеющих самостоятельно думать людей. Таких подавляющее большинство, к сожалению.

    >Звучит как лютый .....

    Так и есть, на самом деле.

     

  • 1.25, Аноним (29), 17:47, 17/07/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > Добавлена опция cluster-domain для переопределения домена cozy.local.

    Кроме тщеславия есть какие-то объективные причины менять дефолт? Теперь чтобы накатить что-то нужно не забывать менять домен везде, где он используется. А где-то бывает и вовсе захардкожено, что отстой и фу, но реальность такова, что не всегда есть возможность исправить без форка и пересборки всего проекта. И всё это ради чего? Чтобы где-то в недрах кубера красивенько название проекта засветилось?

     
     
  • 2.35, tym83 (ok), 21:39, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    На старте разработки это казалось правильно, сейчас как раз откатили до дефолтного куберовского значения. Вопрос не тщеславия, просто казалось, что это архитектурно правильнее, чтобы отличать домены в Кози от доменов других кластеров. Потом увидели, что это не очень и сделали нормально.
     
     
  • 3.41, Аноним (40), 23:43, 17/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > казалось, что это архитектурно правильнее, чтобы отличать домены в Кози от доменов других кластеров.

    Жаль, меня там не было, где это решение принималось, я бы вас от этого отговорил в самом начале. Архитектурно правильно не создавать особенных случаев и не менять дефолты без доказательного эксперимента того, что иначе невозможно. Я рад, что здравомыслие возобладало.

    И отдельно рад, что проект в CNCF переехал. Теперь когда он под крылом известного фонда с десятилетней историей и серьёзными участниками, решение на сабже можно наконец-то попытаться кому-то продать. Пока это был один AEnix было куда сложнее.

     
     
  • 4.47, Аноним (47), 08:56, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Фонды это так е же корпорации, только фонды.
     
     
  • 5.58, tym83 (ok), 13:38, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ну не совсем. Фонд может гарантировать, что свободная лицензия на проект сохранится и ее какая-то отдельная компания не сможет по своему усмотрению поменять (как с терраформом или монгой получилось).
     
  • 4.53, Аноним (53), 11:53, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    В этом есть смысл, чтобы не было коллизий, когда под из managed-k8s внутри пытается обратиться к какому-то managed postgres снаружи. Интересно, как теперь это разруливается, ведь любому запросу теперь светит словить NXDOMAIN.
     

  • 1.42, Аноним (42), 00:05, 18/07/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А можно пояснить почему каждый именно свой вариант пилит менеджеров. Здесь cozypkg, у соседей werf. Кто то argocd приделывает.
     
     
  • 2.44, tym83 (ok), 05:51, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Cozypkg и werf прям решения совершенно разного уровня. werf полноценная крутая большая утилита. В то время как Cozypkg маленькая простенькая штучка внутри платформы, по сути. Вряд ли кто-то будет ее широко использовать отдельно от козистека, хотя это, конечно, возможно. ArgoCD завезём со временем тоже (это скорее для разрабов, которые к нему и к его гуишке привыкли), есть в довольно близких планах. А cozypkg не отменяет того, что у нас доставка на Flux построена.
     

  • 1.49, User (??), 10:01, 18/07/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ох, linstor походу уже новый стандарт, да? Но почему поверх ZFS? В гиперконвергентном развертывании с памятью же проблемы будут - а делать отдельные storage nodes менее удобно с т.з. управления.
    Metallb кмк тоже не бесспорный выбор - BGP требует поддержки оборудования, а на L2 в больших инсталляциях будет проблема с тем, что весь трафик фактически пойдет через одну ноду.
     
     
  • 2.52, Аноним (53), 11:50, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А чем заменить metallb? Без поддержки оборудования, я не представляю, что какие-то альтернативы будут лучше или функциональнее.
     
     
  • 3.63, User (??), 14:14, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > А чем заменить metallb? Без поддержки оборудования, я не представляю, что какие-то
    > альтернативы будут лучше или функциональнее.

    Тут вопрос в другом - если решение, которое ты предлагаешь _гарантированно_ не упирается в терминацию всего внешнего трафика в одну ноду - metallb на L2 хороший выбор. Если мы говорим про PaaS - то проще, наверное, вообще не закладываться.
    Конечный пользователь или связку bgp-cillium\calico с поддержкой железа сделает, или железяку поставит или вот просто кластер haproxy'ей перед кубиком соберет - на что рук\денег хватит.

     
  • 2.64, Аноним (40), 14:55, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ой да ладно, чтобы ToR и BGP не умел? И l3 свитча нигде нет? Ну сдела тогда из линукса, уж сервер-то и пара десятигигабитных сетевух точно найдутся.
     
  • 2.65, Аноним (65), 15:07, 18/07/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > BGP требует поддержки оборудования

    Там еще и само оборудование должно уметь в BGP ECMP Multipath. Тогда MetalLB вполне неплох в BGP mode.

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2025 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру