Была ситуация, когда после инициализации конфига, рандомно падали kube-proxy, kube-controller, kube-scheduler (CrashLoopBackoff), логи были неадекватные от слова совсем, не было полезной информации. Поэтому пришлось искать индусов отдельно. Решением проблемы (CrashLoopBackoff) является удалением файла /etc/containerd/config.toml и запихиванием вместо него дефолтного конфига с помощью команд (может быть, что вообще нет конфига /etc/containerd/config.toml, поэтому создайте директорию /etc/containerd): - containerd config default | sudo tee /etc/containerd/config.toml #Запихиваем дефолтный конфиг внутрь containerd - sudo sed -i 's/SystemdCgroup \= false/SystemdCgroup \= true/g' /etc/containerd/config.toml #Изначально почему-то cgroup не работает - надо включить После этих команд стало адекватно запускаться, но, к сожалению, не поднимался coredns, коллега в ветке комментариев также сталкивался с этой проблемой. Решилось просто - удалением taint с ноды. Команды ниже: - kubectl taint nodes control1.kuber.local node-role.kubernetes.io/master- #Чтобы разрешить подам CoreDNS запускаться на вашей мастер-ноде После выполнения этой команды должно всё успешно подняться, но если необходимо вернуть taint, то: - kubectl taint nodes control1.kuber.local node-role.kubernetes.io/master=:NoSchedule P.s. Kubernetes version - 1.29.9 Разворачивал на ubuntu server 22 LTS
Отличный цикл запланирован! Так же было бы просто супер, если вы рассмотрели бы вопросы конфигурирования LDAPS для подключения клиентов и, самое главное, в репликации, например, в мультимастере
Какие хорошие ребята, такие аккуратные а все остальные «козлы» такие мерзкие, сами если что то сломают то в 10 Раз больше герметика оазерачят ! А чужие ошибки так и любят на показуху выставлять
не осилил я ваши хелм чарты пока что, пришлось все переписать на стандартные манифесты(деплойменты и тд) но спасибо за материал была увлекательная ночка
интересный трюк с сабчартами! Надо будет опробовать. Вот только интересно, что произойдет, если вложенный чарт будет находиться по урлу, который или переедет или доступ к нему пропадет... 🤔 Это не вопрос, это мысли вслух 😃
Очень полезно было для меня - про headless я понял, а я ни как не мог понять зачем делают два сервиса и как правильно нужно определяеть доменные именя - а после этого видео стало всё ясно, понятно и просто. Большая благодарность автору
Парни просто не знают что машину можно разбирать и собирать декладаривно, используя terraform и ansible. Произошел configuration drift и на вашей развернутой версии отломали крепления. Наглядный пример почему не стоит лазить на прод тачки по ssh и менять там что-то руками. Спасибо за обучающий контент.
Я там последние 20-ть лет машины покупаю. Правда раньше это была компания Дженсер. Потом они обанкротились и всех сотрудников Дженсер и бизнес выкупил Ключ Авто. Тем более они у меня за углом находятся. Пешком 10 минут идти. Ну я по привычке там опять купил тачанку. Однако, Ключ Авто провел оптимизацию бизнеса в сторону найма не квалифицированной рабочей силы.
Артур, спасибо за видео! Появился вопрос по одному моменту примерно на 6:30. Вы пишите, что при развертывании через Application helm-чарта, если указать значения values просто списком, то ничего не произойдет. Но ArgoCD следит за состоянием application и при изменении значений values обновит приложение, если у вас есть соответствующие настройки автосинхронизации. Возможно, конечно, старые версии Арго так не умели, но сейчас это рабочий вариант. И очень удобный)
Я уже голову сломал решая эту задачку.) У меня такая же архитектура, сделал все так же. Запускаю два пода на разных нодах, и почему то трафик все равно идет на оба пода. Хотя, как я понял externalTrafficPolicy: Local должен трафик кидать только в тот под на котором запущен контроллер.