Вопросов: 1297
Ответов: 10167
добавить DNS апстримы для coreDNS в кубере. Чтобы сначала запросы были в рамках кубера, а потом использовались инфраструктурные DNS сервера. В доке сказано, что для указания апстримов можно юзать любой режим В шаблоне конфига говорится, что апстримы можно только для resolvconf_mode: host_resolvconf https://github.com/kubernetes-sigs/kubespray/blob/77149e5d89695f66f1e92d8ab096e8a7b5848f6f/roles/kubernetes-apps/ansible/templates/coredns-config.yml.j2#L44 Короче, как понять, какие DNS юзает coreDNS в качестве апстримов, если их в конфигмапе нет?
одного репозитория, зависимости у них прописаны в одном package.json и соответсвенно каждому контейнеру нужны свои зависимости, как их передать в контейнер? Есть вариант хранить node_modules в общем томе и прокидывать через volume либо для каждого контейнера устанавливать свои зависимости из разных package.json, но техлид эти варианты отмёл. Общаются сервисы по очередям, через воркеров bullMQ, кеширует redis. Хз, что он хочет ещё. Какие вообще best practice существуют по архитектуре микросервисов? "один репозиторий на все 3 приложения http server + 2 ms - 1 package.json - три разных Dockerfile, для каждого мс - 1 общий docker-compose.yml - volumes - нет" такие вводные
читать часто этот чат то Я все больше склоняюсь к мысли что helm не особо нужен, только для стандартных prometheus operator и то руками все допиливать Вопрос helm сейчас востребован и все пишут чарты или все пишут манифесты а helm юзают условно когда надо поднять логирование в класстере?
но хочется убрать ибо прожорливый
минимум три мастер ноды + серв под load-balancer; при этом машины у меня под всё это только три, сейчас временно развернул haproxy на кастомный порт одной из нод. Подскажите пожалуйста, какой оптимальный вариант в такой ситуации?
к внешнему адресу type: LoadBalancer из подов? Такая проблема, ingress-controller в режиме proxy protocol. На него трафик залетает через службу типа LoadBalancer балансировщик в облаке Но если обращаться к этому внешнему адресу балансера из подов кластера, то cilium nat'ит внешний адрес балансировщика во внутренний адрес пода. А поскольку там ingress-controller в режиме proxy protocol то облом при таких прямых запросах. cilium различает службы типа LoadBalancer от других, это видно по cilium service list ``` 27 x.x.x.x:443 LoadBalancer 1 => 10.246.4.95:443 28 x.x.x.x:80 LoadBalancer 1 => 10.246.4.95:80 ``` Но также видно что он все равно их натит: ``` TCP OUT x.x.x.x:59774 -> 10.246.4.95:443 XLATE_SRC 10.246.3.235:47747 Created=5776980sec HostLocal=0 ``` x.x.x.x - внешний адрес балансера 10.246.4.95 - адреса пода ingress-controller'а 10.246.3.235 - адрес пода с которого идет запрос на внешний адрес балансера x.x.x.x Чет не могу найти опцию, которая бы это регулировала
env переменной один и тот же сервис, но работает с разными клиентами. Как это лучше сделать? пока в голову только helm приходит, в котором в цикле нужные ресурсы создавать, может быть есть что-то удобнее/проще? идеально было бы в рамках одного деплоймента создавать поды с разными параметрами, но не уверен что так можно