Hey, שלום, Привет! My Channel is all about skills for Junior and Senior DevOps Engineer!
How to become DevOps and Cloud Engineer!
I'am working as Senior Cloud/DevOps Engineer and would like to share my knowledge and help other to learn very demanding skills in DevOps.
- Python Programming - Linux Administration - Hacking and defense - General IT topics - Cyber Security - Network - AWS - Amazon Web Services - Ansible for DevOps - Git and GitHub - Jenkins for DevOps - Terraform for DevOps - GCP - Google Cloud Platform - Kubernetes
10% Tutorials on English Language. 90% Tutorials on Russian Language.
For Support Donation PayPal: PayPal.Me/DenisAstahov USDT: 0xD972B511cfa513236ddA5Dea2B6a27DE5EfDDEe1
Добрый вечер! Подскажите пожалуйста, текущая версия Ansible 2024 года сильно отличается от той, что в ваших видео? прошло 6 лет, возможно там есть существенные изменения?
спасибо) как по мне opentofu имеет право на жизнь но давайте будем честніми - ограничения terraform'a касаются очень узкого круга компаний которіе по факту зарабатівают на нем и не делятся. Всем остальніх - они не касаются а потому terraform = наше все. Пока из всех проектов и друзей кто работает - никто даже не дернулся переходить и вряд ли перейдет если только не попадет на работу в такую компанию где нельзя им пользваться)
Так и есть. Я делал урок про кого эти лицензия изменения касаются. Но сейчас IBM купил HashiCorp и могут просто перестать поддерживать все Cloud кроме IBM Cloud, придется срочно искать замену.
Для тех кто столкнулся с отсутствием файла /etc/network/interfaces Ubuntu 17.10 и более поздние версии используют Netplan в качестве инструмента управления сетью по умолчанию, взамен варианта из урока. Пример моего файла конфигурации с требуемыми шагами: - путь к файлу (имя файла в вашем случае может отличаться) /etc/netplan/01-network-manager-all.yaml - содержимое файла --- # Let NetworkManager manage all devices on this system network: version: 2 renderer: NetworkManager ethernets: enp0s3: dhcp4: false addresses: - тут укажите статический IP-адрес routes: - to: default via: тут укажите шлюз nameservers: addresses: [тут укажите днс сервера, через запятую] *будьте внимательны с отступами при редактировании yaml файлов *enp0s3 замените на название вашей сетевой карты, посмотреть можно командой ifconfig (пример в видео) *подставьте свои данные в addresses и routes - После редактирования и сохранения файла задайте ему права доступа командой sudo chmod 600 имя_вашего_файла.yaml - подтвердите изменения sudo netplan apply
@@ADV-IT Было бы очень круто увидеть урок о том как импортить стейт с фул стаком амазона (ес2, рдс, сг, ...) из проект терраформа в такой же проект террагранта.
Это предназначено для тех кто столкнулся с проблемами с новой лицензией, будь то из-за личной антипатии или юридических вопросов. Если вы развертываете программное обеспечение только в пределах своей компании, то проблем с лицензией не возникнет. Однако, если вы продаете продукт, который внутри использует Terraform, тогда могут возникнуть юридические сложности. Вам нужно будет либо перейти на альтернативные решения, такие как Tofu, либо договориться с HashiCorp о лицензировании.
RU-vid позволяет в одном видео несколько аудио-дорожек делать, а так же полностью локализовывать ролик (заголовок, описание и т.п.). Разве что комментарии будут совместные, однако в таком случае рациональней заводить второй канал, если хочешь разграничить аудитории.
Спасибо большое за видео. Помогите, пожалуйста. Сервер SSH установил, его статус active (running), но после попытки подключения выдаются ошибки "No route to host": ubuntu@HelloLinux:~$ ssh 192.168.10.131 ssh: connect to host 192.168.10.131 port 22: No route to host (kali㉿kali)-[~] ssh 192.168.10.130 ssh: connect to host 192.168.10.130 port 22: No route to host Как это можно исправить?
@@ADV-IT ping работает с обоих серверов: ping c ubuntu на kali: ping -c4 192.168.10.130 PING 192.168.10.130 (192.168.10.130) 56(84) bytes of data. 64 bytes from 192.168.10.130: icmp_seq=1 ttl=64 time=0.022 ms 64 bytes from 192.168.10.130: icmp_seq=2 ttl=64 time=0.022 ms 64 bytes from 192.168.10.130: icmp_seq=3 ttl=64 time=0.027 ms 64 bytes from 192.168.10.130: icmp_seq=4 ttl=64 time=0.023 ms --- 192.168.10.130 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 3078ms rtt min/avg/max/mdev = 0.022/0.023/0.027/0.002 ms ping c kali на ubuntu: ping -c4 192.168.10.131 PING 192.168.10.131 (192.168.10.131) 56(84) bytes of data. 64 bytes from 192.168.10.131: icmp_seq=1 ttl=64 time=0.021 ms 64 bytes from 192.168.10.131: icmp_seq=2 ttl=64 time=0.056 ms 64 bytes from 192.168.10.131: icmp_seq=3 ttl=64 time=0.024 ms 64 bytes from 192.168.10.131: icmp_seq=4 ttl=64 time=0.025 ms --- 192.168.10.131 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 3052ms rtt min/avg/max/mdev = 0.021/0.031/0.056/0.014 ms
Очень позновательно ещё в недавнем времени SSD просто жесткий диск казался чем то высокоскоростным и недостижимым по сравнению с обычным HDD а тут уж на горизонте какие то м2 появились
Непонятно откуда no valid credential, если в провайдере они прописаны. Заработало только при повторении их в s3. Какая логика, почему каждый instance или vpc не простя заново указывать креды? Вот так заработало: provider "aws" { access_key = "xxx" secret_key = "yyy region = "eu-central-1" } terraform { backend "s3" { bucket = "learningstate" key = "dev/network/terraform.tfstate" region = "eu-central-1" access_key = "xxx" secret_key = "yyy" } }
Set AWS Credentials in Windows PowerShell: $env:AWS_ACCESS_KEY_ID="xxxxxxxxxxxxxxxxx" $env:AWS_SECRET_ACCESS_KEY="yyyyyyyyyyyyyyyyyyyyyyyyyyyy" $env:AWS_DEFAULT_REGION="zzzzzzzzz" Set AWS Credentials in Linux Shell: export AWS_ACCESS_KEY_ID="xxxxxxxxxxxxxxxxx" export AWS_SECRET_ACCESS_KEY="yyyyyyyyyyyyyyyyyyyyyyyyyyyy" export AWS_DEFAULT_REGION="zzzzzzzzz"
@@ADV-IT Спасибо! Да, суть вопроса была только в том почему какой-то отдельный ресурс вдруг запрашивает креды. Instance не запрашивает, например, а S3 такой особенный - запросил вдруг.
@@marrr_marrr5315 Я думаю это потому что backend можно успользовать совсем другой а не s3 когда создаешь ресурсы в AWS, поэтому отдельно надо прописывать. Но как я говорил, Env Vars всегда лучший способ, даже на работе.
Большое спасибо за урок! Не совсем понял, почему сервер прометеуса снимает метрики с тачки, на которой установлен (targets: localhost:9090) , хотя на этой тачке exporter не установлен (он устанавливается в следующем уроке) ?
крута, я тоже слегка увлекаюсь на досугах погляди.. там только путешествия по системе.. ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-I7nJ9hewTxM.htmlsi=PSFHlIyiARnvN-9U
Спасибо за урок! Далее будет информация о том, как сделать так, чтобы те метрики, которые экспортер показывает через веб, небыли публично доступны для левых пользователей?