Хорошее видео. Позволило поверхностно разобраться в gRPC под стакан уиски. В свою очередь это позволило отдебажить gRPC сервак заказчика на котлине и понять почему он возвращал NPE в ответе. А то непонятно было, куда коней запрягать с этим gRPC. Ура, баг починен, автору респект.
Огромная благодарность, Наиль, за Ваш труд! Реально талант. Настолько доступным языком объяснять сложные вещи. Смотрел в других источниках про gRPC , почти ничего не понял. После этого видео сразу целостное понимание технологии, подхода и преимуществ. И сразу с примером👍Спасибо!)
Блин чувак. Ты просто вангуешь. Я только сегодня такой думал: блин, вот бы урок про микросервисы замутил бы кто то годный. И тут уведомление. Просто бомба. Спасибо большое. От души. Я в этой жизни теперь точно не буду счастлив, пока лично не найду тебя не пожму руку. Спасибо
Товарищ Алишев, хочу сказать тебе, что ты крутой поц, который выручает меня в знаниях уже который раз, тебя знают половина моей группы в институте, ты уже стал некой мафией в java. Держишь уже свою нишу довольно долго, репект
Офигенно! Как раз на проекте столкнулся с использованием микросервисов, которые общаются по gRPC. Помогло очень быстро въехать в тему. Спасибо большое!
Чел ты лучший, серьезно, мне кажется если бы ты объяснял кватновую механику или молекулярную физику, даже тут все было бы предельно понятно. Огромное тебе спасибо, благодаря тебе научился действительно многому
Мужик, спасибо за объяснение с практикой и сжато в тоже время. Я ваще не в теме был. Но честно, мужик. ctrl + A, ctrl + c - скопировать все содержимое файла. ctrl + A, ctrl + v - вставить в файл с полной заменой. Так сильно проще, чем крутить колесико.
По моему мнению Наиль самый комфортный обозреватель по Java!!! Скорость подачи ин-фы + грамотная речь + хороший объём нового материала!!! В общем просто КЛАСС👍
Аргмент по несжимаемость JSON надуманный. Он отлично жмётся тем же gzip или brotli, где не будет проблемы того что у нас один и тот же ключ повторяется много раз (будет ссылка на этот символ при сжатии).
Отсутствие строгой типизации, это не минус, а плюс JSON. По поводу избыточности JSON. { "header":["date", "event"], "data": [ ["2020-01-14", "Событие 1"], ["2020-01-19", "Событие 2"], ["2020-01-23", "Событие N"], ] } Так, что избыточных ключей легко избежать. Также ничто не мешает гонять потоки JSON объектов по HTTP 2. Тем не менее большое спасибо за видеоролик.
Наиль, у Вас талант объяснять сложные вещи простым языком. Например я очень долго искал и не мог найти понятное для себя руководство по Spring'у, пока не наткнулся на Ваш курс - он стал для меня единственным спасательным кругом. И то же самое с gRPC. Вам нужно собственную школу по программированию открывать для программистов, уже владеющих основами языков программирования, такой как бы продвинутый курс. Или стажировать людей за деньги где-то с оплатой в Вашу сторону. Первую работу найти очень тяжело, поэтому думаю на это реально должен быть спрос - новичкам дать возможность покупать коммерческий опыт, котирующийся у работодателей, за деньги.
Да ну куча проблем у gRPC-web. Вот приходит вам мессаг-респонс, и нужно её прочитать. Вы делаете toObject и если в глубине есть тип google_protobuf_struct_pb.Struct то оно превратится в fieldsMap. И можно конечно на Struct юзать toJavaScript, но Struct может быть очень глубоким потомком jspb.Message и во-первы, идти через геттеры к нему крайне неудобно, а во-вторых, нам нужно все дерево и нужно как-то мержить результат toObject и его потомка. С типизацией у Struct тоже плохо - она вообще не имеет типа и это реально приводит к проблемам в typescript. В целом ну очень неудобно, имхо.
"в случаи с монолитным приложением мы можем изменить какую-то часть и это затронет другие приложения" - вопрос архитектуры монолита. Зацепленность-связанность, все дела. "Всё объединено" это не от монолитности же зависит. Микросервис тоже можно изменить так, что это затронет зависящие от него микросервисы. Используется версия http2 только если браузер его полностью поддерживает. Иначе энвой же шлет по http1, разве нет? Ключ-единицу 29:21 мог бы и proto сгенерировать.
@@alishevN Честно не много не понял,так если проблема в размере JSON,что мешает весь JSON прогнать через protobuf и отправить? я ничего не имею против gRpc но в большом проекте где под 1000+ методов которые взаимодействуют с различными микросервисами замучаешься всё описывать в .proto (для такой задачи надо нанимать отдельно человека на должность mapper ;) )
Автор даёт ссылку на тесты. Там видно что при коротких сообщениях прото дает выигрыш. Однако на больших сообщениях явно теряет преимущество. Я думаю что нужно ещё больше тестов. Повысить энтропию данных, зажать их и посмотреть что получиться. Есть шанс что в разных ситуациях, в разных задачах придется выбирать между прото или json вариантом, так как есть зависимость от объема данных и рассеивании. Аргумент того что json сжатие требует процессорное время, такое себя, так как любое сжатие этого требует. Нужно больше хороших синтетических тестов и тестов из жизни, реальных проектов. Но по мне, пока что, JSON выглядит лучше, даже если на коротких сообщениях проигрывает.
24:05 Глядя как развиваются последние несколько лет нейронки, есть большая вероятность замены таких инструментов как PVS-Studio анализаторами на базе AI. Желаю ребятам скорее оседлать этого конька и включить в свой проект AI подсистему анализатора кода.
json так же сжимается может deflate или gzipом, если настроено сжатие между клиентом и серверов. это прям очень стандартно. и реально эффективно это все и получается бинарно. так же весь html передается, он сжимается при передаче. посмотрите это с помощью tcpdump данные в теле буду бинарными а не текстовыми при использовании сжатия
Справедливости ради, так как JSON это простой текст, то отлично сжимается gzip, и настроить его как для отдачи так и для получения довольно просто. Такие минусы как не сжимается и повторяющиеся ключи для сжатого json не работают, правда добавляется архивирование и разархивирование.
@@alishevN При передаче данных по каналам связи, что текст, что бинарные файлы сжимаются. Текст лучше, бинарные данные меньше, а в целом получающийся пакет примерно одинаков, разница в 5-10%. Излишний размер влияет на надежность, текстовый формат передается чуть медленнее, но надежнее. Все вышеописанное влияет на передачу между удаленными серверами, в случае связи между близкорасположенными серверами, без использования внешних каналов, т.е. интранет, то тут бинарный формат в 7-10 раз может быть быстрее.
Спасибо за видео. Но вопрос возник в голове у меня - ведь если текст, то его тоже можно сжимать на лету, есть же алгоритмы. Которые достаточно эффективно и быстро сжимаю данные и вот их можно по сети гонять. По сути ведь все равно gRPC дает накладные расходы на кодировние/декодирование, в REST это можно на сжатие/распаковку тратить. Ну правде это не решает вопрос с протоколом и стримами, согласен, но тем не менее.
В REST API ведь можно использовать потоковые данные через библиотеку Reactor для Spring Boot. Данные передаются через Mono и Flux. Спасибо за обзор. Все четко и доступно. Однозначно заинтересовала технология. Немного напрягает что вместо JSON используется бинарный код
EJB аналогичен по своей сути мультимодульному проекту на мавене, когда монолит делят на разные куски в зависимости от его действий в приложении, например, один ejb компонент отвечает за DAO, другой бизнес логика, другой интеграция с внешними сервисами и ТД. Концепция миеросесервисов строится вокруг DDD подхода в рамках которого у каждого сервиса может быть и свой dao слой, и свой слой интеграции и своя бизнес логика. А по поводу RMI, так эта технология и так используется в спринг клауд и является его базой. Grpc в отличии от RMI можно сипмлементировать на любом языке, таким образом не завязываясь на определенном стеке, в то время как клауд в рамках одного цельного приложения это набор микросервисов на java
1. Монолитные приложение также могут масштабироваться, а микросервисы могут не иметь такой возможности. Все зависит от реализации. 2. Текстовые данные хорошо сжимаются. Автор скорее всего имел ввиду, что в текстовом формате JSON содержится много "лишней" информации о разметке данных. Вообще, кажется сравнение gRPC vs REST абсолютно неуместно. Для каждого подхода есть случаи, когда лучше его использовать.
>нам нужно только унаследоваться от этого класса 35:45 Тем временем класс public **final** class Upd: так бы прямо и говорил что мы будем наследоваться от вложенного класса. 😂
1) Как НЕ копировать прото-файлы каждый раз в десяток проектов-микросервисов? 2) Как отслеживать изменения в протофайлах? Первое что приходит на ум это создавать отдельный проект с описанием сервисов на протобуфе, собирать из этого проекта потом пакеты/модули для различных языков, и импортировать эти пакеты/модули как внешние зависимости в микросервисах.
Все верно, нужно создавать отдельный гит-проект (если используется гит) и туда класть прото-файлы. В микросервисах затем подключать этот проект с помощью подмодулей (submodule) (используем в ежедневной работе), либо subtree (это не пробовал).
Подход работы с gRPC, чем то похож с SOAP. Там на основе wsdl генерится java код, а здесь на основе proto файла. Как у клиента так и у сервера эти два файла должны быть одинаковые.
некоторые зависимости из этого урока и protobuf-maven-plugin не обновлялись аж с 2018 года. есть какой-то более современный стек, заменяющий эти, очевидно, устаревшие инструменты?
Микросервисы это мегахайп. Но никто не говорит, что это распределенные системы и что это вносит не только счастье, но и сложность в разработку. Что надо написать туеву хучу кода для саги и для ролбэков. Что удаление записи в микросервисах хреновая идея, потому что нет на любимого "foreign key". А gRPC надо выбирать очень осторожно. Так как дебажить бинарник битый тяжко, это не текстик в жэйсоне.
Просто Вау! Такая крутая штука, а я и не знал! Спасибо автору за труд, очень хороший и нужный вводный ролик! Кстати, а почему в сервере response билдится каждую итерацию цикла? Один раз сбилдить, затем много раз отправлять. Или так нельзя?
Из предложений по улучшению контента: можешь приобрести планшет или ноутбук с поддержкой стилуса (ручки) для интерактивного добавления материала поверх слайдов.
Что касается избыточности JSON, то тут больше вопросов к тем кто так данные передает. Многие любят вкладывать данные одни в другие. А потом при разборе тыкаться в глубину. Действительно могут часто повторятся данные, текст. Однако надо просто думать головой и делать JSON читаемым, но не избыточным.
привет! а как происходит версионирование proto файлов? допустим на сервере он поменялся, это же не значит, что все клиенты должны обновляться? есть какие-то версии пакетов, чтобы использовать конкретный proto файл на клиентах?
Добрый день! Подскажите, пожалуйста, как написать протофайл с двумя rpc таким образом, чтобы сначала ожидались данные от первого сервиса, а потом уже от второго? Как посылать запрос на первый сервер, пока не получишь данные? Спасибо большое за ответ
был ли у кого затык в том, что после генерации классов из прото файла, в таргет папке все как в видео, но при имплементации возникает затык, идея просто не видит этот класс из таргета, при ручном импорте com.example.grpc* , идея не видит уже с папки example . хотя ТООЧНО она в иерархии папок в таргет файлах есть как в видео.
Скажите, пожалуйста, в чем отличие установки соединения по HTTP 2 с последующим получением по этому соединению потока данных и сокетов? Используя сокеты тоже ведь можно установить отдельное соединение с сервером и получать по нему данные? Большое спасибо за урок!
Я один столкнулся с проблемой что не могу унаследовать Grpc класс, у меня 2 проекта, одни maven второй greadle но не там не там не получается расширить этот класс. Если есть идеи буду рад. А так автору респект!!