Can we do monocular vision fix with diffusion models and detect how much stock has been used and have real time CV to manage medical stoxk. With RAG we are able to speculative rag and we need good , I love the bit… I will not take 100% responsibility 😅😅😅😅
Thank you for your interest. Please choose a day and time convenient for you to discuss your request in more detail (ET time zone): calendly.com/alex-2hk4/30min
Great video! I have one question. When we calculate the l value, why don't we just use (m_(i+k)-m_i)/m_i, rather we need to calculate the average value first? thanks!
Чому ми не можемо порахувати всі градієнти за ось такою формулою? d_loss/d_w[i] = (loss(...,w[i] + delta, ...) - loss(...,w[i], ...)) / delta , де delta якесь маленькe число
Усі одразу градієнти порахувати не можемо, оскільки градієнти кожного наступного шару нейронної мережі - починаючи від останнього і закінчуючи першим - рекурентно використовують значення градієнтів усіх попередніх шарів. Тому, порахувавши значення функції втрат у результаті Forward Propagation, можна порахувати лише градієнт останнього (вихідного) шару. Маючи значення функції втрат та градієнти вихідного шару, можна порахувати градієнти передостаннього шару і так далі. Саме завдяки рекурентній природі, фаза обчислення градієнтів та оновлення ваг нейронів називається «Зворотнім поширенням» (англ. Backward propagation)
Згорткові нейронні мережі придумали з метою зменшення к-сті параметрів у вхідних даних.По суті, якщо в нас є rgb картинка 800 x 800, то це вже 800 * 800 * 3 = 1920000 вхідних парметрів, і це ще не враховуючи параметри прихованих та вихідного шарів. Окрім цієї проблеми, картинка може також містити велику к-сть надлишкової інформації(нд фон). Основною метою CNN є зменшити к-сть обчислювальних ресурсів, але й не допустити і видалення тим самим важливої інформації з картинки. Для цього LeCun придумав наступні 2 операції: згортка та pooling. Згортка "вичавлює" важливі особливості картинки, а pooling зменшує к-сть інформації у цій картинці. Умовно CNN можна описати як CNN = , де операція виконана стільки разів, скільки потрібно для зменшення параметрів та обчислювальних ресурсів. Імплементація: - convolution = in * kernel (element vise) = out (feature map) - Pooling = in * f(some magic) = out Параметризуємо ми всі матриці kernel(на додачу до DNN)
Кернели це матриці довільного розміру з довільними операціями. Щоб отримати feature мапу нам треба поелементно помножити вхідні дані картинки на карнел(чому поелементне, а не матричне множення?). Метою створення feature мап є вичавлення конкретної інформації з картинки. Наприклад одна feature мапа містить інформацію про краї картинки, інша про інтенсивності кольорів. Такі думки мають сенс?
Частково. По-перше, матриці не можуть бути довільного розміру. Зазвичай, їх роблять квадратними (однакові висота та довжина) із непарним розміром сторін. Ромірами найчастіше є 1х1, 3х3, 5х5, 7х7, рідко - 9х9 Матриці згортки містять параметри, що вивчаються під час навчання моделі, тому сам вміст матриць та фічі, які вони визначають, адаптуються під дані на яких навчають модель, під час backward propagation.
Feature map - це просто зображення, на якому показані фічі, які були виділені якимось одним кернелом. Так, вони будуть містити інформацію про те, на що "звернув увагу" кернел, але ще й досить сильно будуть залежати від к-ті даних, способу тренування і архітектури моделі тощо
Hi Dmytro, This one is an anonymised commercial project. There are several related research papers, I can share if you’re interested. Our research works are primarily focused on pharma and biotech AI technologies
Thank you so much for this video. I'm wondering what is the best way to deploy this as an Android application in real time, let's say we want the model to be running in the cloud and we want just to receive the images from the device in the background. How we can achieve something like this. Thanks.
Setup 1 (near real-time, 2-6 seconds response delay): Android is a simple UDP server, sends video frames to the server (cloud) where all the processing happens. The Android app receives the server response (as a JSON) with labels and lays out them over the video stream. Setup 2: (real real-time, up to 1 sec response delay): deploy ML recognition model ON THE DEVICE (Android phone). Process all the data and display the results on the same device. It will cut down time for transfer the data over the public Internet to the cloud server and back.
This would have been a perfect tutorial on gender detection but you refuse to show us the necessary steps involved in completing this task. Which kind of marred the whole effort. Upload video tutorial not video or some movie clip.
Good explanations but I recommend you to show people everything like downloading files or clone or installing requirments.. Then would be nice vids! Thumbs up
Is binding affinity between protein and ligand dependent on solvent? If so, that would severely limit the application of this to whatever solvents are used in the existing datasets. If the binding affinity is solvent-dependent, do you know off-hand what solvent is used by PDBBank?
Hi Fahraynk, Good question. Affinity is heavily dependent on the solvent, pH, temperature, dissolved salts, etc. To avoid uncertainty, it is usually measured under normal conditions (Solvent=Water, T=293 K, P=101.3 kPa, pH=7.4). And then there is chemical thermodynamics to recalculate ΔG, Ki, Kd to whatever conditions are needed :)
@@AlexGurbych Thanks for the reply. Yes I think the thermodynamics won't help so much because if water binds to your ligand, but DCM does not, then the binding affinity could be orders of magnitude different in DCM than in water. But this method is probably good for testing binding in blood since blood has a lot of water.
@@tag_of_frank molecular binding affinity is typically applied to living systems - which is not relevant for your case. I wonder what living being could exist having DCM as a primary solvent :) The major issue here is that ML is built on known data fitting - but there is not enough open-source data for DCM affinities. I would suggest considering methods like coarse-grained (as biomolecules are pretty large) molecular dynamics. You will be able to set solvent, temperature, pressure, and other modeling parameters. Use such forcefields as Amber, CHARMM, GROMOS, and OPLS-AA - they describe protein-ligand interaction under different conditions pretty well.
@@amansachan1213 Predict is done via OpenCV DNN interface, the original model under the hood is VGG16 (deep convolutional neural network with 16 hidden layers). Data preparation and training conditions are described in details in this paper: data.vision.ee.ethz.ch/cvl/publications/papers/articles/eth_biwi_01299.pdf
I added the file "requirements.txt" to the repository - it will help you to install all required packages of appropriate versions automatically, just run "pip install -r requirements.txt". Maybe your dlib version is inappropriate. Please, check it.
@@susantadas4004 probably you are trying to install the packages under base user or root Python environment where you already have different versions of the packages listed in the reequirements.txt. Try to create a new virtual environment, activate it, and install all the packages within. You can find detailed instructions here: packaging.python.org/guides/installing-using-pip-and-virtual-environments/
please can you help me about this project Can you explain this project completely because when I ran it I did not get anything just telling me that the code has been run and dlib error
Hi MyTop5, Thank you for asking. Typically this kind of computation is done at the backend (server): 1. Get the image of a user 2. Send the image (as a base64-encoded string, for example) to the server 3. Save the image to a folder at the server-side 4. Trigger the age/gender recognition ML model, dump results to JSON 5. Send the JSON results to your web front-end
Hey Alex, nice to meet you! I just found your channel and subscribed, love what you're doing! I like how clear and detailed your explanations are as well as the depth of knowledge you have surrounding the topic! Since I run a tech education channel as well, I love to see fellow Content Creators sharing, educating, and inspiring a large global audience. I wish you the best of luck on your RU-vid Journey, can't wait to see you succeed! Your content really stands out and you've put so much thought into your videos! Cheers, happy holidays, and keep up the great work!
The presentation seems to be amazing, but since its not in English I cannot follow. Can you share the material that you used in the presentation (slides, code, etc)? Thank you in advance
See our paper on the topic: chemrxiv.org/articles/preprint/Towards_Efficient_Generation_Correction_and_Properties_Control_of_Unique_Drug-like_Structures/9941858/1