Тёмный

1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano 

Simone Iovane
Подписаться 1,6 тыс.
Просмотров 9 тыс.
50% 1

In questo video spiego la base di una rete neurale: Il Neurone.
►►Telegram per ricevere aggiornamenti.
Contatto: @enomis926
Canale: t.me/dllab
►►LinkedIn.
Contatto: / simone-iovane-ab2555106
___________________________________________
#TutorialRetiNeurali #DeepLearningIta #TensorflowPythonIta

Опубликовано:

 

11 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 34   
@albertocola9166
@albertocola9166 3 года назад
Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo
@SimoneIovane
@SimoneIovane 3 года назад
Grazie 😉
@billionbitcoins772
@billionbitcoins772 4 года назад
Fantastico Simo, non sapevo le reti neurali potessero essere cosi interessanti :D
@__bolognini__
@__bolognini__ Год назад
Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano
@adrianobanuta2588
@adrianobanuta2588 Месяц назад
@__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye
@danielebaldoni2181
@danielebaldoni2181 3 года назад
Grazie per i contenuti...molto interessante. In italiano poi è un grande aiuto
@SimoneIovane
@SimoneIovane 3 года назад
Grazie :) Per spiegazioni teoriche piu' dettagliate ti rimando a questa playlist: ru-vid.com/group/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
@Vivamexico429
@Vivamexico429 2 года назад
Sei molto bravo, Complimenti !
@mrbluff14
@mrbluff14 Год назад
Grazie, sto cominciando a capire
@sudtracks2048
@sudtracks2048 Год назад
interessantissimo, complimenti.
@GennaroDanieleAcciaro707
@GennaroDanieleAcciaro707 4 года назад
Ottimo video, chiarissimo
@SimoneIovane
@SimoneIovane 4 года назад
Grazie Gennaro ;) Nuovi video in arrivo!
@adrianobanuta2588
@adrianobanuta2588 Месяц назад
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
@milenacordara2742
@milenacordara2742 8 месяцев назад
Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.
@paolodavid2861
@paolodavid2861 4 года назад
Molto Chiaro, bel video ;)
@SimoneIovane
@SimoneIovane 4 года назад
Grazie :)
@spaziolavorospaziolavoro9761
@spaziolavorospaziolavoro9761 3 года назад
bravo !!!
@SportyxChannel
@SportyxChannel 3 года назад
ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.
@SimoneIovane
@SimoneIovane 3 года назад
Ciao! Si me ne ero reso conto :) infatti ho fatto un altro video ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-PLkCwQ4c5vM.html dove spiego correttamente.
@adrianobanuta2588
@adrianobanuta2588 Месяц назад
6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?
@SimoneIovane
@SimoneIovane Месяц назад
Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.
@antaniperdue3148
@antaniperdue3148 3 года назад
ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.
@SimoneIovane
@SimoneIovane 3 года назад
Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈
@jhovy2007
@jhovy2007 3 года назад
con esempi numerici sarebbe ottimo. Poi non ho capito una cosa il parametro w è uguale per tutti i valori o variano per ogni singolo valore?
@SimoneIovane
@SimoneIovane 3 года назад
Ciao!, ti linko la playlist aggiornata con esempi numerici e teoria: ru-vid.com/group/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
@daniellachiche270
@daniellachiche270 3 года назад
Bravo. Spieghi lentamente.
@TheGiovisan
@TheGiovisan 4 года назад
Ciao. Potresti darmi un link relativo alla formula del calcolo della pendenza della retta tangente su un punto? grazie
@SimoneIovane
@SimoneIovane 4 года назад
Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!
@ricfio.professional
@ricfio.professional 3 года назад
al minuto 5:20 dici che y^1 = f(x1*w+b).... ma immagino che la formula giusta sia invece: y^1 = f(x1) = x1*w+b
@SimoneIovane
@SimoneIovane 3 года назад
Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)
@ricfio.professional
@ricfio.professional 3 года назад
Ciao @@SimoneIovane e grazie per la risposta... evidentemente dovrò studiarmi meglio la teoria, si vede che avevo capito male
@SimoneIovane
@SimoneIovane 3 года назад
@@ricfio.professional Tranquillo! per altri dubbi, precisazioni scrivi pure nei commenti :)
@Aero-Jr-Youtube
@Aero-Jr-Youtube 10 месяцев назад
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
@SimoneIovane
@SimoneIovane 10 месяцев назад
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-0qOFHUPLsw0.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.
Далее
Deep Learning: come imparano i Computer
17:41
Просмотров 29 тыс.
LA CONVOLUZIONE (Reti Neurali Convoluzionali)
10:02
Просмотров 6 тыс.