Pensandolo,( questo video) dal punto di vista della metacomunicazione ...🤔🤮🤮🤮provo solo disgusto e mi sorge in testa un desiderio,inadempiuto,un po.." giudittesco"- " gentilesco ".Grazie per la spiegazione.🙏 Ma in fondo, chissenefrega del povero Cristo inconsapevole. Dionisiaco o apollineo? Chiedetelo e sperimentatelo su chi lo chiede! Elettra Lamborghini e Nike Rivelli.Basta con i SACRIFICABILI vi sputo in faccia e in bocca IO!
Ciao perdonami mi sono addentrato ora in questo mondo ho una resina water 8k space Grey e uso lychee slicer potresti aiutarmi a impostare i parametri della mia resina se ti scrivo in privato ??! Grazie
Ma lo ritieni un progresso utilizzabile? Perturbare il sistema è relativamente semplice, basta stringere la fibra ottica. Tra complicazioni fisiche varie mi sembra che rischia di diventare una perdita di tempo. Cioè, come vedi la tecnologia che sfrutta la quantistica in senso pratico? Cosa potrebbe avere senso e cosa magari meno? Tra lo studio delle molecole complesse e il BB84 v'è un abisso per me. Già la criptografia sull'entanglement mi sembra pur sempre complessa ma potenzialmente più utilizzabile.
Ottimo lavoro. Volevo sapere quando scarichiamo mnist il train e il test data contengono le img scritte a mano ma nelle ripettive labels che c'è? Grazie e complimenti.
domanda, perchè prendere un lunghissimo array? non sarebbe più efficiente lavorando in parallelo suddividendo lo spazio e poi solo in fase finale ricomporlo? x esempio 28x28 si potrebbe dividere lo spazio per 7 e così avrei un array di 4 . quindi otterrei 4_a, 4_b, 4_c fino ad arrivare a 7, ed in parallelo avrei nella riga successiva al 4x4, 4_a1, 4_b2 poi avrei 4_a2, 4b2 etc... fino ad arrivare a 7 etc... del peso di 1byte ciascuno. in pratica mappo la mappa o mi sono perso qualcosa io? oppure questo computazionalmente pesa di più nel processo di parallelizzazione?
La convoluzione si può assolutamente parallelizzare! Si usa la GPU e il procedimento è abbastanza complicato, però si fa! Farlo coi thread con la CPU non cambia di molto rispetto a farlo dritto, perché non è ottimizzata per queste operazioni
Ti ringrazio tantissimo, grazie al tuo video ho risolto un bel problema. Non conoscevo questo software di Microsoft per riparare i modelli. Non capisco perché non lo abbiano già integrato gli slicer...o meglio Chitubox ad esempio ne ha uno per riparare i modelli ma non risolveva il problema del mio file. L'unica nota dolente che dopo la riparazione il modello ha perso di qualità. Poi ho tamponato con la modalità per levigarlo . Conosci qualche altro trucco? Grazie ancora.
Se perde di qualità dopo la riparazione significa che il modello era rovinato di base, se invece ti riferisci a dopo la decimazione dei vertici c'è poco da fare, devi decimare di meno!
L'Italiano è una lingua così bella e unica che dovremmo utilizzarla non appena possibile! Instructable = semplicemente "Istruibile", non è una brutta parola, ha un'origine così antica! Milestone = "Pietre miliari" (le abbiamo inventate noi, non facciamoci scippare il primato!) 😉
Ahah hai ragione! Istruibile mi dà l'idea di qualcosa a cui puoi insegnare, qui invece il senso è più che gli puoi dare degli ordini! Per questo non mi piaceva al momento
per la gestione e l'analisi di azioni calcistiche è ottimale, per quanto riguarda intere partite ho solo splittarle in 2 tempi qui la questine cambia. L'analisi anche solo di un tempo richiede una grande elaborazione instantanea, di conseguenza una grande risorsa economica. tutto sommato dtiamo andando veloci con le IA
anche io mi chiedevo come far giocare una IA se la scheda video serve sia per il gioco che per l'IA...forse con 2 schede video? oppure un sistema di visione su un pc separato; comunqeu non ti hanno chiamato per il behavioural cloning perchè usano i video su twitche youtube per addestrare SIMA😊
@@WiLLyRS89 quei giochi sono molto leggeri, una 4090 dovrebbe reggere egregiamente sia il gioco che l'IA...coi giochi pesanti tipo escape from tarkov o Stalker (che hanno decine di azioni possibili e centinaia di oggetti in scena) credo che neanche un rig di 4 gpu ce la farebbe...
A questo punto non sono nemmeno sicuri i modelli fatti girare in locale oltre a quelli cloud based. Ero scettico sull'implementazione a livello OS degli agents, e ora sentito questo me ne convinco di più.
Quelli che girano in locale hanno abbastanza limiti secondo me, non possono mandare una mail senza che te ne accorgi.. ma sicuramente si inventeranno qualcosa anche per quelli
bellissimo complimenti amico, ho notato che alcune volte non viene molto simile all'immagine, e con risoluzione bassa, c'è un modello che pesa di piu però piu preciso? io ho una 3080 rtx non molto recente anche come potrebbe andare?
questo tipo di modelli è ancora molto acerbo, quindi i risultati non sono ancora abbastanza decenti, probabilmente gli stai dando un'immagine troppo complicata o troppo diversa da quelle con cui è stato addestrato! La potenza della scheda video non c'entra col risultato, cambia solo quanto ci mette
@@WiLLyRS89 Grazie mille della risposta, però mi sorge un dubbio. Quindi la differenza tra la FeedForward e la CNN per il riconoscimento dell'immagine sta solo nella precisione?
Oltre a essere più precise perché si "concentrano" sui pattern all'interno dell'immagine, hanno un tempo di addestramento molto minore. Sia perché richiedono meno parametri, sia perché la convoluzione si può parallelizzare con la GPU
Si, c'era la sensibilità troppo bassa e quindi l'ho alzato in post, però a parte una parola ogni tanto non mi sembra che non si capisca.. in caso pazienza xD
e' possibile fargli leggere un testo, e quindi interrogarlo a proposito? inoltre (non credo) e' possibile farlo lavorare su una serie di testi (tuoi) in locale?
Ho scoperto poi che se usi CMD la modalità interattiva funziona, quindi puoi farlo partire e poi usarlo come si usa chatGPT! Per fare uno script invece basta usare il comando che vedi