Тёмный

How to Train Your Own Large Language Models 

Databricks
Подписаться 117 тыс.
Просмотров 40 тыс.
50% 1

Опубликовано:

 

24 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 8   
@BlackThorne
@BlackThorne Год назад
00:35 🧠 Business Use Case: Training Large Language Models (LLMs) 01:45 💡 Reasons for Training LLMs: Customization, Cost Efficiency 02:40 🔀 Training Process: Data Pipelines, Model Training, Inference 05:16 📊 Data Processing: Filtering, Anonymization, Pre-processing 08:23 🔤 Tokenizer & Vocabulary Training: Custom Vocabulary, Benefits, Challenges 13:09 🎯 Model Evaluation: Human Eval Framework, Code Metrics vs. NLP Metrics 18:35 ⚙ Model Training & Specs: Model Size, Training Objective, Attention Mechanisms 20:55 📈 Model Training Challenges: Data Determinism, Loss Curve Spikes 23:41 🔄 Generation vs. Evaluation: Separating the Process 24:08 🚀 Deployment: Building Inference Stack, Managed Services 24:52 🖥 Model training involves GPU and model size considerations, pre/post-processing, and server/client-side logic. 25:49 🧠 Evaluating your model is crucial; define success criteria early to guide the training process. 26:02 🔄 Rapid iteration is valuable for testing model behavior and improving user experience. 26:29 ⏳ Ensure compatibility between training and inference stacks to avoid sub-optimal results. 26:57 🔄 Customization drives the desire to train LLMs with one's data; various approaches exist. 27:51 📚 Retrieval-based augmentation involves fetching relevant context to guide model responses. 28:08 🤖 Contextual prompting improves model's domain-specific knowledge, even if not originally trained. 28:21 💡 Embeddings and semantic similarity prioritize context selection for retrieval. 30:01 🎯 Fine-tuning methods vary in complexity; consider instruction tuning and training from scratch. 31:25 🔄 Models struggle with varying data formats, short-form content, and changing facts. 32:35 🌍 Custom domain data presents challenges; careful selection and use of embeddings is key. 33:37 🌶 Fine-tuning is complex; unsupervised fine-tuning for new domain knowledge has limitations. 35:18 🚫 Agents might become redundant as models absorb useful functionalities. 36:00 🔄 Balancing training data mix is challenging; no established formula, lots of variables. 37:11 💾 Data iteration tools are crucial as data, not GPUs, becomes the bottleneck for model advancement.
@syednaveed1391
@syednaveed1391 Год назад
Super useful. I am a physician, tried fine tune using cancer documents. It didn't work. Found your video Thanks
@dilipjha08
@dilipjha08 4 месяца назад
Thanks for knowledge sharing to the technology user. It was very details about the dlt as well as streaming tables and comprison between it and demo of the topic was very perfect.
@goodstuff5666
@goodstuff5666 4 месяца назад
Very nice tutorial! Could you guys share the slides? Thanks.
@mohsenghafari7652
@mohsenghafari7652 6 месяцев назад
hi. please help me. how to create custom model from many pdfs in Persian language? tank you.
@Qube_Cz
@Qube_Cz Месяц назад
🎯 Key points for quick navigation: 00:22 *📊 Tým v replit trénoval vlastní velké jazykové modely, jako je replet kód v13b, z důvodu efektivity nákladů a úpravy pro konkurenci s Copilotem.* 01:59 *🛠️ Vlastní trénink LLMS je efektivní zejména pro použití s autokompletními funkcemi, kde každý stisk klávesy vyžaduje rychlou odpověď.* 03:19 *🔄 Proces tréninku LLMS zahrnuje datové potrubí, trénink modelů a hostování inference, což vyžaduje důkladné plánování a správu dat.* 08:23 *🗣️ Tokenizér a vlastní slovník jsou klíčové pro trénink LLMS, umožňují nastavení specifického slovníku pro doménu (např. kód) a rychlejší trénink a inference.* 13:55 *🧪 Specifikace modelu, jako velikost a architektura, jsou klíčové pro výkon LLMS a musí být pečlivě zvoleny podle požadavků aplikace.* 25:35 *🧠 Dobré vyhodnocení modelu je klíčové pro úspěšné trénování vlastního velkého jazykového modelu.* 26:02 *🔄 Pravidelná rychlá iterace během testování modelu je důležitá pro jeho efektivní vývoj.* 26:29 *📊 Důkladně propojte svůj tréninkový cyklus s infrastrukturními požadavky, aby nedocházelo k suboptimálním výsledkům.* 26:41 *⏳ Trénink vlastního velkého modelu je dlouhodobý proces, který vyžaduje trpělivost.* 26:57 *🌐 Personalizace je hlavním důvodem, proč lidé trénují vlastní velké jazykové modely.* 27:24 *🛠️ Existují tři přístupy k použití vlastních dat s LLM: kontextové podněcování, získávání informací a jemné naladění.* 29:31 *🔍 Při jemném ladění je důležité zohlednit specifické požadavky domény a změny ve vstupních datech.* Made with HARPA AI
@CalebFenton
@CalebFenton Год назад
Thanks for the info and esp the hot takes.
@AnandShah-ds
@AnandShah-ds 10 месяцев назад
That was the best part. Should have been a opener.
Далее
[Webinar] LLMs for Evaluating LLMs
49:07
Просмотров 10 тыс.
What are AI Agents?
12:29
Просмотров 463 тыс.
Evaluating LLM-based Applications
33:50
Просмотров 25 тыс.
[1hr Talk] Intro to Large Language Models
59:48
Просмотров 2,2 млн
Let's build GPT: from scratch, in code, spelled out.
1:56:20
Large Language Models from scratch
8:25
Просмотров 346 тыс.