Тёмный

Lokalne modele AI: Twoje dane, Twoje zasady 

DataWorkshop
Подписаться 4,7 тыс.
Просмотров 9 тыс.
50% 1

Odkryj potęgę lokalnych modeli AI! Uruchom je na swoim laptopie lub serwerze.
🔔 Subskrybuj i włącz powiadomienia - Twoja droga do praktycznego ML zaczyna się od jednego kliknięcia: / @dataworkshop
👍 Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie!
💬 Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je - chętnie odpowiem.
🤝 Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn: / vladimiralekseichenko
🔊 Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML!
Partnerem podcastu jest DataWorkshop.
Chcesz wykorzystać potencjał ChatGPT i innych dużych modeli językowych (LLM) w swoim biznesie lub prywatnie, ale martwisz się o bezpieczeństwo danych? A może chcesz użyć modelu LLM do analizy prywatnych danych, które wolisz nie ujawniać (np. wyciągów z Twojego konta bankowego)? Załóżmy, że chcesz lepiej zarządzać swoim budżetem domowym, więc pobierasz wszystkie swoje transakcje i chcesz je kategoryzować. Oczywiście, można to zrobić całkowicie ręcznie, ale jest to czasochłonne i żmudne - jest spora szansa, że zrezygnujesz już w pierwszym miesiącu. Co wtedy? Można to zautomatyzować, ale zrozumiałe, że nie chciałbyś wysyłać takich danych do ChatGPT, prawda?
Chcesz więcej? Zajrzyj do moich kursów online i ucz się ML i analizy danych w praktyce!
👉 DS/ML od podstaw - bit.ly/47pDLuA
👉 Python - bit.ly/4e33QSW
👉 Statystyka - bit.ly/3Xpg1T0
👉 SQL - bit.ly/4e4TfXq
👉 Time Series - bit.ly/47IyChH
👉 NLP - dataworkshop.e...
🔥 Instrukcja jak uruchomić lokalnie Bielik v2: www.loom.com/s...
🔑 Dowiesz się:
Jakie są zalety i wady korzystania z ChatGPT przez stronę internetową vs. API OpenAI lub chmury Azure.
Czym są modele lokalne, self-hosted, open source i offline oraz jakie dają możliwości.
Jakie narzędzia ułatwiają uruchamianie i dostosowywanie lokalnych modeli, np. Ollama, LM Studio, Jan.ai, llama.cpp, OpenWebUI.
Jak lokalne modele językowe wpływają na bezpieczeństwo i prywatność danych.
Jak wykorzystać lokalne modele do transkrypcji audio, analizy obrazu i innych zadań biznesowych.
Jakie są wyzwania i ograniczenia związane z korzystaniem z lokalnych modeli.
🔗 Wspomniane narzędzia
Ollama: ollama.com
LM Studio: lmstudio.ai
Jan.ai: jan.ai
OpenWebUI: openwebui.com
llama.cpp: github.com/gge...
whisper.cpp: github.com/gge...
💬 Podziel się w komentarzach swoimi doświadczeniami z lokalnymi modelami AI. Jakie widzisz zastosowania w swoim biznesie?
🎧 Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts:
📌 open.spotify.c...
📌 podcasts.apple...
📌 • Biznes Myśli
#llm #ai #machinelearning #llama #datascience #genai #biznesmysli
🎙️ W tym odcinku:
0:32 - Wprowadzenie do świata LLM i ich biznesowego potencjału
5:48 - Publiczny ChatGPT vs bezpieczeństwo danych firmowych
11:46 - Rewolucja open source: modele Llama dorównują komercyjnym rozwiązaniom
17:15 - Ollama i LM Studio: narzędzia do lokalnego uruchamiania AI
24:51 - Jan.ai i trend małych modeli językowych
29:32 - Korzyści z lokalnych modeli AI: zgodność z GDPR i EU AI Act
35:35 - Whisper CPP: lokalna transkrypcja audio bez kompromisów
44:44 - Kontrola nad modelami AI: klucz do sukcesu w biznesie
49:08 - Phi 3.5 od Microsoft: mały model, wielkie możliwości

Опубликовано:

 

4 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 10   
@dantedaante4640
@dantedaante4640 28 дней назад
Świetny materiał. Bardzo dobrze tłumaczysz - miło się słucha i w głowie zostaje. Brawo.
@marcintubielewicz206
@marcintubielewicz206 13 дней назад
Świetny odcinek Vladimir, dzięki za inspirację, lokalny model już śmiga na moim komputerze ;-)
@alinabarcikowska4172
@alinabarcikowska4172 5 дней назад
trafiłam pierwszy raz - bardzo fajny materiał
@tomaszb9668
@tomaszb9668 11 дней назад
Jak zwykle istotne informacje. Dzięki. Btw kiedy ma się odbyć wspomniany meetup?
@ghs7233
@ghs7233 15 дней назад
👌
@martaw5502
@martaw5502 Месяц назад
Świetnie układa wiedzę to co opowiadasz. Czy możesz rozważyć podzielenie się jaki sprzęt / laptop proponujesz by zadowalająco działa na nim lokalny LLM?
@DataWorkshop
@DataWorkshop Месяц назад
Dzięki :) Ze sprzętem bywa różnie, osobiście teraz używam M2 Mac Pro. Też pytanie, co chcesz osiągnąć. Jaki model chcesz uruchomić :). Mam w moim backlogu więcej o tym mówić, myślę, że i taki odcinek też może się pojawić.
@sawomirsmietanowski9694
@sawomirsmietanowski9694 Месяц назад
Gratuluję widzy i umiejętności jej przekazywania. Od pół roku zdobywam wiedzę na temat sztucznej inteligencji. Lokalnie testowałem AnythingLLM, GT4All, LM Studio, OpenWebUI. W przypadku lokalnych modeli zauważyłem że gdy przesłany plik nie przekracza rozmiaru okna kontekstowego to odpowiedzi są prawidłowe. Gdy natomiast plik jest większy od okna kontekstowego i wyżej wymienione programy stosują RAG to pojawiają się halucynacje. Pytanie piersze: Jaki jest sposób aby RAG przekazywał do LLMa nie tylko kilka wybranych fragmentów pliku (LM Studio pokazuje 3 fragmenty) ale całość po kawałku i wtedy odpowiedzi byłyby prawidłowe? Drugi pytanie: Polecał Pan Jan.ai, zainstalowałem ale jest koszmarnie wolny i nie używa GPU (RTX 3050). Wszystkie inne programy używają GPU a ten nawet na pytanie Hello odpowiada pojedynczymi znakami. Jak spowodować aby Jan pracował podobnie jak inne programy do współpracy z LLM?
@krucafuks123
@krucafuks123 19 дней назад
fajne, ale trochę się gubiłem słuchając o toolach
@alangner65langner47
@alangner65langner47 27 дней назад
Przekazałeś sporo ciekawej wiedzy. Muszę poeksperymentować z Bielikiem
Далее
Jaki model AI wybrać: wyzwania i rozwiązania?
1:15:32
Fine-tuning LLM: fakty i mity
1:34:23
Просмотров 20 тыс.
Kolejne kroki ekspansji AI
24:25
Просмотров 147 тыс.
What Is an AI Anyway? | Mustafa Suleyman | TED
22:02
Просмотров 1,6 млн
Komu przeszkadzał azbest?
23:32
Просмотров 664 тыс.