Тёмный

LLama 2: Best Open Source Chatbot in GPT4All 

The Morpheus Tutorials
Подписаться 252 тыс.
Просмотров 23 тыс.
50% 1

Опубликовано:

 

26 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 72   
@tinkerpaper
@tinkerpaper Год назад
Toll! Mich interessieren solche Videos mit Ai! Kannst du auch noch ein Video für finetuning machen?
@soerengebbert
@soerengebbert Год назад
Kleine Korrektur: es sind nicht Milliarden Neuronen, sondern Milliarden Parameter. Jedes Neuron hat ja sehr viele Gewichte, dazu kommen noch die Gewichte der Attention Layer.
@sovielsand
@sovielsand Год назад
nunja... hier wird ganz viel halbwissen vermittelt. bspw ist ggml das bereits fertig errechnete sprachmodell in der jeweiligen ausprägung. gpt4all hat derzeit nicht die aktualisierte llama.cpp um ein llama2-70b sprachmodell zu laden. auf die jeweilige quantirisierung und was K_S oder K_M angeht auch nicht. schade eigentlich, das hier nur so oberflächlich an dem thema "drüber gerutscht" wird.
@quentinquarantino8261
@quentinquarantino8261 Год назад
Ich bin ein Fan von dir von der ersten Stunde. Deine Videos sind echt stark!
@HakanBacon
@HakanBacon Год назад
Das ist so crazy, dass das alles open source ist. Sobald 70B nutzbar wird für den einfachen user wird das mega! Tolles video, gefällt mir!
@floppyDisk616
@floppyDisk616 Год назад
Hammer Tutorial und sehr verständlich erklärt 😄👍 ... habe allerdings das gefühl, dass man mit der unzenierten version pandoras box geöffnet hat. Wenn man die richtigen fragen stelöt bekommt man informationen, die nicht umbedingt jedem in die Hände fallen sollte 😅
@Legija0ne
@Legija0ne Год назад
aber was könnte man den fragen? die texte sind ja eh alle aus dem internet (open source)
@wasgeht2409
@wasgeht2409 Год назад
Auf das Video habe ich gewartet :) Danke
@RainerK.
@RainerK. Год назад
"The best offering in the game Dead by Daylight would be a character with a unique personality, such as a ghost or an angel. The best offering in the game Dead by Daylight would also depend on the player's preferences and playstyle." (13b)
@traumerle369
@traumerle369 Год назад
Das Lami ist immer noch niedlich und trotzdem sollten wir unser eigenes Ding machen, was allein eine Frage des Prinzips ist.
@Olaf_Schwandt
@Olaf_Schwandt Год назад
eine Frage noch: kann ich mit GPT4All auf lokale Dateien zugreifen? Auch auf mehrere gleichzeitig bzw. automatisch nacheinander?
@christopherklein3829
@christopherklein3829 Год назад
5:20 das ist doch ein Thema für dich. Gpt-engineer mit llama2 und fine tuned coding Modellen. Jetzt die spannende frage: wo?
@xReTuneSx
@xReTuneSx Год назад
Danke für das Tutorial 🤗
@hellerqr8588
@hellerqr8588 Год назад
70b GGML sind jetzt auch schon verfügbar 🤩
@eliteeimer5346
@eliteeimer5346 Год назад
Ein Video, wie ich selber ein Modell "fine-tunen" kann, wäre nice.
@sovielsand
@sovielsand Год назад
nunja... hier wird ganz viel halbwissen vermittelt. bspw ist ggml das bereits fertig errechnete sprachmodell in der jeweiligen ausprägung. gpt4all hat derzeit nicht die aktualisierte llama.cpp um ein llama2-70b sprachmodell zu laden. schade eigentlich, das hier nur so oberflächlich an dem thema "drüber gerutscht" wird.
@ratside9485
@ratside9485 Год назад
Zumindest nicht so einfach wie Bild KIs alles was ich dazu gesehen habe schaut noch ziemlich kompliziert aus. Ich glaube das schwerste wird die Aufarbeitung der Trainingsdaten sein. Basiert halt alles auf Frage und Antwort. Wüsste nicht wie ich da z.b Wissen aus ein Fachbuch Tranieren könnte.
@Silberschweifer
@Silberschweifer Год назад
@@ratside9485 Mhm Lernkarteien sind da nicht schlecht was Fragen + Antworten angeht
@Silberschweifer
@Silberschweifer Год назад
@@sovielsand du könntest gerne Videos dazu machen oder Blogbeiträge, ich würde mich über mehr Tiefgang freuen. falls zu aufwändig hier im Kommentarbereich gerne
@sovielsand
@sovielsand Год назад
@@Silberschweifer : ich bin kein content creator wie morpheus. aber die nummer und das video war halt verflucht _niederschwellig_ / diffus / abseits vom thema.... im grunde genommen ist der gesamte fachliche content hier seit wochen unter aller *hütte*, weil es nur um klicks geht. wenn es schön und reich macht? bitte sehr! es gibt halt keinen echten mehrwert.
@MMSummer26
@MMSummer26 Год назад
Wurde vor 13 Minuten bei TheBloke zu den Mode-Downloads hinzugefügt: Llama 2 70B Instruct v2 - GGML
@ichbinderroboter
@ichbinderroboter Год назад
Wie kann man den zu GPT4All hinzufügen?
@rishiraj2548
@rishiraj2548 Год назад
Danke
@trojaner180
@trojaner180 Год назад
Issues sind einfach Programmier-Tickets und nicht nur Fehler, sonderm im Allgemeinen Anforderungen und Tasks an die Entwicklung 😁
@3pcgi959
@3pcgi959 7 месяцев назад
Was ist dieses "TheBloke/KafkaLM-70B-German-V0.1-AWQ" Gibt es Erklärungen für all die Modele? Da sind so viele Modelle dabei und kein Mensch weiß, wozu die gut sind?
@n-i-n-o
@n-i-n-o Год назад
Dankeschön!
@stefanchuck
@stefanchuck 8 месяцев назад
Hi, was hältst du von LM Studio als Programm?
@compuglobalhypermeganet
@compuglobalhypermeganet Год назад
Kriege ich das auf nem Notebook mit Ryzen 7 5700U ohne GPU bertieben ?
@jamesmor5305
@jamesmor5305 Год назад
Kann die Weboberfläche auch als API genutzt werden wie bei StableDeffusion?
@JustAn0therSoul
@JustAn0therSoul Год назад
guck dir oobabooga an, das hat ein webui wie a1111 und weniger bugs als gpt4all
@bci3937
@bci3937 10 месяцев назад
Ich will Datenbanken verbinden wie geht das?
@ChrisW1234
@ChrisW1234 Год назад
Gibt es auch eine Lokale Version mit Upload von PDF Dateien zum Auswerten ?
@ratside9485
@ratside9485 Год назад
Gibt auch ein LLama 2 das auf ein paar deutsche Datensätze verfeinert wurde. Funktioniert nur noch nicht so gut. Fantasiert bei mir nur ständig und wechselt ins Englische.
@alitz
@alitz Год назад
Da sind ja nun auch einige 70b Modelle - keines von denen hat bei mir funktioniert (RAM müsste ich ausreichend haben). Hat jemand einen Hinweis parat?
@quentinquarantino8261
@quentinquarantino8261 Год назад
Könntest du bitte zeigen ob es Opensource Alternativen zu RunwayML gibt. Also videogenerierung mittels KI.
@overlord09931
@overlord09931 Год назад
ich bin gespannt wann die 13b Chat Version unzensiert kommt 😁
@ratside9485
@ratside9485 Год назад
gibt es schon
@cfo3049
@cfo3049 Год назад
Kannst du mal was zu Leonardo AI machen und ein Vergleich zu anderen AI Image Generatoren ziehen?
@tobene
@tobene Год назад
Gibt auch ein colab notebook in dem man das llama2-13b model ausprobieren kann ohne was zu installieren
@compuglobalhypermeganet
@compuglobalhypermeganet Год назад
Graucht man ne heftige Grafikkarte für
@PalusiYt
@PalusiYt Год назад
Kannst du mal ein Video über das falcon llm machen? Denke das könnte auch interessant werden.
@marwo8618
@marwo8618 Год назад
kannst du ein Video machen wie man wie man ein Modell mit seinen eigenen Daten füttert ?
@Laurin2003queer
@Laurin2003queer Год назад
Danke für das Tutorial ich habe, aber noch ein paar Probleme damit. Llama2 70B GGML funktioniert bei mir nicht mit GPT4All und die 7B braucht einfach fast eine Minute um zu antworten. Was für ein paar Usecases wie zum Beispiel eine realistische NPC-Dialoge Mod, Contraproduktiv ist. Kann mir vielleicht jemand in den Kommentaren helfen, wie ich das Problem lössen kann.
@enndee9353
@enndee9353 Год назад
Was für Hardware sollte man denn für die jeweiligen Modelle im Rechner haben? Reicht ne 4090 schon für das 70B Modell? :D
@supportend
@supportend Год назад
Grafikkarte weiß ich nicht, beim Ram Verbrauch per CPU siehts so aus mit dem llama-2-70b.ggmlv3.q5_0.bin Modell: llama_model_load_internal: mem required = 45827,21 MB (+ 160,00 MB per state) Ist aber von der Quantisierungsmethode abhängig, auf den Modellseiten stehen oft so Tabellen.
@realtuxi
@realtuxi Год назад
Mit GPT4All reicht ein Laptop ohne Grafikkarte mit einer 4-Kern CPU und 8 GB RAM für 7B oder 16 GB RAM für 23B, wenn du nicht allzu viel Geschwindigkeit erwartest.
@ratside9485
@ratside9485 Год назад
@@supportend Wird ziemlich langsam sein ^^ mit PC Arbeitspeicher
@supportend
@supportend Год назад
Ist relativ, ich hab große Modelle so laufen und warte halt bisschen. :-)
@ratside9485
@ratside9485 Год назад
@@supportend Wieviel RAM brauchst du zum ausführen? Glaube die Geduld habe ich nicht. 😀 Und wüsste auch nicht was ich fragen sollte was mir das 13b oder demnächst das 32b Modell nicht auch beantworten kann.
@myzel394
@myzel394 Год назад
Ich hab eine Idee für ein Video, das wir alle sicher brauchen würden: Wie kann ich mir die neueste Nvidia-Grafikkarte für 50€ kaufen?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
😂😂😂 oder gar die neuste Server Karte für 10€ statt 30000€
@Olaf_Schwandt
@Olaf_Schwandt Год назад
Hi, danke für das Video. Ich habe eine Bitte. Ich würde das Video gerne einer Bekannten empfehlen, aber sie kann kein Deutsch. Kannst Du das automatische Erzeugen des Tra nsskripts und das automatische Übersetzen ins Englische einstellen. Dann kann sie sich das Video mit englischen Untertiteln ansehen. Das wäre super. Danke schon mal. PS: was (oder wer) ist TheBloke?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Oh ja natürlich, ich erstelle direkt welche mit whisper, Gib mir ne Stunde 👍
@Olaf_Schwandt
@Olaf_Schwandt Год назад
@@TheMorpheusTutorials Danke, kein Stress, ich erreich sie eh erst heute Abend. Und wg. Whisper: Ich dachte, das macht RU-vid selbst, aber vielleicht ist Whisper besser.
@supportend
@supportend Год назад
Eine Stunde für 17 Minuten Audio sind aber flott. Mit dem größten Modell brauchts bei mir ca. 16 mal solange wie das Original, läuft allerdings per CPU. Vielleicht deshalb.
@Olaf_Schwandt
@Olaf_Schwandt Год назад
@@supportend danke
@Soniic95
@Soniic95 Год назад
@@supportend warum audio? er fragte nach untertitel :D
@John83er
@John83er Год назад
Könnte man lama2 auch dazu verwenden bestimmte Töne in Audio Dateien zu erkennen? Also zb einen Frosch. Wenn ja wie würde man das Finetuning machen?
@tunk930
@tunk930 Год назад
Nein dafür gibt es z.B. für Sprache Whisper, ein audio zu text model. Für deinen anwendungszweck müsste man das finetunen oder vielleicht gibt es bereits ähnliche modelle
@TitusKotlin
@TitusKotlin Год назад
erster
@TitusKotlin
@TitusKotlin Год назад
kann ich auch irgendwie in python drauf zugreifen wie bei der chatgpt api nur ohne api
@supportend
@supportend Год назад
Ja, Pythonbindings für llama.cpp und GPT4All gibts.
@realtuxi
@realtuxi Год назад
Jap, gpt4all hat sogar einen eingebauten openai api server!
@kikierikiii183
@kikierikiii183 Год назад
bitte Video zu top_p/top_k, thx :D
@aketo8082
@aketo8082 Год назад
Vielen Dank. llama-2-13b-chat.ggmlv3.q4_K_M.bin ist interessant, schreibt auch auf Deutsch. Nachtrag: Sehr spannend, der Test mit einer kleinen Geschichte und Fragen dazu läuft interessant ab. :-) Wäre mal interessant zu wissen/sehen, wie man einen Fehler korrigieren kann. Also, wie das bei diesem Sprachmodell funkioniert und man die "Inteligenz" trainiert. Vielen Dank.
@realtuxi
@realtuxi Год назад
Q4_K_M ist eine viel bessere Wahl als Q2_K wie im Video! Wenn nicht sogar die beste, da es wohl den besten Ausgleich zwischen Qualität und Größe hergibt. Unter Q4_x sollte man eigentlich gar nicht gehen.
@aketo8082
@aketo8082 Год назад
@@realtuxi Ich hatte das "einfach so" ausgewählt. Heute sieht es anscheinend anders aus, LLAMA 2 kann sich kaum an das "Gespräch" von gestern "erinnern". Mich würde mal interessieren, wie ein LLM z.B. Namen und Orte "erkennt". Kann mir das Anhang einer "Statistik" nicht so wirklich vorstellen. Sind jedenfalls heute nur fehlerhafte Antworten. GPT4All hat seit heute die Version 2.4.14. Bleibt spannend!
@realtuxi
@realtuxi Год назад
​@@aketo8082 Ja, moeglicherweise ist bei der neuen Version etwas im Zusammenhang mit LLaMA 2 kaputt gegangen. Danke fuer den ganz inoffiziellen Report.
@marc.w.7692
@marc.w.7692 Год назад
du machst die umfänglichsten aktuellsten videos, und dazu holst du noch so ziemlich jeden ab. tiptop!
Далее
Mistral, LLaMa & Co. - Use free AI giants locally
38:59
Офицер, я всё объясню
01:00
Просмотров 2 млн
🎙ПЕСНИ ВЖИВУЮ от КВАШЕНОЙ
3:05:21
Using Ollama To Build a FULLY LOCAL "ChatGPT Clone"
11:17
Llama 2: Full Breakdown
15:49
Просмотров 161 тыс.
Llama-2 with LocalGPT: Chat with YOUR Documents
23:14
Просмотров 167 тыс.
Creating an OpenAI compatible Llama2 API with Flask
36:51
host ALL your AI locally
24:20
Просмотров 1,1 млн
fine tuning llama-2 to code
27:18
Просмотров 13 тыс.
The Home Server I've Been Wanting
18:14
Просмотров 29 тыс.