Тёмный

GPT-3.5: API Guide & Warum FINETUNING so NICHT OKAY ist 

The Morpheus Tutorials
Подписаться 253 тыс.
Просмотров 6 тыс.
50% 1

Опубликовано:

 

29 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 30   
@tomb9441
@tomb9441 Год назад
Es wäre mal interessant durchzurechnen, ab wann es sich lohnt ein "eigenes" fein-getuntes LLM im eigenen "Rechenzentrum" laufen zu lassen.
@EchterAlsFake
@EchterAlsFake Год назад
Es fühlt sich immer noch so an, als wäre ChatGPT gestern erst rausgekommen. Gutes Tutorial, vielen Dank :)
@MeinDeutschkurs
@MeinDeutschkurs Год назад
Was hat es für einen Vorteil, den System-Prompt auf so viele einzelne aufzuteilen?
@anion21
@anion21 Год назад
Interessantes Video, thumbs up.
@KIZeitalter
@KIZeitalter Год назад
Danke für das Video! Das mit den Preisen ist schon recht heftig. Aber mir kam der Gedanke, dass OpenAI mit den Finegetunten (es lebe Denglisch) Modellen schon gewissen Aufwand betreiben muss. Das Modell muss ja praktisch gehostet werden, da es ja weiterhin bei OpenAI läuft (man kann es ja nicht einfach herunterladen... das wäre allerdings fein ;) ). D.h. irgendwo läuft dann eine Instanz, die Kosten verursacht. Aber ob das die Preise so rechtfertigt, kann ich natürlich nicht sagen
@tuxifanghhh7694
@tuxifanghhh7694 Год назад
Das ist das nette bei lokaler AI: Mit selbst geschriebenem sampling Code (oder grammar bei llama.cpp) kann man das Modell ohne Finetuning etc. auf ein bestimmtes Ausgabeformat (wie z.B. JSON) steuern oder sogar die Ausgabe waerend der Generation steuern.
@drag0zu
@drag0zu Год назад
könntest du mal ein fine tuning video mit PEFT und OpenSource Modellen machen ? Insbesondere würde mich auch mal das Thema Computation Power vs. ModelParameter Size & Fine Tuning interessieren. Die Frage ob man für custom Use Cases sogar lokal fine tunen kann oder mittels"relative kleiner" Cloud Infra das umsetzen kann fänd ich auch sehr interessant.
@TT-pi8ww
@TT-pi8ww Год назад
Man kann jetzt bei GTP3.5 auch custom instructions vorgeben, die für jeden neuen Chat im Hintergrund übernommen werden. 1500 Zeichen hat man dafür kostenlos zur Verfügung. Das macht das teure Finetuning noch weniger interessant.
@TT-pi8ww
@TT-pi8ww Год назад
es sind insgesamt sogar 3000 Zeichen. jeweils 1500 für "What would you like ChatGPT to know about you to provide better responses?" und "How would you like ChatGPT to respond?"
@Toebaay
@Toebaay Год назад
Hast du schonmal versucht, OpenAIs function calling zu verwenden, um JSON Strukturen vorzugeben? Das soll ganz gut klappen heißt es in englischsprachigen Tutorials.
@dmitrygg9196
@dmitrygg9196 Год назад
Die Moderation api ist free übrigens. Von open ai. Also man kann selbst beim generieren über openai moderation api überprüfen, ob die Texte ok sind.
@pascalschreiber1550
@pascalschreiber1550 Год назад
Ich habe bei meinen API Zugriffen (wenn ich JSON als output haben will) einen anderen start drinnen. In den Messages habe ich als erstes die System role, wo ich dem LLM die Rolle gebe. Dann setze ich als User ein Beispiel, was er hätte schreiben können. Dann ein assistant promt mit der gewünschten Ausgabe inklusive alle json Felder, die er nutzen soll. Zum Schluss kommt die user message. Zack und ich habe grundsätzlich ein Json output wie ich das haben will 😊
@harunturkoz1036
@harunturkoz1036 Год назад
Würden Unternehmen nicht eher den Azure OpenAI Service verwenden?
@StyleTechnique
@StyleTechnique Год назад
6:20. Hast du da etwa geschnitten, du Schummler...😂
@perschistence2651
@perschistence2651 Год назад
Mal wieder ein neues Feature von ClosedAI.
@hanshans4006
@hanshans4006 Год назад
Wie sieht das ganze dann mit Copilot aus, wobei Microsoft ja bald ähnliches anbieten wird. Laut Microsoft soll ein auf den firmeninternen Daten finegetuntes Modell keine Copyright-Verstöße mehr machen. Bin mir da unsicher, aber gespannt was die Zukunft bringen wird.
@ArneBab
@ArneBab Год назад
"Fine-Tuning Daten durch Moderations-API" ?!? - wie krass. Wie doof könnte jemand sein, das zu verwenden? Du weißt auch nicht, was ein KI-Modell aus deinen Daten lernen kann: die Daten bleiben alle da draußen und die nächsten KI-Generationen können da potenziell viel mehr rausziehen.
@derrgbist5078
@derrgbist5078 Год назад
Wieso nutzt man dann nicht einfach lama 2 um die Probleme zu umgehen
@Toebaay
@Toebaay Год назад
Weil man sich dann auch um das Hosting kümmern muss. Aber generell eigentlich keine schlechte Alternative. So hätte man die größtmögliche Kontrolle.
@derrgbist5078
@derrgbist5078 Год назад
@@Toebaay ich mein bei den Preisen ist hosten bestimmt die bessere Lösung und man muss ja nicht hosten wenn man für ein paar hundert Euro ne Grafikkarte kauft
@cfo3049
@cfo3049 Год назад
Hab gelesen das GPT 4 jetzt in Bing integriert werden soll. Da stellt sich ja dann die Frage nach dem Bezahlmodell.🤔
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Ist schon, ich konnte es auswählen
@quieselwusul3717
@quieselwusul3717 Год назад
GPT 4 läuft doch auf Azure so weit ich weiß, also auf Microsofts eigenen Servern
@ChristophBackhaus-l1n
@ChristophBackhaus-l1n Год назад
Ich hätte gerne ein vollständig auf Astro trainierten Copilot, der mir auch die Files erstellen kann.
@Raketenclub
@Raketenclub Год назад
bitte Bitte BITTE B1TT3 keine AutoMagie! Lasst die Kids nicht mit den Daten spielen........ Nein...Doch....Oh weiahhhh
Далее
How to Use GPT 4O Mini (ChatGPT + OpenAI API)
12:56
Просмотров 3,5 тыс.
Fine-Tuning GPT Models with Python
23:14
Просмотров 14 тыс.
Google "reinvents software development"
14:23
Просмотров 106 тыс.
Mistral, LLaMa & Co. - Use free AI giants locally
38:59
OpenAI Introduces Fine-tuning with GPT 4o (Tutorial)
11:04
This Llama 3 is powerful and uncensored, let’s run it
14:58