Тёмный

GPT4All: Open Source AI can already keep up with ChatGPT! 

The Morpheus Tutorials
Подписаться 249 тыс.
Просмотров 36 тыс.
50% 1

Local. Free of charge. Active community. And above all, open. That sounds exciting.
Here are the links:
gpt4all.io/index.html
home.nomic.ai/about
/ how-google-defeated-op...
Self learn computer science for free on my website: bootstrap.academy/
*All my social media portals*:
_ bio.link/themorpheus
Discord:
the-morpheus.de/discord.html
Support me - Thank you!:
www.patreon.com/user?u=5322110
www.paypal.me/TheMorpheus

Опубликовано:

 

7 июн 2023

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 126   
@8bitbrainz
@8bitbrainz Год назад
Es wär echt cool wenn die so nen Client programmieren würden, wo jeder seine Graka zur verfügung stellen kann um gemeinsam an nem richtig richtig guten modell zu rechnen. Würde mich glatt beteiligen.
@thomasspornraft2612
@thomasspornraft2612 Год назад
Sowas wie "fold at Home" damals als man Proteine berechnen konnte.
@blazzycrafter
@blazzycrafter Год назад
gibt es für all LLM´s nennt sich KoboldAI zumindest fürs generieren der texte
@fortunato1957
@fortunato1957 Год назад
@@thomasspornraft2612 Ja, oder "SETI@Home". Ich glaube, das gibt es immer noch.
@X4n1c
@X4n1c Год назад
yeaaa distributed computing
@Labtecs937
@Labtecs937 Год назад
So etwas könnte ich mir Mega gut für ein internes Firmen Wiki vorstellen. So könnte man relativ schnell an das know How kommen welches die Arbeitskollegen zusammengetragen haben ohne dabei sich selbst durch den Daten Berg wühlen zu müssen.
@Schorsch180
@Schorsch180 Год назад
sehr gute idee
@creytax9802
@creytax9802 Год назад
Kann ich mir auch sehr gut für Behörden vorstellen.
@AS-os3lj
@AS-os3lj Год назад
@@creytax9802 Behörden und Neuland... Ich glaube nicht. Die würden eine ChatGPT Fax Schnittstelle entwickeln...
@mrysexe
@mrysexe Год назад
Wenn man findet, dass Stable Diffusion nicht an Midjourney heran kommt, hat man nur noch nicht genug Stable Diffusion Models gesehen - change my mind
@Tudas
@Tudas Год назад
Also einfach aus dem Haus raus, ohne Models, Lora, Embeddings etc. ist Stable Diffusion definitiv schlechter, genauso muss man viel genauer mit dem Prompts sein (inkl. Negativer), aber mit mehr Arbeit, ist Stable Diffusion definitiv besser.
@lars7898
@lars7898 Год назад
Stable Diffusion kann schon ziemlich gute Ergebnisse erzielen, wenn man mit den Prompts umgehen kann. Zwischen SD1.4 und 1.5 ist auch ein ziemlicher Sprung, finde ich. Dazu kommt, dass Midjourney ja auf leistungsfähigen Servern läuft, während bei Stable Diffusion jeder mit seiner eigenen Hardware herhalten muss. Hat man wenig VRAM, muss man mit geringer Auflösung leben...
@mrysexe
@mrysexe Год назад
@@lars7898 +6GB VRAM Speicher reichen aus, um Ergebnisse, die Midjourney gleichen, zu generieren. Theoretisch würden auch +4GB VRAM ausreichen, läuft dann aber auch dem entsprechend instabil. Wenn man sich von einer KI dann einen Prompt generieren lässt und man sich minimal mit Models beschäftigt hat, kommt man auf mindestens gleich gute Ergebnisse. Midjourney ist dafür aber benutzerfreundlicher und wie du auch gesagt hast, besser für Leute mit schlechter Hardware.
@linux292
@linux292 Год назад
Stable Diffusion ist schon deshalb besser, weil es lokal läuft und man kostenlos unbegrenzt viele Bilder generieren kann.
@user-xu3so2ug1f
@user-xu3so2ug1f Год назад
open source projekte sind echt was cooles :) ich schreibe auch eigentlich allen meinen code komplett offen
@WollknaeuelSockenbart666
@WollknaeuelSockenbart666 Год назад
I love it. And I'm using it in my IT studies together with GPT 4. Thanks for y
@hobo_1616
@hobo_1616 Год назад
Mal wieder ein super informatives Video! :) Hast du schon von "QLoRA" gehört? Ist soweit ich es verstanden habe eine neue Technik Finetuning für LLM vorzunehmen. Das spannende hierbei ist, dass das Trainieren extrem schnell ist und daher auch mit begrenzten Resourcen realisiert werden kann.
@PhalzuBG
@PhalzuBG Год назад
Ich arbeite mit GPT4All schon ein paar Wochen und finde die beiden vicuna-Modelle mit Abstand am besten bisher :D
@valentinsipad4269
@valentinsipad4269 Год назад
So lange darauf gewartet, dass das passiert
@damians1343
@damians1343 Год назад
haha am Ende erzählst du "man kann das ganze auch selbst trainieren" und ich denk mir, "ja geil das will ich jetzt wissen"... und Video war zu Ende :-) Aber geiles Video. Danke
@19OEmer
@19OEmer Год назад
Es wäre Cool wenn es ein Plugin für das deutsche Steuersystem geben würde. Das wäre eine erleichterung für viele freelancer :D
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Ja! Bitte
@tinkerpaper
@tinkerpaper Год назад
Kannst du auch mal ein tutorial machen wo du so eine Ki programmierst und trainierst (am besten mit tensorflow)?
@Philipp..
@Philipp.. Год назад
Ich könnte mir gut vorstellen wie verschiedene spezialisierte Modelle zusammenarbeiten könnten indem sie durch ein auf Konversation spezialisiertes Modell koordiniert werden.
@aketo8082
@aketo8082 Год назад
Vielen Dank. Wie trainiert man den GPT4All? Kann man auch einstellen, das die GPU genutzt wird?
@VampireSilence
@VampireSilence Год назад
14:50 Songtexte stelle ich mir um Bezug auf Originalität schwierig vor, denn die künstlerische Tiefe ergibt sich ja zu einem gewissen Anteil daraus, dass es etwas so in der Form eben noch NICHT gegeben hat. D.h. je größer die Abweichung von den Trainingsdaten, desto origineller ein Songtext. Und genau das wird mit dem Modell nur extrem selten passieren. Trotzdem kann natürlich auch ein weniger origineller Text unter anderen Gesichtspunkten dem Anwender gefallen.
@chaosaiart
@chaosaiart Год назад
Stable Diffusion ist weit vor Midjourney. Midjourney ist einfach für Neulinge. bei Stable Diffusion ist aber so viel mehr Möglich und die Ergebnisse wenn man sich auskennt sind um Welten besser. (Controlnet usw.)
@josefjohannmichel
@josefjohannmichel Год назад
ChatGPT ist auch für musikalische Kompositionen interessant, da es musicxml lesen und schreiben kann. ChatGPT ist aber im musikalischen Kompositionsbereich nicht besonders trainiert (Aussage von ChatGPT: musikalische Komposition ist schwierig, ich muss noch viel lernen). Hier wäre interessant ob GPT4all ein Möglichkeit für ein speziell auf musikalische Kompositionen trainiertes Modell wäre. Wie fragt man bei der Opensource Entwicklergemeinde an, ob sich eine Gruppe dieses Themas annehmen könnte und ein derartiges open Source Modell erstellt, dass man selber noch weiter über eigene musicxml Dateien trainieren kann.
@ugurcanlar739
@ugurcanlar739 Год назад
Danke!
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Ich danke dir!
@user-xu3so2ug1f
@user-xu3so2ug1f Год назад
18:45 naja dafür auch den vorteil das zensur nicht mehr so leicht umzusetzen (zb kann china leicht openai dazu zwingen das die chinesische version sagt das es keine menschenrechtsverstöße in china gibt usw.)
@TT-pi8ww
@TT-pi8ww Год назад
In China sind alle westlichen Chat/Social-Media Platformen komplett verboten. Genauso wie in Russland. OpenAI kann von deren normalen Einwohner garantiert nicht genutzt werden.
@dtjanixx
@dtjanixx Год назад
du kannst ein 2. openai konto nutzen und den api key für gpt 3.5 nutzen (AutoGPT)
@chrishonesscheid1399
@chrishonesscheid1399 Год назад
Danke dir für die info. Aber kannst du vllt noch ein installierungsvideo hochladen? Weil gpt4all mir grade eine möglichkeit zur verknüpfung bietet. Und da noch weitere interessante aspekte sind die ich gerne erklärt bekommen hätte😅
@Hotte1967
@Hotte1967 11 месяцев назад
Für mich wäre interessant wie ich chatgpt sage, dass die Models einen anderen Pfad haben.
@AndreasGosch
@AndreasGosch Год назад
Moin, danke für das Video. Das geht alles schon mal in die richtige Richtung. Auf meinem Wunschzettel wäre aber, dass die Modelle Zugriff auf das Internet hätten, um aktuelle Recherchen durchzuführen. Genau, dass sie sich weiter personalisieren lassen. Beispiel ich wäre Hobbykoch. Dass ich die AI fragen kann welches Gemüse hat Saison, durchforste meine Umgebung nach Angeboten. Erstelle mit mir einen Ernährungsplan*** nach meinen Wünschen. Schreibe mir einen Einkaufszettel und so weiter…. Ich denke das wird früher oder später kommen. *** Ich füttere ihn vorher mit Informationen, wie ich bin Diabetiker, Laktoseintoleranz oder welche Lebensmittel ich nicht mag
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Komplett deiner Meinung
@soacker264
@soacker264 Год назад
Spannend!
@jovankaschauder3369
@jovankaschauder3369 Год назад
Ich bin noch in der Ausbildung und lerne viel über deinen Kanal. Diesmal war Open-Source KI dran. Ich sollte sie lokal installiern und jetzt kam die Idee, , dass alle Abteilungen darauf zugreifen können über den localhost? Wie kann ich das bewerkstelligen? Geht das überhaupt?
@thomasspornraft2612
@thomasspornraft2612 Год назад
Weisst du ob man das auf der lokalen GPU zum laufen bekommt? In den Docs gibts immerhin ein Tutorial wie mans auf Google Colab laufen lassen kann. Finde bisher das "snoozy" modell recht gut aber auf CPU ist das recht langsam und je länger der chat wird desto langsamer scheint es zu werden Was hadt du für ne CPU? Scheint bei dir schneller. Hab selbst Ryzen 3900x
@8bitbrainz
@8bitbrainz Год назад
Hay ich hab mich nicht eingehend damit beschäftigt, aber auf meinem Steamdeck gehts sogar recht fix. Dachte daher, die Grafikeinheit wurde genutzt. Scheint auch so als sei die Oberfläche mit DirectX oder so, weil ich die Werte eingeblendet bekommen hab a la Steamdecktools (so wie rivatuner) Alsooo ich hab trotzdem keine Ahnung. EDIT: Oh und iwie war die CPU auslastung nur auf 40% aber bei meinem 24 kerner alles auf 100% das war echt komisch. Oder ich habs das nur geträumt.. hm ne ich bin so verwirrt.
@zwixx259
@zwixx259 Год назад
Probier mal die Threads hochzusetzen in deinen Einstellungen. Bei mir hat er irgendwas nicht ordentlich erkannt und meine CPU war gerade mal zu 20% ausgelastet bei der Berechnung.
@thomasspornraft2612
@thomasspornraft2612 Год назад
@@zwixx259 hab schon 24 Thread am start und die laufen alle auf 100% Vielleicht bin ich auch nur zu ungeduldig. zuviel Bard und ChatGPT genutzt 😂
@8bitbrainz
@8bitbrainz Год назад
Nö habs grad nochmal getestet. Es werden halt wirklich einfach nur die 8 Threads von der CPU genutzt und das scheint echt auszureichen. (bzw das ist auchdas einzige was das steamdeck zu liefern hat) Davor hab ich es auf nem kleinen Laptop mit nur 4 Kernen (und threads) getestet wo es wirklich sehr sehr langsam war. Da waren allerdings 12 GB ram verbaut. Beim Steamdeck jedoch 16 (wo aber (custom value) der Graka gehören (in dem fall 4 gb))... Hab aber ein anderes Programm verwendet. Da war das mit dem RAM management noch anders. Kurz gesagt: Auch das Steamdeck benutzt nicht die Grafikeinheit und es ist wirklich subjektiv wie schnell die Wörter errechnet werden.. Sorry dafür .-. Ich fand es für ein Handheldgerät echt schnell, weil ich diesen lahmen Laptop gewohnt war. Die endgültige Frage bleibt: Warum hat mein Hauptrechner 100% und errechnet das schnell, jedoch hat mein Steamdeck auch ne recht schnelle rechenzeit- ist aber währenddessen nur auf 40--50%!? Wenn unser guter Herr Morpheus will, dann schick ich ein paar benchmarks und Videobeweise nach. Auch wenn ich voll falsch liege, ich will hier nur Testergebnisse liefern.
@Lauch-Melder
@Lauch-Melder Год назад
Puh, ich werde alt. 😂 Ich erinnere mich noch, dass ich als Kind Tage und Wochen damit verbracht habe in der Config von Logox von G-DATA Antworten auf alle möglichen Fragen zu erstellen um mich dann damit halbwegs unterhalten zu können. Schon interessant, wie die Technik sich über die Jahrzehnte entwickelt hat. :D
@Olaf_Schwandt
@Olaf_Schwandt Год назад
hi, kann man auf lokale Files zugreifen? wenn ja, wird mit den gelesenen Inhalten trainiert, somt das Modell erweitert und wird das erweiterte Netz dann abgespeichert?
@1234minecraft5678
@1234minecraft5678 Год назад
Bin mal gespannt auf orca
@r.a.70
@r.a.70 Год назад
Wie kann man GPT4All mit eigenen Daten Futtern bzw. ein eigenes Modell dafür programmieren? Welche Schnittstellen gibt es dafür?
@sebastiank686
@sebastiank686 Год назад
man kann im programm ein verzeichniss angeben und der kann dann auf die enthaltenen dateien zugreifen. Aus irgendeinem Grund funktioniert das bei mir aber nicht so toll
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Japp, bei mir auch nicht. Ich glaube das ist noch nicht ganz ausgereift. Schauen wir uns asap an
@heinzpeterklein9383
@heinzpeterklein9383 Год назад
Genau. Wie kann man auf Basis bestehender LLMs eine eigene spezialisierte KI trainieren (auch kommerziell nutzbar!). Also ein konkretes Beispiel würde mich interessieren. Was ist mit wenig Geld möglich!?
@augustinaugustein5748
@augustinaugustein5748 Год назад
Wirklich interessante Videos. Hast einen neuen Zuschauer gewonnen. Gibt es denn überhaupt schon eine (kostenlose) KI, Modelle, Möglichkeiten für vollkommene DAU’s sich kleine Hilfsprogramme in Python schreiben zu lassen, so Kram wie nach individuellen Vorgaben und Vorlieben mal Verzeichnisse aufräumen zu lassen oder Lesezeichen in PDF Dateien erstellen zu lassen wo die nicht verfügbaren Originaldokumente leider kein Inhaltsverzeichnis hatten und so Tüddelkram wo man auch nicht ohne weiteres Programme findet weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen? Habe mal ChatGPT 3.5 und Bard gefragt weil ich gerade so einen Haufen PDF’s ohne Lesezeichen habe und das Lernen abends auf dem Tablet ohne Lesezeichen einfach nervt, aber das wurde nix. Viel Code, nur Fehlermeldungen, keine Lesezeichen.
@OmegaOctagonTesseract
@OmegaOctagonTesseract Год назад
*_"...weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen?"_* Was? Jeder mit ner 'Hacker-Seele', schreibt sich solche Sachen doch selber, um sich die 'Routinearbeit' zu erleichtern... Ich hab es 'damals' gemacht, ... und vor einiger Zeit, in nem Video von 'Halbzwilling'(glaub ich) gesehen, das es andere wohl auch machen... Das müsste halt nur irgendwo hochgeladen werden, bzw. müsste man wissen wo man so Etwas findet, für genau solche Fälle wie deinen, u/o meinen, in anderen Bereichen... Aber man kann noch so viel 'potenzielles Talent' haben, ohne 'Autodidakt' zu sein, wie in meinem Fall, und der DAU-Version bzgl. Google u co, ist man einfach aufgeschmissen... Und Programmierer wie Mathematiker sind ja eingebildet wie nichts gutes, mit *_ganz wenigen Ausnahmen_* wie ich einen in 'Morpheus' vermute. Und um nochmal auf das von dir zitierte zurückzukommen... Als ich 'damals' im Forum des 'Q-Basic Cafe' unterwegs war, hab ich mir uA sogenannte 'Kochbücher' runtergeladen, die im Grunde ein Sammelsurium an 'Fingerübungen' und 'Alltags-Routinen' darstellten wie zB. das '99 Bottles of Beer' (glaub ich hieß das). Und ich versuche hier nur Etwas anzustoßen, falls Jemand mitliest, und versteht was ich meine, und dir damit hilft, weil ich denke das es doch heute Etwas gleiches Derart geben *_'muss'_* . . . !?! Auf 'GitHub' zB. ... ? Gruß
@rektaltotal
@rektaltotal Год назад
Doch, wir haben den KEY. ;) ;)
@echtertill
@echtertill Год назад
0:33 Wenn sogar Google Schiss vor Open Source hat, ist das super... Hoffentlich wird irgendwann der Großteil der Software Open Source sein, damit man nicht mehr von großen Konzernen abhängig ist...
@Tudas
@Tudas Год назад
Das wäre ja schrecklich für den normalen Markt von unwissenden Leuten. Open Source klingt erstmal immer so als wäre es sicher für viele, aber gerade das ein oder andere kleine Projekt mag sich das zu nutzen machen und Schadsoftware so verbreiten, weil man denkt ja "Open Source, andere Leute überprüfen das schon!"
@Tri-Technology
@Tri-Technology Год назад
​@@Tudas Und Support von Firmen ist in der Regel besser bei Problemen. Dafür gibt es im Open Source Bereich manchmal schneller gewünschte Features.
@danielhofmann7126
@danielhofmann7126 Год назад
Die API ist bei der Pro-Variante von GPT4 inklusive.
@larscarminke364
@larscarminke364 Год назад
Moin hab auch mit gpt4all herum gespielt . wenn models in Englisch antworten ,schreibe ich nochmal" please speak in german " dann schreibt er alles nochmal in deutsch ;).
@mariof.1941
@mariof.1941 Год назад
über Azure bekommst den GPT4 key schneller... kann ich da auch Azure OpenAi nutzen ;-) ist eigentlich fast genauso nur muss man den API_Key Azure_OpenAI_ApiKey nennen
@xxxxTripplexxxx
@xxxxTripplexxxx Год назад
Der Vergleich ist aber sowieso nicht gerade fair. Da Chat GPT-3.5 ja über 175 Milliarden Parameter hat und das Snoozy-Modell 13 Milliarden. Aber das Geile ist ja, allein durch Feintuning lässt sich extrem viel Leistung herausholen. Das Ganze wird in den nächsten Monaten und Jahren so geil werden.
@SchattenZirkus
@SchattenZirkus Год назад
Also mich verwirrt der Name OpenAI. Wofür steht das Open ? Insgeheim Wünsche ich mir sogar das GPT3-4 auch wie bei Meta… freier wird
@raphaelsteffes4492
@raphaelsteffes4492 11 месяцев назад
Kannst du ein Video zum thema Traing machen? ich Würde gerne LLama 2 7B auf Klingonisch trainieren
@benherbst3620
@benherbst3620 Год назад
4:47 Kleiner Fehler im ton, sonst sehr gutes Video, finde die KI sachen sehr interessant
@Splicher
@Splicher Год назад
Jahre stimmt schon. Ich hab irgendwie 2021 nen Testzugang zu ner ChatKI bekommen. K.p. obs von OpenAI war oder nicht. Funktionierte auch damals schon recht ok, aber schlechter als die LLMs in GPT4ALL. Denke mal in nem halben Jahr hat die OpenSource Szene ChatGPT überholt
@Tudas
@Tudas Год назад
Sehr unwahrscheinlich, dass da OpenAI überholt wird.
@chatgpt4free
@chatgpt4free Год назад
Ich hab GPT4All ausprobiert und installiert. Ging soweit alles, aber dann ist mir bei einem Update fast der ganze Mac abgeschmiert und ich musste das Ding wieder runterwerfen. Schade eigentlich war aber ein schwerwiegender Bug, dessen Risiko ich nicht eingehen wollte.
@lexbach
@lexbach Год назад
Kann ich diese Modelle auch für meine eigene App nutzen? D.h. Meine Apps mit API-Schlüssel von diesen Modellen verbinden?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Dazu kommt was nächste Woche 👍
@T_aus_B_an_der_Spree
@T_aus_B_an_der_Spree Год назад
Das mit dem Key verstehe ich nicht. Das ging bei mir sofort. Habe das mal für AgentGPT eingerichtet. Aber überzeugt hat mich was da raus gekommen ist mal so überhaupt gar nicht
@t-i-m1673
@t-i-m1673 Год назад
Und wie trainiert man jetzt seine eigene ki
@LuciusTSuperbus
@LuciusTSuperbus Год назад
Ich fände es schon ganz praktisch, wenn das ganze von meiner Grafikkarte berechnet würde. Oder meinetwegen irgendwie so ein Hybrid-Ding, wenn sowas realisierbar ist, einfach zur Entlastung der CPU. Auch, wenn das ein Unter-/Mittelklassemodell der letzten Generation mit ganzen 8GB ist, hätte ich da trotzdem mehr Hoffnung, was die Leistung betrifft. Am Ende könnte der System-RAM mit 32GB dann zusätzlich genutzt werden, falls der Grafikspeicher nicht mehr ausreichen würde. Auch, wenn der wahrscheinlich der größte Schrott ist, den man kriegen kann (hab damals beim Zusammenbau als Laie halt nur Crucial, wegen guter Erfahrungen, und große Kapazität im Kopf gehabt und mich nicht groß weiter informiert), wären zumindest große Teile der Berechnung auf die Grafikkarte ausgelagert. Und wenn ich sehe, wie allein dieser GPT4All-Hub beim Verschieben ruckelt, als wäre ich mit Windows 10 auf einem Rechner aus 2010 unterwegs, habe ich für die Gen 10 Midrange CPU nicht mehr allzu große Hoffnung, dass da wirklich was läuft, sobald tatsächliche Leistung gefordert wird.
@stephankempa6914
@stephankempa6914 Год назад
Kannst du nicht mal ein Video machen, das zeigt, wie man ein LLM einigermassen schnell auf einem Raspberry zum laufen bekommt? Die ganzen Dinge, die zur Zeit rauskommen, brauchen trotzdem schon hefftige Hardware. Ein 7b model braucht auf meiner alten Kiste schon fast 1 Minute zum antworten. Das Ziel wäre kleine Hardware, aber trotzdem lokale model, die auch funzen.
@Tri-Technology
@Tri-Technology Год назад
Derzeit braucht das einfach zu viel Rechenleistung, wenn man vernünftige Antworten haben will oder eben extrem ausgefeilte Software, die sowas auf kleinen Geräten möglich macht aber dafür bezahlt man derzeit halt noch gut Geld bzw. behalten die großen Firmen für sich.
@XTR734
@XTR734 Год назад
Ich bekomme es unter Linux leider nicht installiert😒 und unter Windows ist es leider kaum nutzbar mit meinen betagten PC
@nilszimmermann7102
@nilszimmermann7102 Год назад
Wie viel CPU hast du auf diesem PC? Ich habe einen 16 GB RAM Laptop und groovy braucht teilweise 25 Minuten für eine Antwort. Danke!
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Hab ne 5950x, 64gb RAM
@R1D3R_
@R1D3R_ Год назад
Dankeschön
@nilszimmermann7102
@nilszimmermann7102 Год назад
@@TheMorpheusTutorials Danke!
@heinzpeterklein9383
@heinzpeterklein9383 Год назад
😂, extra einen up to 5GHz 12700H /12900H CPU, 64GB RAM … Laptop gekauft. Dann sind die Antwortzeiten vergleichbar mit ChatGPT.
@heinzpeterklein9383
@heinzpeterklein9383 Год назад
Stimmt, bestimmt 😂
@Velioris
@Velioris 8 месяцев назад
😁
@MrAli-dx9tb
@MrAli-dx9tb Год назад
GPT 4 funktioniert bei mir irgendwie nicht gibt nur error
@easypy
@easypy Год назад
Bleibe bei chatgpt 3 erstmal. :D
@heyho130
@heyho130 Год назад
GPT 4 LIVE ❤😅
@user-xu3so2ug1f
@user-xu3so2ug1f Год назад
btw im hintergrund dieser linkedin tab nervt ein wenig weil der die ganze zeit den titel ändert xD
@r.a.70
@r.a.70 Год назад
Mich würde sehr interessieren, wie ich GPT4All mit eigenen Daten futtern kann, damit es GPT4All aus diesen Daten lernt. Geht das überhaupt oder muss man dafür programmieren? Wenn ja, wie kann man so ein Modell programmieren? Vielen lieben Dank im Voraus für die Antworten.
@blank_35m
@blank_35m Год назад
gibt das schon als docker version ?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Leider nein 🥲 aber Llama gab's als docker. Ist etwas weiter vorne in der Playlist
@blank_35m
@blank_35m Год назад
@@TheMorpheusTutorials ja hab ich schon geteset lauft nicht auf meine synology leider
@musil63
@musil63 Год назад
Ich rate dazu jedes Model mal zu laden und dann zu schauen wie schnell sie antworten und vor allen Dingen wie umfangreich die Antwort ist und wieviel von dem Geschwafel auch noch verwendbar ist. Was bringt einen der ganze zensierte Käse ? Ja nix. Bei den Tests auf meinen eher durchnschittlichen Rechner, Lenovo ThinkStation P500 hatte ich da die besten Erlebnisse mit den Modellen "nous-gpt4-vicuna-13b" und "vicuna-13b-1.1-q4_2". Inzwischen gibt es auch FreedomGPT mit den Modellen LLAMA und ALPACA. Aber so richtig alltagsfähig kann man noch nichts von den GPT Desktop Versionen bezeichnet. Am meißten stinkt mir, das man das belehrende Gelaber nicht abschalten kann. Das ist ungefähr so sinnvoll als wenn man vor der Benutzung einer Flachzange die allgemeinen Geschäftsbedingungen durchlesen muss. Es gibr eine Gesetzeslage. Also was soll der Käse mit den ständigen Belehrungen dann ?
@lucienferenczy4897
@lucienferenczy4897 Год назад
Also Vicuna 13B ist momentan das beste model.
@RainerK.
@RainerK. Год назад
Da sind einige Sprünge im Ton. War das so gewollt? :D InstALLA klingt schrecklich. Es heisst InstOHLER.
@ORDER1510
@ORDER1510 Год назад
Die Schwarminteligenz der Gommunitys ist unschlagbar, hädd i x8
@creytax9802
@creytax9802 Год назад
Lol hab nach 15 Sekunden das Video gestoppt, um diesen Kommentar zu verfassen, weil mich der Einspieler abgeholt hat! :D
@karisch8472
@karisch8472 Год назад
Wird GPT4all auch von euch aufm PC geblockt ? Win 10
@linux292
@linux292 Год назад
Nö. Tuxedo OS.
@TT-pi8ww
@TT-pi8ww Год назад
ist das eigentlich Zufall das du hier oft die gleichen Themen behandelst wie Keno von c't3003, oder arbeitet ihr irgendwie zusammen?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Tatsächlich sind das Themen, die ihr bei mir angefragt habt 😅
@azmo_
@azmo_ Год назад
Was ist sein "anderer" Kanal?
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
In der Beschreibung ist Bio Link verlinkt, da sind alle 😊
@integeroverflowexception
@integeroverflowexception Год назад
418 I'm a teapot
@olis936
@olis936 11 месяцев назад
"OPENSOURCE" 😂
@Game_Lab_Germany
@Game_Lab_Germany Год назад
Erstmal OpenSource tätowieren lassen ö.ö
@lucamaximilian632
@lucamaximilian632 Год назад
Hallo Morpheus, ich habe soeben Chatgpt gefragt, wer denn the morpheus tutorials ist und bekam dabei die antwort, dass es sich um einen RU-vid Kanal von Florian Dalwigk handelt. Umgekehrt wenn ich nach florian dalwigk frage wird ueber den kanal the morpheus tutorials berichtet. Waere vielleicht auch interessant fuer ein video und ein gutes Beispiel dafuer, das AIs auch falschliegen koennen. Du koenntest auch analysieren warum chatgpt diesen fehler macht
@Reiner_Markenfreund
@Reiner_Markenfreund Год назад
·
@Sapoinho
@Sapoinho Год назад
I don't know why, anyway, improvement .... Sprich englisch oder deutsch, entscheide dich und entspanne dich. Zur Sache: GPT4all ist noch Welten entfernt von der Qualität, die ChatGPT liefert. Die meisten Modelle sind nicht brauchbar, man braucht viel Geduld, bekommt immer wieder gar nichts oder Hallos zurück. Snoozy oder Vicuna. B. sind zwar beeindruckend aber nicht vergleichbar mit ChatGPT. Das ist eine andere Liga, du implizierst mit dem Clickbait-Titel, dass GPT4all mit seinen Modellen an ChatGPT herankommt. Dem ist definitiv noch nicht so.
@milesmules
@milesmules Год назад
tf this guy talking about😂
@ismbeatz
@ismbeatz Год назад
nicht mal annähernd kann gpt4all mithalten
@arturschulz6190
@arturschulz6190 Год назад
Was los, Krise? Burnout? Machst nen bisel irren eindruck😅 Chill mal, alles wird gut😄
@Tudas
@Tudas Год назад
?xd
@tnaplastic2182
@tnaplastic2182 Год назад
Du solltest German learnen...!😮
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Na wenn das dein größtes Problem ist, ist ja gut 😊👍
@tnaplastic2182
@tnaplastic2182 Год назад
@@TheMorpheusTutorials Come on... Findest du nicht, dass du manchmal Englisch "overused"? Erinnert mich irgendwie an Otto und Englisch für Fortgeschrittene (English for Runaways), ohne es böse zu meinen...!
@TheMorpheusTutorials
@TheMorpheusTutorials Год назад
Stimmt schon, aber das passiert vermutlich, wenn man 80% Englisch liest oder spricht. Ich finde es bei mir nicht so übertrieben, aber ich versuche drauf zu achten
@tnaplastic2182
@tnaplastic2182 Год назад
@@TheMorpheusTutorials Ich kenne das Problem. Ich baue seit über 20 Jahren die Homebrew-Szene mit auf (speziell PS2-Sparte)... Da das eine internationale Kooperation ist, ist der Kontakt da auch Englisch. Ich finde es sehr gut, dass du versuchen möchtest etwas darauf zu achten. Die heutige Generation (Englisch gelesen xD) versteht das schon, aber da gibt es noch old-schooler und dann auch schlicht und einfach alte Leute... Alte Noobs sozusagen...!
@beka7989
@beka7989 Год назад
​​@@tnaplastic2182 nein das hat weniger mit Oldschool etc. zu tun, sondern mehr mit Kulturgut. Es gibt Wörter wie Internet, die sich halt durchgesetzt haben, aber es gibt noch Wörter in den verschiedenen Sprachen, welche nicht obligatory mit englichen Begriffen unnötig ersetzt werden brauchen, total unnecessary! Das Deutsch, aber auch jede andere Sprache mit englichen Begriffen verunstlatet werden sollte. Speak Englisch, ose fol tjetër gjuh si për shembull shqip, hablamos en espanol, no problemo, aber bitte nicht Sprachen mit Englisch mehr mixen als nötig. Meine Mutter- und Vatersprache sind albanisch, trotzdem muss ich zusehen wie "ur-Deutsche" die eigene Sprache freiwillig aus Lust daran "verenglischen". Da hätte ich mir Deutsch lernen sparen können, gleich englisch, in Mülleimer mit Goethes Sprache. Es gibt auf jeden Fall Wörter, welche gerne genutzt werden, die nicht gut übersetzbar sind, cool, kosher, halal, haram, mashallah, sind ins deutsche schlecht übersetzbar, aber manche Begriffe haben sehr gute deutsche Pandants, da kommen sich manche Online-Aktivisten, aber auch Lehrer, Manager, Politiker bis zum Kanzler womöglich "cool" vor statt Heimbüro "homeoffice" zu sagen (muss das h groß geschrieben werden oher breibt es wie im englischen kleines h?). Oder statt Arbeitamt "Jobcenter", und mehr Verunstaltungen der Sprache, die sogar von höchsten Ämtern betrieben wird... Besonders nervig wird das ganze, den nicht Deutschen für Aufenthalt, Einbürgerung, etc. Deutsche Sprache aufzuzwingen, aber Politiker sagen mit gewissem Stolz "homeoffice", da könnt ich solchen hypocrite Politikern ein Bürotisch in die amerikanische Fresse klatschen. Totengräber sind weniger die Zuwanderer, wir scheinen Goethes Erbe mehr zu Beschützen als die Eliten des Landes... übrigens habe ich freiwillig in einer AG im Gymnasium Sütterlin lesen und schreiben gelernt, 90% der Deutschen:"was ist das denn?" 😂
@tnaplastic2182
@tnaplastic2182 Год назад
"ein starkes Improvement"......... 🙄
@leweed3049
@leweed3049 Год назад
ich der einfach den gpt4 api key schon seit 1 Monat hat
@PhillipAmthor
@PhillipAmthor Год назад
O P E N S A U C E P E N S A U C E
Далее
Offline, free and WITH CODE | GPT4All and Python
7:26
The BACKDOOR in XZ Utils: The WORST ATTACK this year
29:39
Super simple: Your own ChatGPT | GPT4All review
13:39
Просмотров 145 тыс.
Google "reinvents software development"
14:23
Просмотров 106 тыс.
Mistral, LLaMa & Co. - Use free AI giants locally
38:59
GPT4all mit lokalen Dokumenten füttern
10:18
Просмотров 8 тыс.
ChatGPT Explained Completely.
27:39
Просмотров 1,2 млн
Run your own AI (but private)
22:13
Просмотров 1,2 млн
Die neue BESTE OFFENE KI ist da: MIXTRAL 8x22B
27:16
Просмотров 29 тыс.