Тёмный

Lokaler KI Server von Apple?! Self-Hosted ChatGPT auf dem Mac 

ApfelCast
Подписаться 58 тыс.
Просмотров 12 тыс.
50% 1

Опубликовано:

 

30 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 59   
@klogganogga450
@klogganogga450 3 месяца назад
Super! Interessant wäre aber auch, da preisgünstiger, eine Lösung von AMD, denn deren "U" CPUs bieten auch KI-Beschleunigung der 2. Generation, die laut Benchmarks die von Apple übertreffen soll (Die Ryzen 88xx Modelle)
@Silberschweifer
@Silberschweifer 3 месяца назад
spannend sind die LLM dazu kompatible? meisens scheitert es daran das die KI Modelle die Neural Engine garnicht nutzen können
@krauterhexer
@krauterhexer 3 месяца назад
Laut Specs sind die beiden NPU´s gleich stark, je 16 TOPS
@stefancho
@stefancho 3 месяца назад
Mir haben hier noch Informationen zum Arbeitsspeicher gefehlt. Wie viel RAM sollte mein Mac Mini dafür haben? Ab wann bekomme ich Limitierungsprobleme bei meiner lokalen KI bei zu wenig RAM?
@Silberschweifer
@Silberschweifer 3 месяца назад
also 3B Modelle schafft ein 8gb Ram gut. ich denke nach oben ist viel Luft und mindestens 16 GB sollten es schon sein damit schaffst du gut 7B Modelle
@YourLofiChillTunes
@YourLofiChillTunes 3 месяца назад
Auch wenn es RU-vidr gibt, die immer gern gegen dich schießen, ich finde deine Videos Inhaltlich gut. Danke dafür!
@jakobholzner
@jakobholzner 3 месяца назад
Interessant, wäre mir bisher nicht so aufgefallen. Wer denn zum Beispiel? und mit welcher Begründung haten die?
@Hilfe
@Hilfe 3 месяца назад
@@jakobholznerwürde mich auch interessieren 🤔
@Natrix1138
@Natrix1138 2 месяца назад
Welche RU-vidr meinst du ?
@aaartist_yt
@aaartist_yt 3 месяца назад
Sehr interessantes Video. Ich stand Ende letzten Jahres auch vor der Suche für einen lokalen AI Rechner, habe mich dann aber für ein Custom build PC mit ordentlicher Grafikkarte entschieden. Die NVIDIA Unterstützung ist bei den meisten Lösungen hier wirklich ideal. Habe auch gleich mal den "ApfelCast Benchmark" gemacht ;) MacBook M1: 58s (10.75 tokens/s) Windows mit RTX4070: 17s (54.73 tokens/s) Zeigt mir auf jeden Fall, dass es die richtige Entscheidung war, auch wenn ich lieber einen Mac genommen hätte. Der PC ist schneller als der MacMini und hat den Vorteil das viel viel größere Modelle geladen werden können. Das gleiche kann man scheinbar auch mit einem MacStudio erreichen, aber dann leider für den 3-4 fachen Preis. Das war es mit nicht wert.
@15TstepsAday
@15TstepsAday 2 месяца назад
Zur Info für alle, die es interessiert: mein 2018 Mac mini, 3.2Ghz 6-Core Intel i7 mit 64GB Ram brauchte für den Eiffelturm-Text zwischen 1min40 und 2min00 (6.37 tokens/s)
@15TstepsAday
@15TstepsAday 2 месяца назад
@aaartist_yt: Hast Du eine Idee, weshalb ein MB M1 etwa 3x langsamer ist, wie der M2 Mac mini? Ist da ein so grosser Unterschied? Laut Geekbench und Anzahl GPUs dürfte der M2 nur etwa maximal 25% schneller sein...
@aaartist_yt
@aaartist_yt 2 месяца назад
@@15TstepsAday Kann mich nicht mehr erinnern, welcher Mac Mini M2 im Video genutzt wurde. Den M2 Mac Mini selbst gibt es ja in verschiedenen Ausbaustufen. Ansonsten können auch noch viele andere Faktoren eine Rolle spielen. Unterschiede im RAM, schnellere oder langsamere SSDs (das ist bei Apple ja auch immer Glücksspiel), möglicherweise kann der MacMini auch mehr Strom aufnehmen als ein MacBook + der MacMini bekommt die Abwärme sicherlich schneller weg als so ein MacBook. Zudem kann es auch sein das der M1 während der Aufgabe gerade noch andere Sachen zu tun hatte. 3-fache Geschwindigkeit hätte ich jetzt auch nicht getippt, aber kann schon hinkommen.
@15TstepsAday
@15TstepsAday 2 месяца назад
@@aaartist_yt Ja, Du hast Recht, es wurde im Video nicht genau gesagt, welcher M2 mini genutzt wurde, es wurde aber immer wieder das Basismodel mit 8GB Ram erwähnt. Ich frage so detailliert nach, um abschätzen zu können, ob sich eher ein gebrauchter Mac mini mit M1 und 16GB Ram lohnt oder eher ein neuer mit M2. Aber beim einem Neuen ist man ja nach oben fast unbegrenzt und man sollte dann vielleicht besser auf einen Mac mini mit M4 warten...
@15TstepsAday
@15TstepsAday 2 месяца назад
Also, ich habe mir einen M1 Mac mini mit 16gb Ram besorgt: er braucht tatsächlich 55s bis 1min 05 für diese Textaufgabe. Das neue llama3.1 Model braucht sogar 1min 30. Da scheint der M2 schon ein deutlicher Sprung nach vorne zu sein. Es fühlt sich dennoch schon recht flüssig an und es ich merklich reaktiver wie auf dem 3.2Ghz 6-Core Intel i7 Mac mini.
@borator1367
@borator1367 3 месяца назад
Bitte mehr Videos zum Mac mini als Server klingt zumindest sehr interessant in Sachen Stromverbrauch
@JustDonat
@JustDonat 3 месяца назад
Danke für deinen guten Content
@supergamer3186
@supergamer3186 2 месяца назад
Wie viel RAM hat dein MAC Mini?
@Crystallkill1989
@Crystallkill1989 2 месяца назад
Mac Mini M2 und Anything LLM als UI. Da ist sind auch Web-Scraper, Agents und RAG mit drin. Macht das alles so viel nützlicher! Danke für den Hinweis mit dem Mac!
@ingokreth587
@ingokreth587 2 дня назад
Interessant wäre es, wie man es hinbekommt, dass auch die Spracheingabe geht. Denn das Mikro wird immer geblockt da man keine https Verbindung hat.
@Hilfe
@Hilfe 3 месяца назад
Der MacMini als M4 Pro wird meine Offline Lösung für die KI Geschichten 😍😍
@iRed.
@iRed. 3 месяца назад
Hat irgendwer einen Mac Studio mit M2 Ultra? Mich würden da mal die Werte interessieren.
@olkov426
@olkov426 2 месяца назад
Wieder ein Interessanter Beitrag . Bedeutet lokal das dieser ki Server nach der Installation nicht mehr auf das Internet „zugreifen“ muss? Warum muss man zur Anmeldung auf seinem privaten Server seine Mail angeben? Das wäre schon interessant wenn man zb. Anschreiben erzeugt wo personenbezogene Daten angegeben werden. Danke und Grüße
@apfelcast
@apfelcast 2 месяца назад
Richtig, nach der Installation kannst du den Mac vom Internet trennen und die KI Funktionen funktionieren weiterhin. Die E-Mail Adresse dient hier einfach als Unique identifier.
@fn-l
@fn-l 2 месяца назад
Vielen Dank für dieses Video. Mich würde es interessieren, wie es sich verhält, wenn mehrere Anfragen gleichzeitig kommen., also zB im Kontext eines Klassenzimmers, wie reagiert dann das Modell? Werden die Prompts nacheinander abgearbeitet? Welche Version von Mac Mini ist dann zu empfehlen? RR
@Nash_Bridges
@Nash_Bridges 3 месяца назад
Ich würde mich sehr über mehr Content über den Mac Mini als Homeserver freuen. Genau so wie dieses Video finde ich es immer wieder schön wie du das zeigst und erklärst ohne jegliche Werbung. Wie immer sehr interessant und sehr gut gemacht!
@WohnzimmerYoutube
@WohnzimmerYoutube 2 месяца назад
Da lass mal lieber die Finger von und hol Dir etwas mit einer x86-64 Architektur. Beim Mac Mini funktioniert leider nicht mal mehr die Dateifreigabe zuverlässig.
@stefanmaas3026
@stefanmaas3026 2 месяца назад
💐
@krauterhexer
@krauterhexer 3 месяца назад
Ich würd dafür keine 8GB Mac Mini nehmen. die LLM´s sind sehr RAM abhängig/Lastig. Standard LLM´s brauchen mal so rund 4-6GB im RAM, größere auch mal bis über 20GB. Deswegen sind auch manche kleinere Iphone/ipad Modelle nichtfür die lokale KI vorgesehen. die CPU/NPU würde reichen, aber sie haben zu wenig ram. Ich würd zumindest 16GB nehmen.
@MichaelZwahlen
@MichaelZwahlen 3 месяца назад
Danke für das spannende Video. Kannst du die Leistung von OLLAMA einordnen im Vergleich zu Bildungsversion von Copilot (gratis für Studenten) und im Vergleich zu Copilot als Bezahlversion (privat). Wie siet es mit Copilot versionen aus? PS: Dein Voice-Sound bei Screenrecording ist top!
@saschaw.1176
@saschaw.1176 3 месяца назад
Erst mal danke für das Video. :) Hab es mal auf meinem MacBook Air getestet, leider ist da die Performance so schlecht, dass man damit nicht arbeiten kann. Teilweise hängt dann auch der gesamte Rechner, so dass man nicht mal mehr parallel arbeiten kann um auf die Antwort zu warten. Aber das video geht ja auch darum, dass ein extra Rechner der nur das Machen soll bereit steht. :)
@tomadur6212
@tomadur6212 2 месяца назад
Es ist super schade dass es von Apple selbst kein ServerOS mehr gibt. Ich frage mich wie die dass selbst in Ihren Rechencenter genau machen.
@KarlAlfredRoemer
@KarlAlfredRoemer 3 месяца назад
Irgendwie verstehe ich nicht, warum Tesla zehntausende Graphikkarten zu je 40000€ für KI benötigt, obwohl so eine Neural Engine im 700€ Mac mini ja auch schon brauchbar sein soll. Wenn mir das mal jemand erklären könnte...
@apfelcast
@apfelcast 2 месяца назад
Weil Tesla vermutlich eine Vielzahl an komplexen KI Anfragen gleichzeitig verarbeiten muss. Der Mac Mini ist ja nur für den Single User Case gedacht.
@johanneshauser857
@johanneshauser857 3 месяца назад
Und wie ist die Qualität der Anwworten, die hängt ja auch sehr von der Leistung ab
@ricou.3414
@ricou.3414 2 месяца назад
Wäre mal interessant den MacMini mit M2Pro mit in den Vergleich zu nehmen.
@uwerossocha3524
@uwerossocha3524 3 месяца назад
Das ist Super. Habe mir letztes Jahr für einen Test einen gekauft und seitdem hat er ein trauriges Dasein. Das wäre seine Rettung.
@alexmuler28
@alexmuler28 3 месяца назад
kannst du mal ein Vergleich zu googles tpu machen?
@lowkeylyesmith
@lowkeylyesmith 3 месяца назад
Hm, mich würde interessieren was du über folgendes Szenario denkst und ob ein MacMini dafür ausreicht. Ich arbeite gerade an einem Projekt für meine Behörde, wo es darum geht sichergestellte E-Mails, Nachrichten usw., mit Hilfe von KI nach verdächtigen Inhalten zu durchsuchen/analysieren. Bei mehreren 100.000en ist das manuell nicht mehr zu bewerkstelligen. Ich weiß, in der Cloud würde das kein Problem sein, allerdings ist es so das die Daten unser Haus nicht verlassen dürfen. Für einen performante Serverlandschaft fehlt hier leider auch das Budget. Was denkst du? Umsetzbar mit nem kleinen Mac?
@KK75288
@KK75288 2 месяца назад
Da fehlt so ein bisschen das drum herum. 100.000 Mails pro Stunde? Tag? Woche? Monat? Jahr? Was für ne Server Landschaft existiert bereits, hast du schon ne KI am laufen bei dir zuhause oder so? Fehlt dir da nur die Hardware weil du keine bekommst? Um was für verdächtige Inhalte geht es denn. Spam, Hack und Phishing? Da gibts aufem Markt schon ein paar Lösungen, die bestimmt auch on Prem laufen. Da fallen mir TrendMicro, Hornetsecurity oder Baracuda ein, ich weiß aber jetzt nicht ob die eine on Prem lösung bieten. Aber egal was in die Richtung geht, günstig wird nichts davon, egal ob Cloud oder on Prem die Unternehmen lassen sich das gut bezahlen, jedoch macht bei uns TrendMicro gute Arbeit. Wenns um andere dinge geht wofür es nichts gibt, bleibt nur eins, der Schuss ins blaue, mit nem Mac mini würdest du geldtechnisch jetzt groß nichts kaputt machen. Aber behalte halt im Hinterkopf, dass en Server mehr ausmacht als nur Performance. Schnelle Garantieabwicklung, ausgelegt für 24/4 Betrieb, Renudanz, usw.
@Computer-Liebhaber
@Computer-Liebhaber 2 месяца назад
Kann ich den Mac noch normal verwenden oder ist er dann nur noch KI-Server?
@firatguven6592
@firatguven6592 3 месяца назад
Ich habe den alten Macbook air M1 Laptop meiner Frau, bei dem das Display kaputt gegangen ist, für den gleichen Zweck im Wohnzimmer gestellt headless. Wenn ich doch Display brauche, wird er mit dem Fernseher verbunden durch eine Dockingstation. Ollama läuft und ist erreichbar im Heimnetzwerk. Allerdings sind die 8GB Arbeitsspeicher für KI Modelle gerade das unterste Limit. Hier laufen nur die kleinsten Modelle. Energieverbrauch ist sensationell bei den M Modellen. Ich bin jedoch kein Fan vom MacOS
@lutzakemann
@lutzakemann 3 месяца назад
RAM ist doch aufrüstbar, oder ??
@firatguven6592
@firatguven6592 3 месяца назад
​@@lutzakemannj nein leider, bei Air Modelle sind die RAM gelötet und es gibt keine RAM Riegel mehr, die man austauschen könnte. Dadurch wird das Laptop zwar sehr dünn, jedoch geht es auf Kosten upgradablity
@firatguven6592
@firatguven6592 2 месяца назад
@@lutzakemann Leider ist bei M Modellen der RAM und der SSD nicht mehr aufrüstbar => denn die LPDDR4 bzw. LPDDR5 RAMs sind auf dem SOC chip gelötet. Dadurch kann der Macbook Air so dünn designed werden, hat aber eben andere Nachteile. Es gibt aber sehr erfahrene Besitzer, die solche gelötete Chips doch umtauschen können mit speziellen Werkzeugen. D.h. technisch möglich wäre es aber nicht praktisch möglich für die meisten
@JustDonat
@JustDonat 3 месяца назад
oha muss ich gleich testen
@JustDonat
@JustDonat 3 месяца назад
also ich hab das video noch nicht ganz fertig geschaut aber schon der titel sagt meinem gehirn das ich das brauche
@lutzakemann
@lutzakemann 3 месяца назад
Was meinst Du, wird das auch so gut mit einem Mac Mini mit M1 Chip funktionieren?
@Silberschweifer
@Silberschweifer 3 месяца назад
Wieviel Ram hat er?
@lutzakemann
@lutzakemann 3 месяца назад
@@Silberschweifer auch 8 GB
@Silberschweifer
@Silberschweifer 3 месяца назад
@@lutzakemann 3B modelle 4Q sollten gut gehen. 7B 4Q Modelle mhm mit Wartezeit und nur wenn nichts anderes viel Ram benötigt
@lutzakemann
@lutzakemann 3 месяца назад
@@Silberschweifer weder 3B noch 4Q sagen mir irgendetwas ...
@Silberschweifer
@Silberschweifer 3 месяца назад
@@lutzakemann 3 Billion Parameter> sozusagen neuronale Verbindungen 4Q > 4 bit quantisierung, ist wie runden von Nachkommatellen. Je kleiner die Zahl desto kleiner und schneller wird das llm, allerdings produzieren schlechtere Antworten
@enzolorenzo2589
@enzolorenzo2589 3 месяца назад
Die Frage ist auch, was erst mit einem M4 geht. Bzw. den kommenden M5 usw., die noch deutlich performantere Neural Engines haben werden. Was natürlich ein echtes Killerargument ist, sind die max. 50W. Vermutlich wird es nicht mehr lange dauern, bis es Komplettsysteme auf ARM-Basis geben wird, die man sich zu Hause out of the box hinstellen wird können. Von Apple, HP, Amazon etc. etc. Bad News for Intel.
@Robert65536
@Robert65536 3 месяца назад
M5 wird deutlich performantere Neural Engines haben? Weißt du mehr als wir? Arbeitest du in Cupertino? Wie dem auch, ch pers. warte auch sehnsüchtig auf eine performante ARM-Kiste, die ich mir als Linux-Server hinstellen kann. Bei Windows wird es meiner Einschätzung nach noch dauern, bis x86 verdrängt wird. Stichwort Treiber…
@enzolorenzo2589
@enzolorenzo2589 3 месяца назад
@@Robert65536 Wo soll denn die Entwicklung hingehen? Der M4 hat schon einen größeren Sprung in die Richtung gemacht. Der M5 wird da sicherlich nicht zurückfallen. Wenn du jetzt einen performanten ARM-Linux-Server willst, hol die einen M4 Studio Pro und installier dann ein Linux. Aber warum? Ich finde, der Mac ist die perfekte Symbiose. Ein ausgewachsenes Unix und ein Desktop, der nicht umsonst als Kopiervorlage für alle andere diente und dient.
Далее
Apple M Chips - The End. Was it even worth it?
19:02
Просмотров 192 тыс.
OYUNCAK DİREKSİYON İLE ARABAYI SÜRDÜ 😱
00:16
Просмотров 2,7 млн
МАЛОЙ ГАИШНИК
00:35
Просмотров 225 тыс.
小路飞嫁祸姐姐搞破坏 #路飞#海贼王
00:45
The Rise of Microsoft Windows Part 2: Windows 2x
2:03:04
Просмотров 143 тыс.
FREE Local LLMs on Apple Silicon | FAST!
15:09
Просмотров 176 тыс.
host ALL your AI locally
24:20
Просмотров 1,1 млн
M2 Mac Mini Editing Review: Amazing Value
27:55
Просмотров 78 тыс.
Deine FritzBox ist übrigens ein NAS
13:17
Просмотров 93 тыс.
OYUNCAK DİREKSİYON İLE ARABAYI SÜRDÜ 😱
00:16
Просмотров 2,7 млн