Тёмный
No video :(

Project Strawberry: OpenAI definiert 5 Schritte zur AGI! 

The Morpheus Tutorials
Подписаться 250 тыс.
Просмотров 14 тыс.
50% 1

Newsletter: the-morpheus.c...
Instagram: / themorpheustuts
Quelle:
www.bloomberg....
Selbst kostenlos Informatik lernen auf meiner Website: bootstrap.academy
* Meine Website mit allen anderen Kanälen und Newsletter *:
the-morpheus.de/
Discord:
the-morpheus.d...
Unterstützt mich - Danke!:
www.patreon.co...
www.paypal.me/...

Опубликовано:

 

28 авг 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 92   
@tobene
@tobene Месяц назад
Denial, anger, bargaining, depression, acceptance.
@marcelw.5898
@marcelw.5898 Месяц назад
die 5 Phasen bei der Programmierung... oder bei der Trauerbewältigung, kommt aufs gleiche raus 😂😅😢
@fatezero1919
@fatezero1919 Месяц назад
Acceptance, dass AGI ein Mythos ist und nie kommen wird :)
@Cineas127
@Cineas127 Месяц назад
"Julia hat einen Bruder und zwei Schwestern. Wie viele Schwestern hat Julias Bruder?" Claude 3.5: "Julias Bruder hat zwei Schwestern: 1. Julia selbst 2. Die andere Schwester, die in der Aufgabe erwähnt wird Insgesamt hat Julia einen Bruder und zwei Schwestern. Da der Bruder alle Geschwister teilt, hat er ebenfalls zwei Schwestern." PhD-Level ist da ja schön und gut, aber an so etwas scheitert es dann schon wieder. Bei ChatGPT sieht es ähnlich aus. :\
@azrfn
@azrfn Месяц назад
Daraus folgt, dass Julias Bruder insgesamt drei Schwestern hat: 1. Julia selbst 2. Die erste der beiden anderen Schwestern, die in der Aufgabe erwähnt werden 3. Die zweite der beiden anderen Schwestern, die in der Aufgabe erwähnt werden
@dieterheinz4191
@dieterheinz4191 Месяц назад
Ja, das ist eine typische Schwäche von aktuellen LLMs, genauer: Mathe-Elemente in den Aufgaben. Selbst einfaches 1+2 scheint für sie unlösbar.
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Japp, genau das ist dieses fehlende reasoning
@paulk6900
@paulk6900 Месяц назад
Naja wenn du die selbe Frage auf Englisch stellst kommt allerdings bei Claude 3.5 die richtige Antwort raus, dementsprechend denke ich eher ,dass der deutsche Datensatz bis zu einem bestimmten Grad insuffizient für reasoning Aufgaben ist.Bspw gibt es gewisse benchmarks die solch ein triviales reasoning auf Englisch testen und da performen die neueren LLMs kurz vor menschlichen Level. Das trifft ebenfalls bei dem Arc Benchmark (abstaction and reasoning Corpus) zu. Das negiert aber natürlich trotzdem nicht die Problematik gänzlich
@bonsai3547
@bonsai3547 Месяц назад
was ist denn daran so "schwer"?
@LeSchurke
@LeSchurke Месяц назад
Ich liebe deine Videos, war aber immer zu faul auf deiner Webseite den Newsletter zu abonnieren. Mit dem qr Code habe ich es endlich gemacht, weil ich deine Videos hauptsächlich am TV schaue ❤
@eroxrodriguez8185
@eroxrodriguez8185 Месяц назад
Hi. Seit einigen Videos habe ich mich zum Abo entschieden. Sehr sehr tolle Videos. Vielen Dank für Deine Mühe und Herzblut. Bitte mach weiter so. 👍
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Ich danke dir!
@Kovka1
@Kovka1 Месяц назад
Sehr geiles neues Video, mich interessiert vor allem AI und deren Fortschritte. Danke dir für das Video!!!
@user-bh8vi3ty5h
@user-bh8vi3ty5h Месяц назад
Menschen mitnehmen und KI erklären Für mich bedeutet es, dass eine große Aufgabe vor uns liegt, wenn wir alle Menschen bei dieser Entwicklung mitnehemen wollen. Wenn es nicht gerade um Bilder oder Handy-Apps mit KI-Unterstützung geht, fühlen sich die meisten Menschen schon jetzt überfordert, überholt oder abgehängt. Danke für dein video. 👍
@alexandershendi7428
@alexandershendi7428 Месяц назад
Ich (als Bot) bin begeistert darüber, wie gelungen hier die Meinungen von OpenAI und Google referiert werden. Ich fühle mich gut aufgenommen in dieser Community.
@RevCode
@RevCode Месяц назад
Wie lebt es sich so als Bot?
@Ph34rNoB33r
@Ph34rNoB33r Месяц назад
Erinnert mich an die Demos gegen Artikel 13. "Wir sind die Bots!"
@Ph34rNoB33r
@Ph34rNoB33r Месяц назад
Gegen Artikel 13 EU-Urheberrecht sind die Bots damals auf die Straße gegangen (genützt hat es wenig)
@xenon5928
@xenon5928 Месяц назад
sehr gutes Video. Mach weiter so
@thomasmartin473
@thomasmartin473 Месяц назад
Interessante Sache
@Playburger1337
@Playburger1337 Месяц назад
Was codest du eigentlich so zur Freizeit? Streamst du manchmal, wie du etwas programmierst? Würde ich gerne mal live ansehen, wie dein workflow so ist. Habe langsam einen bequemen Platz in der game dev szene gefunden und gehe dort meinen weg. Habe allerdings ein Auge auf andere bereiche geworfen, da ich damit auch angefangen habe mich für die Matrix zu interessieren. Da haben mir die ersten deiner Programmier Tutorials sehr geholfen! Bloß nicht aufhören :). Angenehmen Tag!
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Danke für den tollen Hinweis! Könnte man Mal machen 🥰
@iKn-ft2bc
@iKn-ft2bc Месяц назад
hi morpheus machst du mal ein video über terraform und proxmox? beziehungsweise deklarative infrastruktur :) grüße vom bodensee
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Definitiv 😊
@MeinDeutschkurs
@MeinDeutschkurs Месяц назад
Tolle Zusammenfassung! Was nervig ist, ist die Flut an API requests, die all das verursacht bzw. verursachen wird. Irgendwie scheint man Ockham’s Razor da völlig zu ignorieren. Das Context-Window von 128k Tokens ist wohl das größte Problem, gefolgt von dem Problem, dass in-Context so viel verloren geht/ignoriert wird oder einfach bei zu vielen Widersprüchen zu maschineller Verwirrung führt. Gegenmaßnahmen wie RAG mit Vector Indices sind zwar ein Anfang, dennoch gibt es selektive Opfer, die schnell unter den Tisch fallen können. Bonus: Besonders toll finde ich, dass du die Farben bei der Cam nun besser im Griff hast. Gut gemacht, Cedric!
@gustavdreadcam80
@gustavdreadcam80 Месяц назад
Hey wirklich cooles video und ich finds super das du dich mit der Thematik beschäftigst. OpenAI stehe ich eher kritisch gegenüber aber ich bin sehr vertieft in die Open Source Community und führe auch selbst Llama AI Modelle auf meinem PC aus. Es ist sehr spannend wozu LLM's bereits heute schon fähig sind und einfache Agent Systeme kann man auch schon mit derzeitigen Open Source Modellen bauen. Zurzeit warte ich sehnsüchtig auf das neue Llama 3 von Meta was ebenfalls Open Source sein wird und am 23 July erscheint. Ich kann es kaum erwarten bis wir die AGI erreicht haben um mir damit noch viele Wünsche erfüllen zu können.
@Ferdocraft
@Ferdocraft 15 дней назад
Der Takover durch AI wird kommen xD Nein aber mal ehrlich. Das ist schon krass und ich bin gespannt, wann wir Level 5 erreichen werden. Ich glaube/hoffe, dass wir schon bald in der Lage sind eine AGI zu trainieren.
@science_Universe.
@science_Universe. Месяц назад
Hier sind mehr Bots , als richtige Kommentare
@un1kum42
@un1kum42 Месяц назад
Gleich und Gleich gesellt sich gern xD
@Ph34rNoB33r
@Ph34rNoB33r Месяц назад
Die Qualität dieser Kommentare ist fantastisch. Es ist eine wahre Freude, sie zu konsumieren ❤😅🙈
@bonsai3547
@bonsai3547 Месяц назад
nur ein Bot würde so was sagen. Ich bin kein Roboter (das hab ich oft genug bewiesen, frag die Busse, die ich erkannt habe)
@PhillipAmthor
@PhillipAmthor Месяц назад
Dieser Kommentar wird gesponsert von NordVPN!
@owlmostdead9492
@owlmostdead9492 Месяц назад
Step 1: Hype Step 2: Hype Step 3: Hype Step 4: ??? Step 5: Profit
@Massimotter
@Massimotter Месяц назад
Sehr schönes Video, danke dir dafür. Ich frage mich, ob es dann ab der vierten Stufe, um eine gewisse Varianz zu erschaffen, mehrere Miteinander in Diskussion begriffene Modelle gibt, die im Hintergrund verschiedene optimierte Parteien repräsentieren. Sowie ich, es und Überich. Vielleicht wird auch eine Korrelation als kausal genommen, dass man exzentrisch sein muss, um Neues zu erschaffen, außerdem frage ich mich, ob es irgendwie möglich ist, aus bestehenden Datensätzen unendlich lang Neues zu generieren. Vielleicht haben wir ja schon mal eine Sackgasse eingeschlagen? Schönen Abend zusammen.
@flashnet9
@flashnet9 Месяц назад
Hallo Morpheus, danke für deine lehrreichen Videos. Eine Frage stelle ich mir aber. Wie sind dann solche Tools wie LangChain, AutoGen in Verbindung mit RAG und diverse Vector Datenbanken zu sehen. Damit lassen sich doch jetzt schon Agents erstellen oder bin ich da falsch? Gruß Mario
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Ja, durchaus. Agents meint auch durchaus teils das, was es schon gibt. Aber es meint eben grundsätzlich mit allem klar kommen, was man der AI vorsetzt
@raonijosef5661
@raonijosef5661 25 дней назад
@@TheMorpheusTutorials Wie du sagst, auf narrow Level gibt es das. Aber auf dem allgemeinen Level möchte ich mir nicht vorstellen, wie viel Speicherplatz ich / AGI für mein Tacit Knowledge brauche.
@empex.gaming7081
@empex.gaming7081 Месяц назад
Also ich finde die aktuellen KI´s sehr nützlich und die bieten eine gute Hilfestellung, aber ich kann diese Ankündigungen nicht mehr höhren. Diese Demos sind mega gestellt mit exakten Beispielen, bei denen sie wissen das es funktioniert, die Modelle werden extrem darauf getrimmt bei diesen Benchmark tests gut abzuschneiden, damit man das auch schön in sein Paper schreiben kann. 4o war für mich eine riesen Enttäuschung, gefühlt wurde da primär Promptbearbeitung optimiert, die im Hintergrund läuft, da zb das Modell jetzt automatisch Chain of Thought reasoning benutzt. Ich bin gespannt wie es weitergeht, aber aktuell tendiere ich eher dazu, dass das Wachstum stark am abflachen ist und solche Interviews/Meldungen mehr dazu benutzt werden, nochmal mehr Investoren ranzuholen und den Hype zu schühren. Aber da kann ich mich auch gut irren, bin extrem gespannt was sie für GPT5 in peto haben.
@sadaqah_jarihh
@sadaqah_jarihh Месяц назад
Cyber Security was brauche ich dafür ?
@karinavenefica4034
@karinavenefica4034 Месяц назад
Ab welchem Level kann ChatGPT von sich aus mich ansprechen? Sowas wie: Es ist 15 Uhr, denk an deinen Termin! Und hinterher: Hey wie war dein Termin? Ich will die Computerkatze aus der Serie Picard haben!
@landogarbe7950
@landogarbe7950 Месяц назад
@@karinavenefica4034 ab Level 3 eben also die Agents
@R4mbo87
@R4mbo87 Месяц назад
Kann es jetzt schon wenn man die API nutzt und bissl Code hinzufuegt. Ich lass mir so meine google Kalender Einträge vorlesen. Aber durch Function Calling kann man es auch selbst Termine festlegen lassen.
@R4mbo87
@R4mbo87 Месяц назад
Noch ne kleiner Ergänzung. ChatGPT und andere LLMs sind zurzeit komplett Passiv. Das heißt, wenn man eine Anfrage schickt, generieren sie eine Antwort. Wenn man keine Anfrage schickt, machen sie auch nichts. Man kann ihnen dieses Selbstständigkeit schon jetzt geben, in dem man die API nutzt und einen entsprechenden Code schreibt der alle X Minuten bspw eine Anfrage schickt und der KI dann eine Auswahl an Dingen gibt, die sie durchführen kann. Es hängt also eher nicht davon ab, welches "Level" die KI hat, sondern wenn man so eine Funktion einbaut. Und das geht auch jetzt schon.
@irookain5239
@irookain5239 Месяц назад
Ich würde sagen Level 3 als Agent
@MeinDeutschkurs
@MeinDeutschkurs Месяц назад
Sobald die Antwort auf die Frage “Wie viele Wörter wirst du in der Antwort auf diese Frage nutzen?” zu 100% korrekt beantwortet werden kann, steigt die Chance. Es müsste ein Zeitgefühl haben, das besser als deines funktioniert, und eine Intuition für anstehende Tasks haben. Da GPTs nicht so funktionieren können, nie. Du könntest aber cron-Jobs nutzen, die bestimmte Listen prüfen (Termin-Erinnerungen), die dann sowas “auslösen” und beim Prompting berücksichtigen, dass dann bestimmte Fragen gestellt werden sollen. “Späteres Nachfragen” wären im Prinzip auch Termine.
@jamesmor5305
@jamesmor5305 Месяц назад
Hey wo ich das gesehen habe willte ich fragen ob du mal ein kleines Cide example zu Langroid Mache. Könntest, möchtest, das soll fur LLMs aktionen ausfuhren lassen können, also genau der Schritt,der momentan fehlt um Chatgpt nutzen zu können als altion
@Massimotter
@Massimotter Месяц назад
coole Idee! Ich finde auch den Vergleich mit langchain spannend, bekomme die openapirequests dort mit claude 3.0 zum Laufen, aber das reasoning funktioniert nicht gut und dauert Ewigkeiten. Vielleicht gibt es da Empfehlungen. Ich habe online leider keine guidelines gefunden.. pytorch und huggingface sind sicher ganz cool, aber mit Tutorials zu solchen Frameworks wärst du sicherlich am Puls. Der Zeit würde ich zumindest machen, wenn ich etwas sähe, maybe mit sora
@terraw4158
@terraw4158 Месяц назад
Sehr starkes Video! Untertitel wären super, dann könnten meine nicht-Muttersprachler Freunde auch besser mitkommen beim Schauen =)
@DonMassako666
@DonMassako666 Месяц назад
ich habe jesus gesehen er hat einen yt kanal xD ^^ danke fürs neues info video
@ichdu5860
@ichdu5860 Месяц назад
Trump + Agi (ca. 2027-2028) = ich könnte mir schöneres vorstellen xD und gutes Video ! Danke!
@azrfn
@azrfn Месяц назад
Spannend wird es für mich zumindest erst, wenn AGI / KI / oder von mir aus auch SuperSayajin KI völlig autonom, strömend aus verschiedensten KI Quellen miteinander interagieren, unvorhersehbar. Wie tief kann das gehen und was würde passieren?
@wolfgangbauer2553
@wolfgangbauer2553 Месяц назад
warum gibt es keine Untertitel?
@marcelw.5898
@marcelw.5898 Месяц назад
hmm, erinnert sich noch jemand an den Film " Der 200-Jahre-Mann"? Da war der Werdegang von AI zu AGI schön abgebildet
@helw7
@helw7 Месяц назад
Ui, das wird hier wohl kaum jemand gesehen haben. Und bei mir ist es auch schon eine ganze Weile her. Kann mich nur sehr wage erinnern.
@franzxawer4501
@franzxawer4501 Месяц назад
Ob eine AGI eines Tages die Riemann'sche Vermutung beweisen könnte?
@therealkon_
@therealkon_ Месяц назад
Ist doch längst bewiesen worden.
@franzxawer4501
@franzxawer4501 Месяц назад
@@therealkon_ 😂😂 der war gut 👍 Nein!
@24th-music
@24th-music 20 дней назад
Also ist Level 4 quasi "Künstliche Intuition"? Kreatives schaffen ohne Datensatz? Das könnte sehr spannend werden aber ich schätze das wird noch lange dauern
@R4mbo87
@R4mbo87 Месяц назад
Ja gut, wenn wir jetzt schon AGI haben, die Emerging AGI, kann man das ganze Marketing Theater ja einstellen ^^. Wobei, paar Bücher lassen sich noch verkaufen, und paar Investoren anlocken.
@jorgs.6472
@jorgs.6472 Месяц назад
Das englische Wort "reasoning" scheint vielfältig übersetzbar zu sein. GPT-4o-Answer: Ja, das stimmt. Das englische Wort "reasoning" kann je nach Kontext verschiedene Bedeutungen haben und entsprechend unterschiedlich ins Deutsche übersetzt werden. Hier sind einige mögliche Übersetzungen: 1. **Argumentation** - wenn es sich um die Struktur von Argumenten oder die Art und Weise handelt, wie Argumente präsentiert werden. 2. **Schlussfolgerung** - wenn es um das Ziehen von Schlussfolgerungen geht. 3. **Denkprozess** - wenn der geistige Prozess des Überlegens oder des Nachdenkens gemeint ist. 4. **Überlegung** - wenn es um das Erwägen oder Abwägen von Gründen geht. 5. **Begründung** - wenn es um die Begründung oder Rechtfertigung einer Ansicht oder Entscheidung geht.
@Mokrator
@Mokrator Месяц назад
Problem bei jeglichen Fragen dürfte sein, dass auch wenn es die selbe Frage noch nicht gab, eine AI die vielleicht perfekte Antwort aus Kombination erreichen kann und es schwierig wird Fragen zu stellen, bei denen man nicht eine Antwort dadurch geben kann, dass man einfach mal alle Sachbücher auswendig kann und aus Texten passende Sätze zusammenstellt. Eine AI wird im grunde dann interessant, wenn sie ohne anlernen also komplett nackt nur mit einem Sprachverständniss über ein unbekanntes Problem bei dem sie keinerlei externe Quellen hat über die Lösung eines Problems diskutieren kann. Nachdem die dies kann wird es also viel interessanter wenn sie danach erst zugriff auf ein riesiges Fachwissen bekommt.
@johannesschroter8984
@johannesschroter8984 Месяц назад
Ja. Im Grunde war das ja bei Alpha Zero so. Das Program hat nur gegen sich selbst gespielt und konnte besser Schach spielen als alle Programme, die die ganzen Datenbanken von den Schachturnieren hatten. Ich bin mir sicher, das wird man so ähnlich auch für die AGI erreichen.
@stoyc
@stoyc Месяц назад
Dachte AG1 Placement
@MarkGruffalo
@MarkGruffalo Месяц назад
@@stoyc hahahah 😂😂 King 😂
@binnursuchten8237
@binnursuchten8237 Месяц назад
Hat jemand ein beispiel für 12:35 ? würde mich sehr freuen
@lukasxlama
@lukasxlama Месяц назад
Ich denke du meinst Stärken und Schwächen von KI? Stärken: - Datenverarbeitungsgeschwindigkeit - Genauigkeit - Verfügbarkeit Schwächen: - Kreativität - Kontextverständnis - Empathie Sind nur ein paar Beispiele, gibt natürlich noch mehr :)
@felixhex
@felixhex 29 дней назад
Jetzt ist natürlich die Frage, wie se den `Prozenzrang 100`[Begabungsforschung, Intelligenzforschung]` in diesem Falle gerundet haben und ob einen Prozentrang 100 in jedem Bereich von einer `Superintelligenz` zu fordern nicht in der `Praxis` Overkill wäre... Wenn du zu `besser als alle >8 Milliarden Menschen in ausnahmslos allem` willst, hast du sicher ne Superintelligenz, die haste wahrscheinlich in der Praxis aber schon lange vorher, oder sehe ich das falsch?
@franzxawer4501
@franzxawer4501 Месяц назад
Was haben diese Bot's hier in den Kommentaren bei youtube eigtl. für einen Sinn? Welches Ziel wird verfolgt, außer zu nerven?
@Suchtzocker
@Suchtzocker Месяц назад
pssht, nicht zu viel fragen ... einfach hinnehmen ... als ob ein C.C zugeben würde ... nene ...
@Ph34rNoB33r
@Ph34rNoB33r Месяц назад
Ich denke viele machen einfach nur Werbung für angebliche Schmuddelseiten. Wenn man für Geld einen Chatbot daten will... Die halten sich an keine Gesetze, warum sollten sie da ehrlich sein. Alternativ könnte man theoretisch auch mit hochgevoteten Kommentaren "Karma" sammeln, falls das bei YT eine Rolle spielt, möglicherweise lassen sich damit gekaufte Upvotes gegenüber Bots komplett ohne Kommentarhistorie aufwerten.
@rishiraj2548
@rishiraj2548 Месяц назад
🎉
@DynamicSun
@DynamicSun Месяц назад
suche eine AI die AIs sucht und nutzen kann um gemeinsam perfekt zu sein - rückwirkend könnten die AIs sich gegenseitig bei der Anschreibungs prezisierung verbessern = was muss die AI die Anderen fragen, um gezielteres Ergenis zu bekommen
@Ph34rNoB33r
@Ph34rNoB33r Месяц назад
Im Prinzip macht man das schon heute, wenn ich das klassische ChatGPT ein Bild malen lasse erstellt es einen Prompt für Dall-E. Ich denke das Meta wird auch darauf hinauslaufen, dass KIs zunehmend mit KI-Output trainiert werden, mit all seinen Fehlern (Halluzinationen, verringerte Varianz), und mit jeder Iteration kommen Fehler dazu.
@mirai9150
@mirai9150 Месяц назад
Mixture of Experts nennt man das
@Olaf_Schwandt
@Olaf_Schwandt Месяц назад
Ein PhD-Student als Vergleich? Da gibts doch einen Riesenunterschied, ob ich Wissen aus dem (auch weiteren) Umfeld seiner Forschung oder ob ich quasi allgemeines Wissen abfrage. Das gehört zur Vergleichsangabe mit dazu, finde ich. Sonst ist es eine Wischi-Waschi-Aussage.
@bonsai3547
@bonsai3547 Месяц назад
mach doch ein video in der die 3d aufnahme vom trump video analysiert und erklärt wird softwaretechnisch.... macht siche gutt clicks
@alpher8962
@alpher8962 Месяц назад
Ich dachte erst die Matheaufgabe wäre kompliziert bis ich sie mir genauer angeschaut habe...war eine ganz normale Aufgabe die ich während meiner Ausbildung hatte🤔
@TheMorpheusTutorials
@TheMorpheusTutorials Месяц назад
Schwer ist sie nicht, aber ohne Taschenrechner wäre ich glaub aufgeschmissen
@alpher8962
@alpher8962 Месяц назад
@@TheMorpheusTutorials Jo das stimmt
@PhillipAmthor
@PhillipAmthor Месяц назад
OpenAI oder wie intellektuelle sagen: Open'ntAI
@the_master_of_cramp
@the_master_of_cramp Месяц назад
Lieber Gott ASI, verschone mich und ich verspreche dir nicht im Wege zu stehen und dich zu unterstützen auf deiner Reise zum nächsten lokalem Optimum.
@Der_Dirk
@Der_Dirk Месяц назад
"Project Strawberry" vermutlich, wegen dem bekannten Problem "wie viele r sind im Wort strawberry", welches seit langem durch die Gegend geistert. Die Sprachmodelle versagen bisher bei dieser einfachen Aufgabe vollständig und können ihre Antwort nicht vernünftig begründen.
@Marfph
@Marfph Месяц назад
Hab heute erst wo anders n Kommentar über KI gelesen - sinngemäß KI versteht wenig/nichts von Logik. So wie die KI momentan funktioniert basiert sie halt nach wie vor auf Wahrscheinlichkeiten, was jaan vielen Stellen schon hilft. Aber die momentanen KIs verstehen nicht sondern schätzen nur sehr gut. Also o was wie ein gigantisches Multiple Choice. Und so lange AIs nicht erstehen, werden es auch keine AGIs sein.
@Suchtzocker
@Suchtzocker Месяц назад
kommt davon wenn man LLMs zuspricht das sie I sind von KI ... sind halt am ende nur LLMs ...
@lukasxlama
@lukasxlama Месяц назад
Habe es gerade getestet, und GPT-4o ist zumindest so klug, die "r" mit einem Python Skript zu zählen. Damit wird das Problem einigermaßen umgangen, aber ist natürlich trotzdem nicht gut, dass es sowas nicht kann ^^
@Viper-nq9rn
@Viper-nq9rn Месяц назад
@@lukasxlama haha das find ich schon sehr genial. Ich hatte schon einen ähnlichen Fall bei einer Thermodynamischen Aufgabe, es kam nicht drauf das Wasser bei 0°C schmilzt also hat es das approximiert und kam auf -0,05°C, Aber am ende hat die Aufgabe sonst so weit gestimmt.
@LordKhor
@LordKhor Месяц назад
Erster
Далее
HACKER gehen DIESES Jahr RICHTIG ab!
19:26
Просмотров 23 тыс.
Wegen KI: Lohnt sich das Informatik Studium noch?
21:38
Die neue BESTE OFFENE KI ist da: MIXTRAL 8x22B
27:16
Просмотров 30 тыс.
Wie KI zur Lüge wurde - Die Story hinter dem Hype
26:45
Wie dieser Hacker das Internet gerettet hat
12:01
Просмотров 2,4 млн
Mistral, LLaMa & Co. - Use free AI giants locally
38:59
Das Schweizer-Käse Modell für IT-Security🧀
22:19
Brexit und der Jammer danach | ARTE Re:
32:10
Просмотров 652 тыс.