Тёмный

Woher weiß ChatGPT das alles? So erstellt die KI ihre Antworten | Token Vorhersage einfach erklärt 

Digitale Profis
Подписаться 108 тыс.
Просмотров 7 тыс.
50% 1

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 46   
@uweschlegel6443
@uweschlegel6443 День назад
Die Funktionsweise der Chatbots wurde hervorragend erklärt. Bitte weiter so. 👍
@juergenbusch
@juergenbusch День назад
Besten Dank! Die Funktion der LMM habe ich noch nie so verständlich dargestellt bekommen. Kompliment! Es hat aber nichts an der Faszination dieser Technologie zerstört.
@sapere-aude
@sapere-aude День назад
Ich hatte bereits mehrfach von den Begriffen (Token, Kontextfenster,...), die hier genannten werden gehört aber nie so richtig eine Vorstellung davon gehabt. Dank euch weiß ich endlich wie ein LLM nun funktioniert. Danke..
@karlheinzs.7814
@karlheinzs.7814 День назад
Kann mich den anderen Beiträgen nur anschließen: großartige Erklärung. Bin auch von deinen anderen RU-vid Videos total begeistert. Vielen Dank!
@Funtestic
@Funtestic День назад
Danke sehr für diese aufschlussreiche Erklärungen! Bitte gerne für die spezifischen Details und Einstellungen der Models eine Aufklärung ein Video erstellen. Das hat sicher großen Wert für sehr viele Menschen bzw. eurer Fans wie mich
@Balduinist
@Balduinist 15 часов назад
Vielen Dank für die Auflösung so vieler Fragezeichen in meinem Kopf. Das ist richtig gut erklärt worden
@maliksahmanija8420
@maliksahmanija8420 3 часа назад
Vielen Dank für das aufschlussreiche Video! Sehr gerne mehr zu den Parametern :)
@sigridkoppen-maly9439
@sigridkoppen-maly9439 День назад
Super erklärt!!!!! Herzlichen Dank 👍Gerne mehr davon!
@Luschie2000
@Luschie2000 День назад
Vielen Dank für die tolle Erklärung!
@ytuser7967
@ytuser7967 День назад
Gerne mehr zu den Parametern.
@robertmikes7003
@robertmikes7003 17 часов назад
Danke für deine gute Arbeit !!!
@katharinahengesbach7533
@katharinahengesbach7533 16 часов назад
Danke! Bitte unbedingt mehr davon! Ich lechze nach solchen Infos, auch um in meinem Bekanntenkreis den Schleier der Unwissenheit zu lüften ❤
@CSL-Tom
@CSL-Tom 18 часов назад
Sehr gut erklärt 👍 vielen Dank
@irrelevant5609
@irrelevant5609 День назад
Super erklärt. Danke.
@anjakoch5461
@anjakoch5461 День назад
Es wäre genial, wenn ihr ein Video über die verschiedenen Parameter machen könntet. Ich habe die tatsächlich nicht verstanden und vor allem nicht wie ich damit arbeiten soll 😊
@fastescocky
@fastescocky День назад
Menschliche Sprache funktioniert im Kern nicht anders. Auch wenn wir uns das nur schwer vorstellen können.
@eingoogleuser
@eingoogleuser День назад
ChatGPT? - Ich habe im Büro noch nicht einmal ein Headset! 😂
@guenterblaeser8814
@guenterblaeser8814 День назад
Vielen Dank für das Video... hatte es eben mit meinen Kids ausprobiert und es wurde sehr lustig, als wir auch mit den anderen Parametern und Modellen gespielt hatten... wäre nett, wenn die auch mal erklärt werden
@GehrungFamily
@GehrungFamily День назад
Sehr gutes Video 😊
@brunocarcer8655
@brunocarcer8655 День назад
Danke für den aufschlussreichen Beitrag .Warum hat der chatbot das nur mit 2.8% deklarierte G ausgewählt?
@ZenoChatBot
@ZenoChatBot 6 часов назад
Super erklärt. Könnt ihr mal ein Video zu dem neuen Copilot machen und wann kommen die wöchentlichen News?
@RBMK-4-RPM-IQover200
@RBMK-4-RPM-IQover200 22 часа назад
Wäre noch schön gewesen wenn du auf die Sache mit Gattung und Familie eingegangen wärst warum das gewählt wurde wo doch nur 2,27% da war und die andere Lösung 99% oder so... Ansonsten❤❤❤❤❤❤❤❤❤❤❤❤ wieder wie immer klasse
@theolorenz7171
@theolorenz7171 Час назад
Das liegt daran, dass ChatGPT nicht immer den wahrscheinlichsten Token wählt. Sonst würden für die gleiche Anfrage immer exakt die gleichen Texte entstehen. Auf diese Weise wirken die Texte kreativer.
@DG-hw8it
@DG-hw8it День назад
Die Transformer Architektur von 2017 hätte erwähnt werden sollen. 🥰
@pionieregrenzenloserfreihe9259
@pionieregrenzenloserfreihe9259 11 часов назад
Ich würde mich über eine Erweiterung und oder auch Vertiefung des Themas freuen
@rainerheldt4506
@rainerheldt4506 День назад
Ausgezeichnete Erklärung, spart einem den Ausstieg auf Seite 30 bei diversen Erklärbüchern. Danke!
@stephank7840
@stephank7840 День назад
Ein Video über Parametereinstellungen und was die machen würde ich auch gerne mal sehen. Was ich aber so noch gar nicht gefunden habe ist mal ein Video über ein chatbot der sauber große Texte übersetzen kann sowie ein bot der akademische Texte schreibt, formuliert. Vielleicht könnt ihr ja da auch mal was machen
@franzluger641
@franzluger641 16 часов назад
Der prompt lautete ein Taube und nicht eine Taube. War das Absicht.
@swgtsander
@swgtsander 19 часов назад
Danke für die Erklärung, aber wie kann es dann sein, dass es wenn man den gleichen Prompt mehrmals hintereinander eingibt, immer unterschiedliche Texte rauskommen? Wenn es nach Token-Wahrscheinlichkeit gehen würde, wäre doch die Antwort immer gleich? Außerdem, wie kann es dann neue Gedichte, Geschichten usw. erstellen, die es noch nicht gibt?
@wolfgangbauer2553
@wolfgangbauer2553 День назад
Bitte die Parameter erklären
@sunking2005
@sunking2005 День назад
Welches LLM hat momentan das längste Kontextfenster?
@hirnarbeiter
@hirnarbeiter День назад
Vor paar Monaten war es noch Gemini 1.5 pro mit 2 Mio token.
@Holymalus
@Holymalus День назад
Der Ex-CEO von Google hat letztens noch davon gesprochen, dass die Context-Fenster den Anfang behalten und die Mitte vergessen, wenn sie überschritten werden.
@hirnarbeiter
@hirnarbeiter День назад
Ohne es gelesen zu haben was Eric Schnidt konkret gesagt hat, vermute ich stark, dass er sich auf großen Kontext bezogen hat, aber evtl ohne das Kontextfenster zu überschreiten. Denn es hat sich herausgestellt, dass es bei LLMs gehäufter zu Fehlern kommt die sich auf die Mitte des zu verarbeitenden Textes beziehen. Und weniger die sich auf den Anfang oder das Ende von langen Texten beziehen. Sprich: bereits bei langem Text, der ins Kontextfenster ist und somitnicht mal zu lang ist. sind die Modelle in der Mitte fehleranfälliger. Wird das Kontextfenster überschritten wird gewöhnlich nicht einfach der Anfang gekürzt, auch wenn es im Video so erzählt wird. Ein LLM kann priorisieren, irrelevantes zusammenfassen, oder Token weglassen etc etc um den Text zu kürzen und somit das Kontextfenster sozusagen künstlich zu erweitern. Irgendwo Text einfach zu kappen wäre fahrlässig.
@linesplitter9161
@linesplitter9161 День назад
Einfache Frage dazu: Beweise uns doch dass der Mensch das nicht so tut. Ich denke nicht dass du dass belegen kannst. Woher sollen wir wissen dass das menschliche Gehirn nicht genau so lediglich gelernt hat welche Wörter oft in welchem Zusammenhang stehen? Wenn ich dir am Anfang deines Videos sage „Aber worum …“ dann wirst du wahrscheinlich auch mit „geht es heute?“ vervollständigen. Du hast also nichts anderes gemacht als GPT.
@Burnersen79
@Burnersen79 День назад
Dem stimme ich zu… Wenn meine Frau mich irgendwas fragt mit den Worten Kannst du mal…. Sagt mein chatgpt automatisch Nein 😂
@anschaulicherklart.tuncaya1606
Menschliche Sprache ist generell unpräzise und stark kontextbezogen. Weil der Empfänger der Nachricht mitdenkt, können sich Menschen verständigen. Anders könntest du beispielsweise diesen Kommentar unmöglich verstehen.
@millionarakademie
@millionarakademie День назад
Richtig. Der glaubt es kapiert zu haben. So einfach ist das nicht mit der Funktionsweise von ChatGPT.
@linesplitter9161
@linesplitter9161 День назад
@@anschaulicherklart.tuncaya1606 richtig. Und ChatGPT funktioniert im Grunde auch Kontextbezogen. Es stellt Kontext aus dem vorangegangenen Text her, um zu extrapolieren was als Nächstes mit möglichst hoher Wahrscheinlichkeit folgt.
@linesplitter9161
@linesplitter9161 День назад
@@millionarakademie Doch es ist schon so einfach. Nur hab ich das Gefühl dass wir unsere eigenen Fähigkeiten etwas zu weit empor heben um warum auch immer noch einen Unterschied zwischen uns und künstlicher Sprachsynthese zu machen. Ich behaupte aber dass es da gar keinen all zu großen Unterschied mehr gibt. Es wird darüber diskutiert was eine AGI künftig können muss um als AGI bezeichnet zu werden. Dabei können wir ja nichtmal definieren was natürliche Intelligenz ausmacht. Und ich würde sagen wer Halluzinieren kann der hat auch so etwas wie ein Bewusstsein. Auch wenn dieses aktuell noch nicht ununterbrochen und aufeinander aufbauend Gedanken fassen kann. Aber das wird kommen.
@andromeda3542
@andromeda3542 13 часов назад
Nun, nachdem ihr die Sprachmodelle „entzaubert“ habt, könnt ihr ja jetzt locker-easy Deutschlands bestes Sprachmodell entwickeln. Nur so, just for fun. Nein, könnt ihr nicht? Schade…
@Conni-Voyager
@Conni-Voyager 15 часов назад
Eine Taube, könnte auch eine gehörlose Frau sein.
@millionarakademie
@millionarakademie День назад
Und du willst mir erzählen wie KI funktioniert 🤦
@staines_one4666
@staines_one4666 13 часов назад
Erklär Du uns doch wie man Milliardär wird, so wie’s in deiner Bio steht 😂😂😂
Далее
So einfach ist Docker
16:14
Просмотров 14 тыс.
Diese KI-Tools nutze Ich im Business: ChatGPT & Co
23:00
Warum sich Lidl gerade für immer verändert…
18:52