Im Video erklären wir das "Moravecsche Paradox" und dass künstliche Intelligenz und Roboter einen weiten Weg vor sich haben, bevor sie so anpassbar Aufgaben übernehmen könnten wie wir Menschen. Auf der anderen Seite führt das auch manchmal zu sehr lustigen Fails von Robotern bei Alltagssituationen. Was sind eure Beispiele für das "Moravecsche Paradox"?
Das erste und bisher einzige Mal bin ich dem MP bei "Quality Land" von Marc-Uwe Kling begegnet (beim Androiden John of Us). Eigentlich ist das eine Pflichtlektüre für jeden, der sich heute sogenannt 'Sozialer' Medien und der Bequemlichkeit des Internethandels bedient - und zudem zum Kaputtlachen. (P.S.: Mehr noch als Hörbuch!) Mein Augenmerk richtete sich aber mehr auf die längst realisierten oder kurz vor einer denkbaren Realisierung stehenden 'Fiktionen' von Quality Land. Darunter fiel halt kein solcher Androide und ob er eine Tasse Kaffee ohne Fußbad von A nach B tragen könnte. Insofern vielen Dank für die gesamte Aufklärung und ich hoffe, von der weiteren Forschung und dem weiteren Weg Dr. Mühlebachs noch mehr zu erfahren. Offensichtlich verantwortungsbewussten Wissenschaftlern wie ihm kann man meinem Empfinden nach die Zukunft anvertrauen, wenn sie nicht durch die oftmals prekäre persönliche bzw. familienfeindliche Situation in der deutschen Forschung in die Industrie getrieben werden. Wie sieht das bei der MPG aus? P.P.S.: Doktor Whatson abonniert. Danke für die tätige Empfehlung!
Sehr interessant! Wie geht AI mit folgenden Problemen um? 1. - Annäherung, Schätzung und Rundung Wir Menschen sind wie alle Lebewesen durch Evolution auf möglichst sparsamen Umgang mit unseren Ressourcen getrimmt. Es reichte die längste Zeit des Lebens auf der Erde aus, Dinge zu runden, abzuschätzen und uns Lösungen für Probleme anzunähern. Wir operieren mit ungenauen, unzureichenden, verfallenden und veränderlichen Daten. AI ist am allerbesten in der Speicherung und Durchsuchung ungeheurer Datenmengen, die viel präziser gespeichert werden als bei Lebewesen. 2. - Einschätzung und Validierung von Quellen, aus denen Daten entnommen werden. Wir Menschen sind einerseits superschlecht darin, Quellen und Wahrscheinlichkeiten zu beurteilen. Beispiele: "Du solltest die Arznei nicht nehmen. Ich kenne niemanden, der sie genommen hat." "Du solltest die Arznei nicht nehmen, Person xyz hat sie genommen und ist trotzdem gestorben. "Du solltest die Arznei nicht nehmen. Person xyz hat auf Twitter oder Fox gesagt, dass sie schadet." Andererseits lernen wir seit evolutionär spektakulär kurzer Zeit, mit Quellen, Logik, Statistik und Wahrscheinlichkeit umzugehen und leisten damit Dinge, die das Leben und die Welt verändern. Beispiele: - Impfungen - Erkennen und Berechnen der Klimakatastrophe - Erforschung von Wirksamkeit von Maßnahmen (Medizin, Bildung, Klima - leider auch Betrug, Diebstahl und Krieg). Kann AI mit diskreten Methoden hinreichend valide und reliabel stetige Vorgänge simulieren? Können wir stetige Vorgänge hinreichend in diskrete Algorithmen programmieren, so dass die jeweilige AI mit Stetigkeit operieren kann? Kann AI mit Hilfe von diskreter Logik variable Rundung und Schätzung simulieren? Kann AI selbstlernend den Unterschied zwischen "Mehrheit/Erfolg" und "Evidenz" erkennen und verwenden? Kann AI den Unterschied zwischen "(vielen) Anekdoten" und "Signifikanz, Validität und Reliabilität" erkennen und verwenden? Zumindest bei Large Language Models wie Chat GPT und Gemini hab ich da etwas Zweifel. (Edit: "1." und "2." hinzugefügt.)
Ich muss unbedingt jemanden nach China schicken um herauszufinden ob der Sack Reis wirklich umgefallen ist, und wer ihn wieder aufstellt. Wie sollen wir denn Beispiele für das Moravecsche Paradox haben wo wir doch dumm sind und RU-vid Videos schauen? Ich gebe Ihnen mal ein Beispiel: de.wikipedia.org/wiki/Moravecsches_Paradox
@@susanne5803 Die AI geht mit gar nichts um, die wird mit Daten gefüttert und dann kommt irgendwas raus was den Vorgaben entspricht. Weder Bewusstsein noch Denken kommt bei AI vor. Von Kreativität oder Genuss gar nicht erst reden.
Innerhalb den nächsten 2 Jahren: "Oh! der KI Roboter kann plötzlich doch ein Bett beziehen, und die Spühlmaschine einräumen und Deine Freundin sehr sehr glücklich machen.."
Freundin glücklich machen hört sich etwas sexuell an, dabei steht da nix sexuelles 😂 da sieht man Mal wie triebgesteuert die Gedanken teilweise sind ich entschuldige mich 😂🙈🙈🙈🙈
Man sollte die Erfolge der letzten Jahre nicht allgemein auf das Thema anwenden. Wie im Video gesagt, ist KI ein Überbegriff. Die Erfolge der letzten Jahre sind einigen durchbrüchen in den Bereichen des maschinellen Lernens geschuldet und die Entwicklung der KI stagniert schon wieder. Vielleicht gibt es bald neue Durchbrüche. Vielleicht aber auch nicht. Das Risiko in KI ist nicht das sie super schlau wird und uns auslöscht, sondern das was Menschen damit tun können. Diskursverschiebung, Wahlmanipulation, Informationen fälschen etc.
Kuh am Strand ist für GPT4o kein Problem: Auf dem Bild sehe ich eine Kuh, die am Strand steht. Im Hintergrund ist das Meer mit sanften Wellen zu erkennen, und es scheint ein sonniger Tag zu sein. Eine Palme ist ebenfalls zu sehen, die zum tropischen Ambiente passt. Die Szene ist ungewöhnlich, da man Kühe eher in ländlicher Umgebung und nicht am Strand erwarten würde, was dem Bild eine surreale, aber interessante Atmosphäre verleiht.
Ja, auf Englisch ist es OK. Der Titel ist zwar auf Deutsch, da war es ein Fehlgriff, aber er hat mit gesprochenen Worten den englischen Namen zitiert, so wie er eben in der internationalen KI Forschung verwendet wird. Moravec's Paradox. 11:33
Das ist ein landläufiges zitat mittlerweile, der gerät ist nie müde ist ein ewig altes video von nen dönermann der über sein elektrisches dönermesser erzählt
Entschuldigt die Wortwahl aber Geiles Video! Musste mal gesagt werden. Super verständlich von Michael erklärt und von Cedric geführt. Hat spaß gemacht mal was konkretes zu lernen statt nur Oberflächliches BlaBla was ansonsten über KI zu hören ist.
Wenn Du DoktorWhatson meinst, dann schau gerne auf unserem Kanal nach. In der Playlist hier findest Du alle Videos, die DoktorWhatson für uns moderiert hat: ru-vid.com/group/PL-l9VItC9Gn3RwADSZHlcmKzWTLFWsskc&si=FI_goeadZmPjx_3B
Menschen lernen bestimmt auch nicht anders. Deswegen passieren auch so viele irrationale Sachen oder viele Menschen glauben an die absurdesten Verschwörungstheorien.
Menschen lernen allerdings um ein Vielfaches schneller und effizienter als KI. Einem Kleinkind muss man nicht 1000 Bilder einer Kuh zeigen. Es reichen vielleicht 3 und auch wenn alle davon auf einer Wiese standen, erkennt das Kind sofort eine Kuh im Stall als Kuh. Ich finde das ist ein Hinweis darauf, dass Mensch wahrscheinlich doch anders lernen könnten
@@kooooons Ja, da hast du recht. Allerdings spielt die Anzahl der Lernobjekte keine Rolle mehr, denn du musst davon ausgehen, dass eine KI der anderen die 1000 Bilder der Kuh zeigt. Und das dauert dann ungefähr wenige Sekunden. Insofern ist am Ende das Ergebnis dasselbe, auch wenn es auf unterschiedlichem Wege erreicht wurde. Dennoch haben wir Menschen ganz besondere Fähigkeiten, die Maschinen so schnell nicht erhalten werden. Irgendwann ist es aber doch soweit. Vermute ich jedenfalls.
@@PS-vk6bn Einzelbilder? Ich würde sagen im Schnitt so maximal 10 pro Sekunde und dabei muss man sich sehr konzentrieren und nimmt nicht viel mit. Ich denke, wenn man in einer Sekunde 10 Motive von Dingen sieht, die man noch nie zuvor gesehen hat bringt das genau gar nichts. Eine KI im Training auf einem darauf optimierten großrechner schafft sicher das 10-100 fache. Wenn du jetzt darauf hinaus willst, dass Menschen ja mehr als 30FPS sehen können, dann ist das irreführend. Das Gehirn arbeitet ja nicht in Zyklen pro Sekunde. Jedes Mal das man ein Bild sieht und den Inhalt erkennt zählt für mich als ein Bild. Wenn man es 10 Sekunden anguckt gilt das nicht als 600 bilder nur weil 60FPS flüssiger aussieht als 30FPS. Und selbst wenn es so wäre das man dann 600 Bilder zählen würde, dann wäre das immernoch kein Argument, weil eine KI ja auch nichts daraus lernt, wenn man ihr 3 Bilder jeweils 1000 mal zeigt. Ich find diesen Einwand jetzt also nicht sehr überzeugend oder zum nachdenken anregend. Sowohl Menschen als auch Tiere können aus sich des Wissensstands vom maschinellen lernen unerklärlich viel neues Wissen aus wenigen neuen Daten erhalten und das ist diese Effizienz, die ich meine.
Genau Erklärungen zu den verschieden KI Lernmethoden und was diese leisten und vor allem nicht leisten scheint mir wichtig, denn da und dort vor allen in den USA wird der Eindruck generiert, dass man unmittelbar vor der allgemeinen Intelligenz stehen würde. In einem jüngsten Test versagte eine KI bei der Unterscheidung der Größe von zwei Zahlen mit Nachkommastellen (2.93 zu 2.39). Mit scheint der Weg noch sehr weit.
KI kann bald nicht nur ein Bett beziehen, sondern auch Büsche schneiden, das Sofa putzen und mehr. Alles was der Mensch kann und noch ein bisschen mehr. Nur wird es dauern bis diese Funktionen relativ schnell und richtig ablaufen werden.
Na toll, die KI kann nicht den Haushalt machen, also das was eher nervt und monoton ist, aber dafür kann sich für uns Schach spielen, besser als wir, also das, was wir aus Spaß machen.🤓
Also ich hab Chat GPT gefragt wie wahrscheinlich es ist dass die KI die Welt ubernimmt. Es hat mich beruhigt dass die Wahrscheinlichkeit sehr gering ist😅.😅
11:38 - Der Grund warum es für KI (und von KI- gesteuerte Maschinen) schwer ist, bestimmte Aufgaben zu erfüllen oder Objekte in Bildern richtig zu verstehen ist, weil KI kein echtes Verständnis für die materielle Welt hat, sie verarbeitet lediglich mathematisch ihre "gelernte" Information. Da KI die materielle Welt nicht wirklich versteht, kommt es oft zu unerwarteten Ergebnissen. Außerdem gibt man KI kein echtes Gedächtnis, womit die KI unabhängig "lernen" und Schlüsse ziehen könnte Wir Menschen interagieren mit dieser Welt vom ersten Tag an und bauen täglich aus unseren Erfahrungen und Gedächtnis auf.
Es gibt doch auch die Technik, das der Androide durch die Bewegungen des Menschen angelernt werden kann, die üblichen Haushaltsaufgaben, in der fast immer gleichen Umgebung nachmachen kann. Somit kann er dann Stück für Stück wie ein Kind mehr Aufgaben übernehmen, nicht?
5:00 Eine Unterscheidung zu machen zwischen kausalen und nicht-kausalen Zusammenhängen macht total Sinn. Aber eine Unterscheidung zwischen den Begriffen "Korrelation" und "Zusammenhang" macht imho keinen Sinn; das eine ist nur ein synonymes Fremdwort für das andere.
Vielen Dank für dein Feedback! Es ist uns sehr wichtig, dass unsere Wissen-Was-Videos so verständlich wie möglich sind und möglichst ohne großes Vorwissen funktionieren. Deshalb geben wir in unseren Wissen-Was-Videos mehr Hintergrundinformationen, um alles klarer und verständlicher zu erklären. Im "Short" zum gleichen Thema kommen wir deutlich schneller auf den Punkt: ru-vid.comcQjViIg0FRM
Roboter: Es geht um die Vorgabe einer möglichst genauen Optimierungsaufgabe bzw. -funktion zur Maximierung der positiven Reize (viele Morphine, Lob, Glück) und Minimierung der negativen (wenig Morphine, Tadel, Schmerz). Gesteuert durch "Trial and Error" Rechenpower in einer Endlosschleife und dem Abspeichern der Resultate in einem neuronalen Netz. Auch genannt 'Deep Learning'.
Das beschreibt das verstärkende Lernen bei Robotern schon recht gut. Nur können statt neuronale Netze auch andere Speichermethoden verwendet werden. Auch das "Deep Learning" wird nicht nur bei Robotern verwendet. Als Ergänzung zum Film: Es gibt noch andere Möglichkeiten Roboter zu steuern, zum Beispiel die Kontrolltheorie. Da es in dem Film aber nicht nur um Robotik sondern auch andere Lernmethoden für KI geht, haben wir sie in diesem Film nicht näher beleuchtet.
@@MaxPlanckScience Die von mir oben beschriebene Methode stammte aus dem Fach "Evolutionsstrategie" an der TU Berlin (40 Jahre her). Damals hatte man noch sehr wenig Rechenpower und noch weniger Memory zur Verfügung. Aber es reichte schon, um spezielle technische Aufgaben optimieren zu können, deren Resultate von kaum einem Ingenieur vorausgesagt werden konnte. Und das ist das Faszinierende an AI: Das Ergebnis ist nicht programmiert und kann nicht (!) vorausgesagt werden.
Der Mensch braucht mindestens drei Jahre Übung, bis er einen Geschirrspühler ausräumen kann. Unter 3 Jährige haben damit auch Probleme. Habt ihr 3 Jahre lang versucht, einem Roboter das Geschirrspühler Ausräumen beizubringen, weil ihr behauptet, ein Mensch könne es besser?
War der Cutter besoffen, oder habt ihr den Job einer KI überlassen? Der Schnitt ist unerträglich! Es gibt wirklich keinen Grund für sekündliche Sprünge - es sei denn, ihr drehtet für ein TikTok-Publikum.
Der schnelle Schnitt war eine bewusste Entscheidung von uns. Schade, dass er nicht deinem Geschmack entspricht. Wir freuen uns über jede konstruktive Rückmeldung 😉. Betrunken war natürlich niemand.
Vielleicht solltest du erst einmal abgrenzen was KI ist und was nicht. Der Forscher drückt sich da vorsichtiger aus. Die Leute denken KI ist gleich AGI. Dabei ist ein Sprachmodell oder ein isolierter Vorgang zum Training von Automaten nicht mal ansatzweise AGI. Es wird vermutlich nie eine 'KI' geben wie Durchschnittsbürger das vorstellen
Endlich schreibt es mal jemand. Im Prinzip sind das alles machine learning Modelle und nicht in dem Sinne KI's. Aber es vermarktet sich halt leider besser