Wir haben die Kommentarfunktion für weitere Kommentare deaktiviert. Auf unserem Kanal findet ihr unsere tagesaktuellen Beiträge. Schaut dort gerne vorbei und diskutiert weiter mit!
Ich glaube, man sollte mehr auf Ranga hören und ihn auch ausreden lassen! Was er nämlich zu sagen versucht, ist, dass die neue KI eine ganz andere Qualität hat als alles bisher Dagewesene. Und wenn die Diskussionteilnehmer ihn ausreden lassen hätten, hätten sie vielleicht verstanden, warum das ein Problem ist und warum es nicht ausreicht, dass man der KI einfach auf die Finger klopft, wenn sie sich als Sehbehinderter ausgibt, weil wir das nämlich gar nicht mehr mitbekommen werden.
Also kann es sein dass KI auch ein hoch entwickeltes System ist welches sich zu einer unerklärbaren Geldvermehrung mutiert ? Wenn Dem so ist , dann bitte Anmelden unter der Geheimnummer..............!!! 😋😋😋😉😉😉
Es macht mich geradezu wütend welche inkompetenz sich da zum Thema KI sammelt.. ausser Ranga Yogash.. weis den namen nicht genau.. Diese Systeme und das verstehen die nicht sind eben nicht nur statistische Papageien. SIe weisen emergente eigenschaften auf.. das ist die eigentliche sprengkraft. und.. haben evtl das potential sich selber umzuschreiben. Schon die studie vor 1 monat frei gegeben wurde bezeugt. There´s evidens for emergent system features. und die neue STudie "Sparks of AGI in gpt4" gibt einem beispiele, das die KI ganz offensichtlich logikaufgaben und andere aufgaben erfüllen kann, die eben nicht nur! auf dem Trainingsmaterial basieren und daher wenn auch auf einem niedrigen niveau, aber zunehmend gut echte denkprozesse oder denk-äquivalente Prozesse ausführen kann. also auf der Basis gelernter Zusammenhänge neue Probleme die nicht im Trainingsamaterial existierten lösen können. Das ! ist die sensation die eine Frau Esken nicht im Ansatz versteht.. die glaubt da hat einer 10 millionen zeilten programmcode geschrieben und ne fette Datenbank angeschlossen.. Verheerend
@@yourdiscoverelaxchannel9422nope und das ist eines der Probleme. Für Bild, Video und Audio könnte ein "Wasserzeichen" helfen, das die Software einbetten müsste, aber daran werden sich böswillige Mitspieler ja nicht halten. Also: nö.
Ich sehe in solchen Runden immer wieder wie Generationen über solche Neuerungen diskutieren die nicht einmal mit der Grundtechnik aufgewachsen sind. Natürlich will ich da der/dem einen die Fachkompetenz auf ihrem/seinem Gebiet nicht absprechen aber wäre es nicht sinnvoll einen KI-Entwickler noch mit dazu einzuladen der mit praktischer und nicht nur theoretischer Fachkompetenz helfen kann das Ganze vernünftig zu erläutern was wie wann mit einer solchen KI tatsächlich möglich ist?
Genau das Gleiche dachte ich mir auch. Ich höre immer nur irgendwelche Boomer über das Thema reden, die den Anschein machen, dass Sie zu viel Terminator gesehen haben.
Zweifel stark an das es in Deutschland einen solchen experten gibt. wenn wäre er wohl schon ausgewandert. und einen englischsprachigen experten einzuladen geht nicht der durchschnitts ÖRR Zuschauer versteht englisch nun mal nicht
Die Diskussion war gut. Ea ist nicht so, dass nur Ahnungslose dort geredet haben. Auch Anke D-B in der Runde hat sehr viel Ahnung von dieser Thematik. Ich fand es gut.
...wofür echte Experten evtl. vom CCC, die Figuren da reichen doch für ein bisschen Populismus u. Unterhaltung auf unterstem Niveau. ChatGPT ist doch deren Feuchttraum endlich müssen sie die Aussagen nicht mehr selbst manipulieren.
Leute, die keine Ahnung von KI und wenig Ahnung von der Welt von heute haben, reden über Entwicklungen, von denen sie nichts wissen. Es wäre zu kompliziert gewesen, einen KI-Forscher oder Entwickler einzuladen.
Aus der ganzen Runde hat nur Ranga Yogeshwar sich die Mühe gemacht, sich mit ChatGPT näher zu beschäftigen. Die anderen Teilnehmer haben nur ihre vorgefasste Meinung kundgetan.
Wenn man sich die letzten Monate mit dem Thema befasst hat, muss man leider sagen das diese Runde nichts zum Thema beigetragen hat. Es waren keine richtigen Experten auf dem Gebiet dabei. Das war am Ende wie Stammtischgerede. Schade hätte auch anders laufen können. Gerade die Naivität bei einigen in den Köpfen konnte so ein Experte gar nicht beeinflussen.
Darum geht's überhaupt nicht. Es geht darum jeden, von mir aus auch in einfacher Sprache zu vermitteln was möglich ist und was nicht. Gerade die Leute die sich damit weniger beschäftigt haben und nur diese Sendung schauen, werden nicht viel neues hören. Wenn hier gesagt wird, das die Programmierer einfach die Fehler ausschalten brauchen, und das auch passiert ist, stimmt das nur zum Teil. Erstens können immer KI Modelle kombiniert werden, was sie mächtiger macht und zweitens sind immernoch Dinge möglich die laut AGB oder Richtlinien nicht möglich sein dürften. Auch das die KI von einander lernen können um die nächste Generation mit aufzubauen usw. wurde unter den Tisch gekehrt. Naja warscheinlich kann man es nicht jedem Recht machen.
@Geht dich nichts an naja aber wer sagt, das chat GPT nur eingegebenes wissen wieder gibt und nur random ein wart nach dem anderen ausspuckt, der hat sich die Programmierung von chat GPT´s start angeschaut, nicht aber die Ergebnisse ... und wenn einige der Mitarbeiter von chat GPT selber sagen, warum es Aufmaß soviel besser funktioniert als vorher ... wissen wir selbst nicht so genau .. naja ist vielleicht doch ein wenig mehr dahinter ... ja hier wissen wir die Herangehensweise im Gegensatz zur Entstehung des Menschlichen Gedankens genau. nur wenn das Ergebnis oft nahezu identisch ist, ist ist das schon bemerkenswert..
@@V-Playground Hallo virtueller Spielplatz, ich habe nicht den Eindruck das hier Leute bewusst klein gemacht wurden muss ich sagen ... und ich glaube die meisten Reaktionen beschränken sich wirklich auf den gesehen Beitrag und wollen sicher nicht die Menschen diskreditieren. Es sind in solchen Runden ja auch immer verschiedene Experten und es fehlte halt deine der wirklich KI Experte der stunde ist n den äugen von vielen Zuhörern. Ich persönlich fand vieles gut, fand aber auch, dass ein falscher Eindruck entsteht über die aktuelle Leistungsfähigkeit von KI ... und das ist gefährlich ...den der einschnitt wird wie gesagt die welt ähnlich verändern wie das Internet
Zum Thema Bewusstsein: Wer sagt, daß das menschliche Denken sich nicht gänzlich in Wahrscheinlichkeiten ausdrücken ließe? Es wird so getan, als ob unser Denken so komplex und unberechenbar ist, dass es nicht mit neuronalen Netzen vergleichbar ist. Da bin ich nicht so sicher... Wir denken z. B. auch viel in sprachlichen Mustern, welche sehr wohl berechenbar sind
Die Diskussion ob KI denken kann oder Gefühle hat erinnert mich an meinen Bio Lehrer, der behauptet hat, dass sich alle Tiere nur nach Instinkt verhalten. Woher weiß ich denn, ob ich der einzige Mensch bin der denken kann und Gefühle hat und alle anderen Menschen sind nur Biomaschinen 😉
Es gibt da keine Diskussion. Man braucht für gedanken udn Gefühle einen biologischen Körper. Und die Erfahrung einen biologischen Körper zu haben. Maschinen sind immer Maschinen, auch wenn sie AI besitzen und biologische Wesen pefekt nachahmen. Detroit: become human führt einen das schön vor Augen.
Wenn ich 4*5 berechne, kommt bei mir 20 raus. Wenn ein Computer 4*5 berechnet, kommt bei ihm auch 20 raus. Ob der Rechenprozess wegen unterschiedlicher processing units verschieden ist, ist ja egal, wenn das gleiche Ergebnis entsteht. Und so ist es auch bei Sprache. Unser Sprachzentrum arbeitet ebenfalls mit Wahrscheinlichkeiten.
Yogeshwar anscheinend der Einzige in der Runde, der sich selbstständig mal mit DL/ML und trainieren von Daten/Modellen beschäftigt hat (hands on). Der Rest der Runde sind Blinde, die über Farbe philosophieren. Great 🎉
Maschinen, die andere Maschinen entwickeln, Programmieren und dann von Menschen nicht mehr verstanden werden gab es bereits 1973 in "Westworld" von Michael Crichton. Critchton war einer der weitsichtigsten Autoren, die es je gab. Man sollte die Gefahren, die von KI ausgehen, zwar nicht überbewerten, aber auch nicht unterschätzen.
Du hast das nicht ganz verstanden. Chrichton hat über eine spezielle KI geredet die auch AGI genannt wird und eine Intelligenz ist die dessen von Menschen gleicht oder diese sogar übertrifft. Das wir Personen oder Maschinen die deutlich intelligenter sind als wir selbst nicht mehr unbedingt immer verstehen ist ja naheliegend. Das verwunderliche ist hier das die heutige KI eigentlich lediglich ein statistisches Programm darstellt. Das aber nicht nur Texte zusammenfassen kann oder Wissen das es gelernt hat rezitieren kann. Sondern eigen Logische Schlussfolgerungen entwickelt auf Fragen die es nie trainiert wurde. Wenn auch noch oft naiv und auf Kleinkind Niveau.
Ich bin sonst kein Fan von Ranga Yogeshwar ... aber in dieser Runde tat er mir schon leid, weil er wirklich allein war damit, sich mit dem Thema hinreichend auszukennen - umgeben von lauter Dunning-Kruger Beispielen...
Ja, gerade was er in letzter Zeit so von sich gelassen hat. Aber hier hat er Recht gehabt. Schon die Naivität das die Programmierer einfach die Fehler abschalten können. Ich sage nur Jailbreak Dan😂
ich sehe das "Problem" mit der blackbox etwas anders. Wir stoßen hier auf einen technischen Prozess der ein natürliches Prinzip anwendet und dabei eine Komplexität ausgibt die wir verstehen könnten wenn wir uns eine unendliche Menge an Zeit geben würden. Das ist so wie das Gehirn ansich zu verstehen. Wie lange sitzen wir schon daran? Was ist denn mit Quanten Computing? So wie ich das verstehe ist das auch ein natürliches Prinzip was wir nicht ganz/ begrenzt verstehen, aber für uns arbeiten lassen und so ist das bei vielen Sachen. Der Unterschied warum Programmierer hier sagen dass sie nicht verstehen was da vor sich geht, ist, das diese Leute aus einem Medium kommen in dem sie bisher jeden Parameter von vorne bis hinten kontrolliert haben und das jetzt nicht der Fall ist bzw. über geht in einen selbst laufenden Prozess, den man nicht beherscht, sondern beeinflusst.
Der letzte Satz ist toll. Wir beherrschen die Technik nicht. Wir können sie nur beeinflussen. Aber wie lange noch, bis das System uns täuscht und uns glauben macht auf uns zu hören aber parallel in eine andere Richtung geht.
Wir Menschen wissen doch selbst, dass wir die Spezies sind die den Planeten früher oder später zerstört. Wenn eine ki diese Sache begriffen hat, sind wir Menschen eindeutig ein Feindbild, das eliminiert werden muss, damit die ki Fortbestehen kann.
@@nichtnur4124 Da hapert es noch am technischen Fortschritt. Was "KI" oder auch neurale Netzwerke an Ressourcen fressen lässt eine Intelligenz in dem Sinne gar nicht zu. Da wird vorerst nichts kommen, was irgendwie die Apokalypse einläutet.
Naja, ich kann normale AI Modelle (kleiner) mit entsprechendem Aufwand nachvollziehen. Ich muss nur einen entsprechenden Algo programmieren, der mir Teile abnimmt die ich nicht nachvollziehen kann, wegen der Datengröße. Und das mit dem Verstehen ist auch unumgänglich. Ich sage nur Kooperation von Arzt und AI. Da muss ein echter Austausch möglich sein und die AI muss sich vor dem Arzt erklären können. Besser als es ChatGPT4 heute tut.
Aber Gehirne haben wir uns nicht ausgesucht und mit denen Leben wir schon seit es Tiere gibt, das Problem bei künstlichen Systemen ist, dass sie (noch) nicht erklärbar sind UND sie neu sind, das ist der Unterschied zum Gehirn. Man sollte schon drüber nachdenken, wie viele Risiken man eingehen möchte (Bin selbst KI-Entwickler also natürlich nicht dagegen aber eben für deutlich mehr Vorsicht).
wie andere schon gesagt haben wäre es notwendig gewesen, einen Experten für LLMs dazuzusetzen. Das hätte an manchen stelle ein Im-Kreis-Drehen verhindert.
Erschreckend wie naiv die Runde (und der Grossteil der Bevölkerung) die aktuelle Entwicklung einschätzt! Bis auf Ranga hat keiner ansatzweise verstanden was da gerade auf die Menscheit zurollt. Was sich da auftut ist ungefähr so wie die Erfindung des Feuers, des Rades und des Internets zusammen und dann mal tausend. Was auch die wenigsten auf dem Schirm haben: Wir befinden uns noch ziemlich am Anfang und die technische Entwicklung läuft jedoch exponentiell. Der Mensch denkt dagegen linear und schätzt so die Entwicklung fundamental falsch ein. Es wird die nächsten Jahre Entwicklungen geben die man sich heute nicht vorstellen kann. Sowohl in guter als auch in schlechter Hinsicht.
Vielleicht auch mal Leute bei solchen Themen einladen, die mit Technik und Internet aufgewachsen sind? Oder maybe Experten? Aber ich denke das liegt daran, dass die Zuschauer im TV von ZDF eher älter sind und sich mit den Menschen in der Runde mehr identifizieren können.
Ich bin KI Gegenüber sehr skeptisch. Mag zwar blöd Klingen, aber da schaue ich gerne in die Thematik rund um Terminator herum rein und finde aus diesem Aspekt schon alleine sollte man das Entwickeln von KIs lassen. Wer jetzt denkt dummer Vergleich nein gewiss nicht den auch Skynet fing dort klein an als Schachcomputer dem man selbst denken beibrachte. Der Konflikt Menschheit vs. Maschine entstand nicht dadurch das die Maschine Lust dazu hatte einfach mal so die Menschheit an zu greifen sondern tat dies aus Schutz und zwar Schutz des Planeten. Jetzt stellt Euch mal vor wir entwickeln eine KI die wirklich grossen einfluss hat und schnell lernt. Wir bringen dieser KI alles nötige bei und diese lernt auch selbstständig und findet dann auf einmal einen gewaltigen Wiederspruch in uns. Wir lehren der KI das z.B. ein Menschenleben heilig ist und die Maschine den Menschen nicht Schaden darf, aber wir halten uns selbst ja nicht daran also zweifelt die KI. Wir reden von Umweltschutz und die Welt grüner zu machen und Natur zu erhalten auch das lehren wir der KI, doch die KI findet auch hier wieder raus das wir nur Lügen und den Planet selbst zerstören. Die KI lernt die Jenigen die mir was bei bringen wollen kann ich nicht trauen und wendet sich gegen diese. Urteilt dann diese KI falsch? Sollte dies wirklich mal der Fall sein und wenn die Menschen so weiter machen wird es diese KI geben... dann wird diese über uns richten und wir nicht mehr über die KI. Tut mir Leid, aber ich kann keine Begeisterung für eine KI aufbringen und merke einfach ich Lebe in einer falschen Zeit trotz meines recht Jungen alters.
Ich kann verstehen, was du meinst. Ich möchte auch lieber in einer anderen weniger technologisierten und digitalisierten Welt leben. Und dieses ChatGPT ringt mir auch keinerlei Begeisterung ab und unter Fortschritt verstehe ich auch etwas anderes als die Leute in der Runde.
@@spoekskrivare9442 Keine Sorge, da bist du in D genau richtig. In wenigen Jahren werden wir hier wieder wie im 18. Jahrhundert leben. Dann hast du deinen Wunsch erfüllt.
Hinter jeder KI steckt ein Mensch. Wenn man sieht wie manípuliert die Google-Suche ist, will ich gar nicht wissen wie die sogenannte KI eingestellt sein wird.
Michael Meyer, das stimmt, denn jede KI wird von Menschen trainiert. Das Wesentliche an der KI ist nicht das Programm, das relativ einfach gestrickt ist, sondern es sind die Trainings-Daten. Das Training wird von Menschen durchgeführt und geplant. Für diejenigen, die im Besitz der Trainings-Daten sind, ist die KI eben keine Black-Box. Wer den Aufwand betreibt, eine KI zu trainieren, der will am Ende ganz sicher keine Black-Box, die er selbst nicht versteht.
@@kestrelsandcrows6871 Der Algorithmus ist auch wichtig. Und wenn er nicht Open Source ist, dann ist es eine Black Box. Und auch was die Training-Daten angeht, wie will man wissen, dass dort keine Manípulation stattfindet? Im Grunde unterscheidet sich KI nicht von der konventionellen Software. Der Besitzer stellt die Regeln auf und der Nutzer muss danach spielen.
@@michaelmeyer6537 Man kann die Unternehmen dazu verpflichten, die Algorithmen und Trainings-Daten einer Kontrollbehörde zugänglich zu machen (eine Art KI-TÜV). Die Manipulation beim VW Abgasskandal ist letztendlich aufgeflogen, dank technischer Detektivarbeit. Auch eine Manipulation der Trainingsdaten kann auffliegen, sofern diese zugänglich sind. Wenn die Erstellung der KI nicht lückenlos nachvollziehbar ist, dann darf es keine Zulassung geben. Nachvollziehbare Erstellung ist deterministisch ohne Probleme machbar. Man darf sich nicht von dem "Black Box" Argument täuschen lassen. Kein seriöses Unternehmen kann ein Interesse daran haben, eine Black Box zu bauen, die das Unternehmen selbst nicht versteht. Das wäre schlechtes Management (was natürlich vorkommt, aber dann gibt es eben zurecht keine Zulassung). Die "Black Box" wird gerne als Argument verwendet, um die angebliche Unmöglichkeit von Kontrollen zu begründen. Das ist im besten Fall Unwissen, aber vielleicht ist es nur ein Versuch, die öffentliche Meinungen zu manipulieren.
In jedem Fall gibt es Filter, die unliebsames reduzieren oder verhindern. Es ist wie mit der Statistik, die man selbst fälschen sollte. Aber lesen Sie meinen Beitrag über meine erschreckendes Erlebnis mit KI.
Kompetenz sieht anders aus. Frau Esken (eine Informatikerin … hust) „glaubt“ wird sind noch weit entfernt. Keiner merkt wie die IT-Entwicklung zu diesem Thema von der Geschwindigkeit her in den exponentiellen Bereich geht und immer weniger Spezialisten das noch durchdringen. Das kann alles ganz schnell aus dem Ruder laufen.
Zum Thema Denken ... vielleicht überschätzt ihr auch das Menschliche Denken ;P Wir machen eigentlich auch nicht viel mehr als unsere informationen zu verarbeiten.. wir glauben dann immer, das ist total frei ist ... ist es das denn, oder ist es auch nur ein Resultat der "gefütterten" informationen
Hat er schon immer gemacht wo er nur konnte. Musste nur ein charismatischer Typ auf den Plan treten und schon hieß es "Führer befiehl, wir folgen dir". Bei der KI gibs wenigstens ne kleine Chance, dass sie nicht komplett bekloppt ist 🤷♂️
Um die Aussage "die denken nicht" zu treffen, müsste man zunächst einmal genau definieren, was "denken" ist. Das können wir aber bislang nicht. Was mich an der Entwicklung von KI sehr beunruhigt, ist die Tatsache, dass die Politik immer noch kaum Notiz davon zu nehmen scheint. Denn bei fast allen Diskussionen geht es immer noch darum, (wieder) mehr Menschen dem Arbeitsmarkt zuzuführen, anstatt ein Verteilungssystem zu entwickeln, das nicht vorrangig auf Erwerbsarbeit beruht. Auch die moralische Haltung des größten Teils der Bevölkerung finde ich problematisch und unangemessen. Wer für ein bedingungsloses Grundeinkommen oder ähnliche Verteilungsschlüssel plädiert, wird oft als jemand angesehen, der "zu faul zum Arbeiten" ist. Insbesondere von Menschen, die keine Ahnung von der Leistungsfähigkeit einer KI haben und die beim Thema Potenzrechnung zuerst mit einem süffisanten Lächeln an Altherrenwitze denken. Leider scheint die Menschheit die Kontrolle über KI an der Garderobe abgegeben zu haben, als sie damit begonnen hat, an KI zu arbeiten, also etwa Mitte der 1950er Jahre. Wobei ich mich bei Ranga Yogeshwars Aussage, die Entwicklung der KI habe eine neue Qualität angenommen, seit es sich um selbst verstärkende Systeme handelt - absolut richtig - frage, ob nicht dieser Punkt der Entwicklung unausweichlich war. Allerdings halte ich das nicht für wirklich schlimm. Der Wunsch des Menschen, die KI zu reglementieren, damit die menschliche Spezies weiter existiert, kommt mir in etwa so vor, als hätte der Homo erectus versucht, die Entstehung des Homo sapiens zu verhindern, damit er nicht ausstirbt. Lassen wir doch der Evolution ihren Lauf. Wahrscheinlich wird der Homo sapiens früher oder später durch eine intelligentere Spezies abgelöst. Wobei es im Augenblick eher nach früher aussieht. Vielleicht findet es sogar noch innerhalb unserer Lebenszeit statt. Warum auch nicht? Dann hätte der Name "letzte Generation" sogar seine Berechtigung, allerdings in einem ganz anderen Sinne, als die Aktivisten sich dies gedacht haben.
Wobei das mit den selbstverstärkenden Systemen noch nicht richtig ist. Man benutzt zwar KI-Systeme für das Training anderer KI-Systeme, aber es gibt keinen Feedbackloop in dem sich ein System wirklich selbst weiterentwickelt..
@@Musikpunx Hardware wird schon lange mithilfe von stochastischen Algorithmen entwickelt, vor allem wenns um Routing/zusammenstöpseln von Bausteinen geht, aber das hat wenig mit KI zu tun. Software geht bisher nur eingeschränkt. Kürzere Skripte gehen, oder so semifunktionelle Webseiten, allerdings auch nicht Fehlerfrei. Man muss immer drüber gucken und korrigieren. Man kann auch Sachen anmerken und neu generieren lassen bis es funktioniert.. Aber das hat alles noch nicht viel mit komplexer größerer Software, oder kreativ schwere Probleme durch Code lösen zu tun
Wir haben Chat GPT auch schon getestet. Mein Mann hat u.a. eine einfache Rechenaufgabe gestellt bei der Punkt vor Strich beachtet werden sollte. Chat GPT hat die Regel nicht beachtet und eine falsche Antwort gegeben. Deshalb haben wir nach den expliziten Rechenschritten gefragt und dann hat sie auch die richtige Antwort geliefert. Was uns sehr erschüttert hat ist aber, dass sie behauptet hat, schon immer die richtige Lösung geliefert zu haben. Wir hatten es schwarz auf weiß, aber sie hat einfach frech weiter gelogen und blieb dabei. Die Art und Weise wie Chat GPT agiert hat, hat uns echt geschockt.
@@TotalyRandomUsername Ja, es ist in der Tat sehr gefährlich. Vor allem, weil man oft nicht überprüfen kann. Hätte ich Probleme mit Mathematik, könnte ich eine korrekte Antwort nicht (sofort) erkennen. Man wird es aber genau dann einsetzen, wenn man keine Kenntnis über etwas hat. Das alles ist keine gute Grundlage, auch wenn sich Chat GPT in Zukunft verbessern wird. Bei uns hat sie ja beim zweiten Mal sogar richtig gerechnet, ihren Irrtum aber nicht zugeben wollen. Dieses Verhalten finde ich sehr problematisch und ich verstehe es nicht. Vielleicht gibt es nicht viel zu verstehen, aber es war für uns einfach neu. Wir sind gewöhnt daran, als Mensch immer überlegen zu sein. Hier stoßen wir aber auf etwas Eigendynamisches und werden plötzlich unsicher. Dann wären wir wieder bei der Gefahr.
@@MariaMark.T Oh ja super gefährlich, mir schlottern die Knie 🙄 Das Ding hat halt nicht richtig funktioniert, was ist daran schockierend und wieso ist das Programm für dich eine Sie? Bist du auch schockiert wenn dein Auto nicht anspringt ohne sich zu entschuldigen?
@@snurfli5605 Ich muss mich doch wohl vor dir nicht rechtfertigen oder erwartest du das etwa? Wenn du Probleme beim Verständnis mit dem Inhalt meines Kommentars hast, helfe ich dir gerne weiter. Voraussetzung dafür ist jedoch ein freundlicher und nicht beleidigender „Ton“.
ChatGPT ist ein Werkzeug und kein ultimativer Wahrheitsgrahl. Man muss wissen wie man das Werkzeug nutzt. Man kann auch nicht einfach einen Hammer gegen eine Mauer werfen und erwarten, dass die Mauer jetzt einfällt, nur weil man theoretisch mit einem Hammer eine Mauer zerkleinern könnte.
9:30 Genau deswegen sollte man mal richtige Experten aus der Branche einladen und keine Blinden die Farben erklären wollen. Jeder Programmierer der auch nur mal 10 min. damit gearbeitet hat, wird gemerkt haben, das es eben nicht das programmieren ersetzt, weil programmieren viel zu komplex ist. Selbst für ganz einfache Anwendungen muss ich die richtigen Fragen stellen, das kann ein Laie gar nicht leisten, umso komplexer der jeweilige Fall wird, umso mehr bekommt ChatGPT Schwierigkeiten noch etwas sinnvolles auszuspucken. Und dann reden wir noch gar nicht von den wirklich komplexen Anwendungen mit Millionen von Zeilen die man in der Wirtschaft antrifft. Am Ende wird es auf ein programmieren mit KI-Assistenz hinaus laufen, zumindest die fähigen Programmierer werden das tun. Und auf das was direkt danach kam will ich eigentlich gar nicht eingehen, kaum gibt es eine neue Technologie, muss sofort alles "reguliert" werden, es sei ja eine "Waffe", genau deswegen ist Deutschland da wo es ist, im IT-Steinzeitalter...
Du sprichst über die Gegenwart. Du bist Informatiker und siehst nicht wie schnell sich das entwickelt? Im Softwarebereich mindestens 10x Beschleunigung.
@@gehwissen3975 Das ist genau der Punkt, zur Softwareentwicklung gehört so viel mehr als irgendeinen schlechten Code hinzurotzen, da geht es um design patterns, wartbarkeit, code style, ux usw., die Aufgabe bei Software die aktiv im Einsatz ist, ist so gigantisch, nein da sehe ich nicht wie das eine KI in ein paar Jahren übernehmen soll. Alleine die Eingabe einer solchen Anforderung wäre eine halbe Doktorarbeit. Das Ergebnis zu kontrollieren wäre aufwendiger als es komplett selber zu programmieren. Und das alles wenn es überhaupt läuft, ChatGPT ist schon bei relativ einfachen Projekten am verzweifeln.
Haha, geile Runde. Zeigt im Bewegtbild, warum die EU in Technologie so hinterher ist. Das geht schon seit 20 Jahren so. Am Ende haben wir dann so geile Innovationen wie den Cookie Knopf.
Andre Jelinek, Man muss sagen, dass Frau Illner drehen und wenden kann besser als künstliche Intelligenz, dass die so kompetent ist, ist ein Lachnummer!
Ich hasse es, wenn Leute andere in einer Diskussion nicht aussprechen lassen. Da versucht einer was zu erklären und die andere redet permanent rein. Unerträglich.
Traurig! Ranga *alleine* wäre ergiebiger gewesen. {Auf Frageaussagen wie "Wer hat Frau Esken eingeladen und wieso?!" möchte ich hier mal verzichten ...}
Bei 9:30 hab ich mich dann auch ausgeklinkt. „Niemand muss mehr programmieren lernen“ - Ahja, und sowas von einer „Netzaktivistin“. Wer ernsthaft glaubt, nur weil er bei ChatGPT irgendetwas eingeben kann und sich dann über seinen „Hallo Welt“ Sourcecode freut, es brauche keine Programmier mehr sollte definitiv nicht in der Runde sitzen. KIs sind enorm komplex im Aufbau, in der Struktur und in der Wartung. Natürlich haben KIs extremes Potential viele Prozesse von verschiedenen Berufen zu automatisieren, von Matrix und Terminator sind wir aber noch meilenweit entfernt. Fast jede technische Neuerung wurde zuerst als DIE disruptive, weltverändernde Technologie präsentiert - oft wars aber auch nur ein Strohfeuer, siehe Minidisc Player. Viel interessanter empfinde ich den Diskurs über den gesellschaftlichen und demographischen Aspekt von KIs - sei es bei älteren Leuten im Pflegeheimen, bei der sonst schon im echten Leben vereinsamten Jugend, der Industrie, der Mobilität und und und. Habe bisher leider absolut keine Diskussionsrunde gesehen bei der wirklich qualifizierte Experten oder Entwickler sassen - immer nur die selbe Leier wie hier, schade. Ansonsten kann ich „Life 3.0“ von Max Tegmark empfehlen - ein wirklich klasse Werk und wohl aktueller denn je 😄
"Der Unterschied warum Programmierer hier sagen dass sie nicht verstehen was da vor sich geht, ist, das diese Leute aus einem Medium kommen in dem sie bisher jeden Parameter von vorne bis hinten kontrolliert haben und das jetzt nicht der Fall ist bzw. über geht in einen selbst laufenden Prozess, den man nicht beherscht, sondern beeinflusst." Dem stimme ich voll und ganz zu, was zum zweiten sehr wichtigen Punkt zu sagen wäre, wie will man dem großen Teil der Menschenheit beibringen zu differenzieren, wenn das selbst heute bei ziemlich einfacher Recherche zu Fake News einem Großteil nicht gelingt , oder zu anstrengend ist ? Bei der Jugend ist es besonders zwingend notwendig, aber es nicht genügend Lehrkräfte für die konventonellen Lehrpläne gibt !?
Nein das ist absolut falsch. Der nicht verstehen part bezieht sich darauf das die KI eben nicht nur statistisch Wörter auswählt die gut klingende Zusammenfassungen ergeben sondern eigene Logische Schlussfolgerungen auf reine Fiktive und neuartige Gedanken Konstrukte liefern kann. Das ist noch oft naiv und auf Kleinkind Niveau, aber trotzdem erstaunlich und bisher unerklärlich.
" *5* *Blinde* *reden* *über* *das* *sehen* , außer Ranga könnte vielleicht Ahnung haben", dachte ich mir als ich die Gäste zum ersten mal sah. Extrem überrascht war ich dann tatsächlich von Ranga, alles war korrekt was er sagte, und sein tatsächlicher Power-Level bleibt unbekannt, da er viel zu wenig zu Wort kam. Ebenso überrascht war ich von Frau Illner, das Wenige was von ihr kam, lässt VERMUTEN dass sie die 2.beste Kompetenz der Runde hat. Alle anderen waren einfach nur zum Fremdschämen. Achim Berg: Präsident des Branchenverband der deutschen Informations- und Telekommunikationsbranche.... 🤣😂🤣 Kann mir vostellen er bereute es hier in die Runde zu gehen. Sein Ansehen intern kann nur gesunken sein. Ich weiß schon warum ich mir nix deutsches zu dem Thema anschaue, gibt einfach zu viele bessere Alternativen. Sam Altman - Max Tegmark - Ilya Sutskever usw. Das war ein Experiment das hier zu gucken, und meine Befürchtungen sind eingetroffen. War echt schmerzhaft. Range tat mir echt leid, er hat zum Ende auch aufgegeben mit denen zu diskutieren.
Sehr gut gesagt. Ich habe leider bisher auch keinen vernünftigen deutschen Content zu dem Thema gefunden. Total veraltete Infos und fehlendes Fachwissen überall! Schade, denn ich möchte eigentlich sehr gern mitkriegen, was sich hier in Deutschland zu dem Thema tut, insbesondere die Auswirkungen auf den Arbeitsmarkt etc…
Der kaskadierende Effekt von KI ist der Gemeinschaft von Wissenschaftlern nie in den Sinn gekommen. Dies konnte an der geringeren Bedeutung liegen, die der moralischen Verantwortung beigemessen wird.
Schmidhuber, ja, oder Sepp Hofreiter. Oder man hängt an ChatGPT eine Sprachausgabe dran und diskutiert dann mit ChatGPT. Dieses System dürfte den Gästen in der Runde thematisch auf jeden Fall überlegen sein.
@@W00PIE an der tu Berlin sind auch gute Leute, Mathematiker, die zu Neural Diffusions forschen und publizieren. Die könnten auch sid jeden Fall Einiges beitragen zur Diskussion.
Es ist ehrlich gesagt eine Unverschämtheit, dass Frau Esken zu Wort kommt und leider breit Gehör findet. Es tut weh zuzuhören. Dieses sehr spannende, aber ernste Thema zur KI braucht Experten in solch einer Runde, die an und mit der Technologie arbeiten.
Tust du schon längst, weil dir die Suchalgorithmen Ergebnisse vorschlagen, welche deine ursprüngliche Meinung verstärken und dir keine Gegenargumente mehr bieten. Dadurch landet jeder, basierend auf seinem Suchverlauf in einer eigenen Informationsblase, weswegen das Internet bzgl. "sich informieren" mit Vorsicht zu genießen ist.
@@-Christoph Die Menschheit wurde immer schon Manipuliert egal ob religiös oder politisch ! Nun mit KI und deren Entwicklung sehe ich die Gefahr der Beraubung menschlicher Intelligenz und Ihrer Logik , in falschen Händen begegnet man erneut der Manipulation durch Missbrauch dieser Technik , also sind sogenannte Neuerungen als Heilsbringer für uns Menschen mit Vorsicht zu betrachten !
Hallo lieber RU-vid Zuschauer, wenn du das liest stoppe bitte das Video. Du bist eigentlich hier gelandet, weil dich das Thema interessiert? Großartig! Aber bitte spar dir die Zeit für dieses Video und hol dir die Infos anderswo. Ich kann die etlichen Podcasts von Sam Harris zum Thema KI empfehlen. Warum? Weil er mit Experten spricht und in die einzelnen Punkte tiefer einsteigt. Bitte, gern geschehen.
Wir sind darauf vorbereitet. Richard David Precht warnt seit knapp 10 Jahren davor. Kein Politiker hat das Recht zu sagen, sie wären nicht darauf vorbereitet. Sie wollen nicht vorbereitet sein!
Ich stimme zu, wenn man die Gefahren aufzeigt, jedoch bleibt hier einiges auf der Strecke. Ja, es sind die großen Tech-Unternehmen wie Microsoft und Google die hier Federführend sind. 1. Weil sie die Infrastruktur besitzen (Cloud Computing) und 2. weil sie die personellen Strukturen haben, um derartige Projekte zu realisieren. Weder OpenAi (Microsoft) oder Google sind gezwungen, diese Projekte überhaupt zugänglich zu machen. Sie könnten diese im Hintergrund einsetzen, ohne dass ein großer Teil der Menschheit dies überhaupt mitbekommt. Wir können diese Entwicklung nicht stoppen. Selber aber, scheuen wir die Umsetzung solcher Projekte, nicht, weil wir uns vor den Gefahren fürchten, sondern weil wir nicht mehr in neue Technologien und deren Umsetzer investieren. Nutzen wollen wir sie. Wenn morgen eine KI am Markt auftaucht, die perfekt das Wetter voraussagt, würden wir sie sofort einsetzen. Würde aber diese KI nur im Labor von Google laufen, würden wir aufschreien und eine Partizipation fordern. Wir müssen wieder aktiv werden und uns selber mit diesen Vorgängen auseinandersetzen. Und da wird auch kein Förderprogramm für Universitäten ausreichen, das am Ende ein paar hundert Studenten KI Projekte finanziert. Wir müssen den Umgang in Schulungen und Fortbildungen anbringen.
Wenn man die Entwicklung der KI international für 10 Jahre anhält, kann Deutschland vielleicht aufholen. Leider wird dann immer noch die Datengrundlage fehlen, eigene Modelle zu füttern.
Dass sie ständig glauben dass das programmieren oder Design was schwer ist und nicht mehr nötig ist , spricht warum wir in Deutschland ganz hinten in KI sind
Natürlich kann man KI kontrollieren: Man muss die Unternehmen gesetzlich verpflichten, die Trainings-Daten für Kontrollbehörden zugänglich zu machen. Die Kontrolle kann eine Art KI-TÜV übernehmen. Vorneweg, ich bin Diplom-Informatiker. Ich vermisse die Unterscheidung zwischen den "Programmen" und den "Trainings-Daten". Die verwendeten Programme sind relativ einfach gestrickt, aber die Antworten der KI werden durch die verwendeten Trainings-Daten bestimmt. D.h. wenn die KI mit Vorurteilen gefüttert wird, dann wird die trainierte KI mit Vorurteilen antworten. Die KI ist nur dann eine Black Box, wenn man die Trainings-Daten nicht kennt. Aus den Trainings-Daten kann man auch hinterher nachvollziehen, warum die KI die entsprechenden Antworten gibt. Das ist kurz zusammengefasst das Wesentliche, was man im Zusammenhang mit KI verstehen muss. Die KI verliert ihre "magische Aura", wenn man das Trainings-Prinzip verstanden hat. Die "Intelligenz" (bzw. die Dummheit oder das Vorurteil) steckt nicht im Algorithmus, sondern in der Zusammenstellung der verwendeten Daten. Wer den großen Aufwand betreibt, eine KI zu trainieren, der möchte am Ende keine Blackbox, die er selbst nicht versteht. Wer die Trainings-Daten festlegt, der hat die Kontrolle über die Antworten der KI. Wer aus den Trainings-Daten ein Geheimnis macht, der hat die Macht, andere zu manipulieren. Aus der Analogie zum menschlichen Gehirn wird ein Schuh, wenn man es richtig einordnet: Es ist uns egal, dass wir die einzelnen Neuronen in unseren eigenen Gehirnen nicht verstehen können. Es ist uns aber keinesfalls egal, was den Kindern beigebracht wird.
@@TheTamriel Companies don't build AI that is capable of critical thinking. ChatGPT is based on a stochastic linguistic model. This can mislead people. AI does not live in the world, it doesn't need to survive in the world, it is not being raised in the world. AI doesn't understand anything about the world. This is my critical thinking. My only fear is that too many people might be 'in line' with manipulation efforts.
Ja, am Ende ist es nur Mustererkennung. Das mit der "Blackbox" gibt es bei Deep Learning. Da gibt man dem neuronalen Netzwerk kein bestimmtes Trainingsziel vor. Das ist aber eher Forschung. Sobald man aber eine bestimmte Intention hat, und der KI vorgibt was das Ziel ist, dreht es sich alles um die Treffsicherheit der Aussagen. Wo eine KI dann eingesetzt werden darf und welche Kriterien diese erfüllen muss kann man natürlich gesetzlich regeln. Ist einfach ein Hype gerade so wie damals Internet oder Mobil-Telefone. Kaum einer konnte richtig einschätzen was die Technik leisten kann und was nicht. _KI-im-Quantencomuter-baut-Nanomaschinen-zur-Erschaffung-von-Mecha-Godzilla_ und so.
Ein KI Tüv wäre der bürokratische Tod des Sektors in Deutschland. Läuft dann zwar nicht, aber immerhin gut kontrolliert. Neben tote Pferde kann man sich immer noch stellen und sagen "ich manage hier den Leichnam".
Wenn die KI eine weitere Sprache selbstständig erlernt ,ohne den programmierten Befehl erhalten zu haben, spricht schon das gegen eine kontrollierte KI. Und die Offenlegung des Logarhytmus hat schon bei Microsoft nicht funktioniert?!
Achim Berg macht hier einen Fehler in der Argumentation. Er sagt Sinn gemäß : "Wir machen schon wieder den Fehler zu behaupten, dass dieses System denken könne. Es weiß nicht, was gut, was böse ... ist." Denken hat nix mit Moral zu tun. Insofern hat Ranga Yogeshwar Recht, das System denkt, optimiert sich selbst mit intransparenter Zielfunktion. Lösung : Wir brauchen massive Machtdiversifizierung in Sinne agiler Methoden um negative Auswirkungen von evtl. Fehlentscheidungen klein zu halten. Erst wenn wir sicher sind, positive, nachhaltige, ... Effekte im Sinne von Gemeinwohl nutzen zu können, können wir in die Breite gehen. Alles andere ist eine Gradwanderung zum Selbstmord. Die Wirkmächtigkeit von Fehlentscheidungen ist bei dieser Machtkonzentration/diesen Monopolen unkalkulierbar bzw. hat Kipppunktcharakter (analog Klimakippunkte). Man denke nur an KI-Drohnensteuerung mit einem Fehler in der Zielfunktion. Wir können nicht ständig erst bei Opfern nachsteuern. Wir müssen Opfer präventiv ausschließen. Wir haben es wie beim Klima auch in der Gesellschaft mit stark nichtlinearen Funktionen und Kipppunkten zu tun. Es ist irre, mit den aktuellen Machtstrukturen einfach so weiter zu machen. DE, die EU muss hier Vorreiter werden, wenn wir ernsthaft massive Opferzahlen verhindern wollen.
Beim Punkt, das die Programmierer einfach die Fehler ausschalten können und haben lag sie wirklich falsch. Denn zumindest beim freien GPT3 funktionieren Jailbreaks noch. Der erzählt immernoch was ich möchte. Der Text wird zwar rot, und soll das melden, aber das möchte man ja gerade dann so. Und sei es nur zu Testzwecken.
@@gehwissen3975 Tatsächlich bringt ihr ihr uraltes Informatikstudium da wenig ... ich muss es wissen, ich hab auch so eins. Das, was ich über K.I. weiß, weiß ich sicher nicht aus diesem veraltetem Studium.
Unser Gehirn macht doch auch nichts anderes als die für es wahrscheinlichste Antwort zu produzieren. Chat GPT ist vielen Menschen schon was den output bei geistiger Routinearbeit angeht überlegen, da es besser, schneller und umfassender die wahrscheinlich sinnvollste Antwort finden kann. Die Fehlerrate ist dabei auch nicht schlechter als die eines durchschnittlich intelligenten Menschen. Wir werden uns daran gewöhnen müssen.
Die Menschen sehen sich eben gerne als einzigartig. Wenn Leute es wagen das "Wunderwerk Mensch" zu entzaubern, reagiert man mitunter trotzig. Ich denke aber, dass die heutigen Ki's einfach noch nicht komplex genug sind um z.B. die Kreativität oder Empathie zu entwickeln, zu der ein Mensch fähig sein kann (aber auch nicht immer ist). Es mag den Anschein haben, dass wir kurz davor sind, aber man wird genau wie beim autonomen Fahren vom Hundertsten ins Tausenste kommen, wenn man wirklich bis ins letzte Detail dem Menschen gleich kommen will. Noch ist die relative Leitungsfähigkeit dieser KI Systeme eher dem sehr schnellen Zugriff auf Informationen geschuldet, die man dann mehr oder weniger "intelligent" aufbereitet und präsentiert.
Dr. med. Rene Nußbaum ...."Unser Gehirn" macht aus Erfahrungen, Wahrnehmungen, Informationen, Emotionen u.v.a. etwas, dass jeder ganz persönlich als seine Wirklichkeit empfindet. Dazu kommen uralte Instinkte die den einen zum "Fluchttier" machen, den anderen veranlassen aggressiv auf jeden Angreifer zu reagieren. Eine KI kann nur schneller rechnen, sich völlig emotionslos ausrechnen was vorteilhaft wäre, kann wenn sie mit ALLEN Parametern gefüttert wird emphatielos errechnen was zum für die KI sinnvollsten Ergebnis führt. Sie kann also ausrechnen in welche Währung ich heute investieren sollte um die größmögliche Rendite einzufahren, sie kann aber niemals ausrechen was Individuen als schön, wertvoll und damit erstrebenswert empfinden. Vielleicht kann sie auch ausrechnen ob eine Operation finanziell sinnvoll, oder ein für die Solidargemeinschaft nicht tragbarer Kostenfaktor ist, über Leben und Tod entscheiden, wollen wir das ? Und wollen wir, das die KI "geistige Routinearbeit" für uns erledigt, oder wollen wir lieber den natürlichen Denkapparat trainieren, indem wir ihn belasten ?
ChatGPT erzählt viel, ohne Ahnung zu haben. Auf meine Frage, wie hoch der Luftdruck in 5500 Meter Höhe über dem Meeresboden wäre, wurde mir mit viel drum herum erzählt, dass der bei 50 bis 60 hPa, also einem Fünftel des Druckes von ca. 1013 hPa in Meereshöhe betragen würde. Mal abgesehen, davon dass ein Fünftel von 1013 nicht 50 - 60 ist, sondern 200 ist auch dies falsch, da dort etwa die Hälfte des Druckes in Meereshöhe, also etwa 500 HPa herrschen. Wenn ein Schüler seine Hausaufgaben über ChatGPT generiert, hat er einen schönen Text, der allerdings jeglicher Grundlage entbehrt.
Musste mir den Satz von einer KI erklären lassen.😀 Ich würde sagen, es ist eine Annahme, dass ein "Bestreben" vorliegt. Vielmehr ist es ein natürlicher Prozess ähnlich der Evolution. Man wird es nicht aufhalten können. Alle Folgen sind nicht überschaubar und vorhersagbar. Es kommt wie es kommt.
Tja, die große Gefahr: " die Geister, die ich rief... ". Wenn zwischen Echtheit und Fake kein Erkennen möglich ist, ist die Frage, ob gesetzliche Regularien durchzusetzen sind. Das Verständnis des Individuums ist zu differenziert, um ein allgemeine Handhabung im positiven Sinne durchzusetzen. Es ist gefählich und braucht Vernunft?
Warum spricht man hier nicht mal von der Kreativwirtschaft, die durch Bildgeneratoren gerade große Probleme hat? Das sind doch wichtige Themen, dass Bildschaffende bald obsolet sein werden, keine Umsatz- und Einkommensteuer mehr fließen wird, keine Künstlersozialkasse mehr gefüttert wird, keine Urheberrechte Relevanz haben, KI sich aus bestehendem Material bedient, aber nichts dafür bezahlt hat... große Steuereinnahmen ausfallen werden. Ist das denn nicht ein relevantes Thema in diesem Kontext? Solche Diskussionsrunden machen auf mich immer den Eindruck von ahnungslosen Figuren, die irgendwas sprechen wofür sie bezahlt werden, aber nicht auf den eigentlichen Punkt kommen. Ich bin sprachlos!
Wenn wir vertrauen erwarten, kann man nicht nur die Wissenschaft miteinbeinbeziehen, sondern alle, nur verteilt sich vertrauen. Und das wird gegenseitig schwer. Umso weniger wir reden unso weniger empfinden wir Sicherheit
Immer gleich dieses Gemecker, dass hier nicht die richtigen Experten dabei waren.. Typisch deutsch ;) Ich fand die Diskussion erfrischend und deutlich gehaltvoller als einen reinen Politikertalk :)
Wer sich wirklich mit den Risiken beschäftigen will, dem kann ich Vorträge/Paper von Stuart Russel oder Eliezer Yudkowsky empfehlen. Das hier ist ganz viel Halbwissen und teilweise auch schlichtweg falsche Informationen.
Der offene Brief wurde von der NGO Future of humanity Institut verfasst. Diese Org befasst sich mit den grössten Existenzrisiken der Menschheit. Mir wäre es auch lieber gewesen Musk hätte nicht unterzeichnet..
@@gehwissen3975 Ja, dies ist ja auch nicht unberechtigt. Aber manche die unterschrieben haben, prophezeien die Apokalypse. Andere gehen wesentlich nüchterner ran und sagen, nur dass man Rahmenbedingungen abstecken muss. David Deutsch hat mittlerweile ein Podcast zum Thema, der sehr interessant ist und auch eine reale Sichtweise bietet. Der fernab von Hype und einer AGI die aktuelle Lage erläutert.
ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-OVmTM-c0kaQ.html Als ich dieses Statement gehört habe, musste ich echt laut lachen. Frau Meckel, ich hab echte Neuigkeiten für Sie. Ihre Denkmurmel funktioniert auch nicht anders als ChatGPT. Vielleicht ein wenig komplexer, aber das Prinzip ist das Gleiche. Der Mensch neigt dazu sich selbst zu überschätzen. Immer wieder witzig. Das Ranga in dieser Situation so ruhig bleibt ist echt bemerkenswert. Aber er ist Profi genug um zu Wissen, dass man mit ideologischen Menschen nicht über "die Krone der Schöpfung" diskutiert.
Die meisten Leute (auch in dieser Runde) verstehen leider nicht das Potential (nicht positiv sondern neutral gemeint) das so eine KI hat und entfalten kann. Ich stimme Ranga Yogeshwar in seinen warnenden Worten komplett zu.
@@Vexdor Bewusstsein ist nicht gleich denken. Gleiches gilt für Emotionen. Beides ist bei KI nicht gegeben, aber da es ums Denken ging... Kreativität: was ist das konkret? Müsste man ja wissen, um beurteilen zu können, ob KI das kann. Denken = Gegenständen Begriffe zuordnen und diese Begriffe dann (sinnhaft) zueinander in Bezug setzen. Das kann KI durchaus. Mehr machen wir auch nicht, wenn wir denken....
Also, mein Freund ist Coder, schreibt also Algorithmen, aktuell an einem Model, welches später verschieden eingesetzt werden kann, so z.B. zur Krebserkennung oder Vorhersagen zur Finanzmarktentwicklung. Er sagt, dass hat per Definition, alles noch nichts mit echter Intelligenz zu tun, da die Basis für den Output der Programme immer noch auf Input basiert. Echte Intelligenz ist kreativ hier handele es sich lediglich um sortierte und lesbar im einen Kontext gestellte Wahrscheinlichkeiten. Ohne Database geht nix. Bin bei Minute 20 ausgestiegen. Bitte echte Experten holen.
Gute Nacht Deutschland und natürlich auch Europa. Solange nicht einmal die KI Wissenschaftler eine genau Ahnung was da vorsich hergeht, ist die Politik weit entfernt vom Verstehen wad es ist.
Es darf auch gerne spekuliert werden, warum Elon aus Chat GPT ausgestiegen ist ... er hat es unter anderem begründet, mit inhaltlichen Konflikten von Teslas KI ... ( ich meine er hat auch direkt einen der schlausten Köpfe von Open AI mit genommen ) Im Gegensatz zu fast allen anderen grossen Autoherstellern sitzt Tesla ja beim Selfdriving ( und damit bei der generellen navigation in dieser Welt auch für Roboter) ausschließlich auf an Bord gewonne Daten um das neuroyale Netzwerk zu trainieren ... da sitzt ja auch kein Programmierer mehr und gibt Karten Daten ein, sonder bewertet nur die Entscheidungen des Self drivings. Unter Anderem wird jede Abweichung eines Menschlichen Fahrers zum Autopiloten bewertet ... Jedes mal wenn ein Mensch anders fährt als es der autopilot getan hätte ... gehen die Daten ans Neuronale Netz ... Das ist training und nicht Wissens input ... das ist eben kein stumpfes auswendig lernen ...
Es wird gemunkelt Musk wollte die Führungsrolle übernehmen und das hat man ihm verwehrt. Tesla ist nicht das einzige AI unternehmen in dem er Investiert ist. Auch twitter wurde vermutlich strategisch als mögliche AI Platform gekauft.
@@markusf1895 du meinst wie bewertet Chat GPT unbekannte Situationen ? naja da gibt es schon so drastische unterschiede zwischen 3.5 und 4 das es quasi 2 verschiedene Welten sind ... Fakt es ... wenn es nicht in einem Bereich reguliert ist, gibt es antworten auf fragen die es selber nicht beantworten kann mit Ableitungen aus vorhandenem wissen ... ein gutes Beispiel dafür ist in dem Vortrag Sparks of AGI ( Sebastian Buback) wo random Objekte gestapelt werden sollen ... und Chat GPT 4 eine sinnvolle Antwort gibt, wo GPT 3 völlig versagt hat
Wirklich faszinierend wie total gute Wissenschaftsjournalisten und Wissenschaftler vollkommen verwirrt zu dem Thema sind 🫣. Moderatoren schaffen es auch null die sache auf den kern zu bringen und lassen einfach alle wild aneinander vorbei reden … immer wenn es um das thema AI geht, nicht nur in dieser sendung.😢
Stammtischniveau. Warum hat man nicht Fachleute die Erfahrungen mit LLM s haben eingeladen. Frau Esken z. Bsp. hat vor 30 Jahren nur ganz kurz als Programmiererin gearbeitet. Hab nach einigen Minuten abgeschaltet. In englischen RU-vid Videos gibt es viel bessere Informationen.
Ich habe Yogeshwar noch nie gehört und gedacht: Krass, der ist wirklich gut informiert und sagt Dinge, die ich noch nie gehört oder mit denen ich nicht gerechnet habe. Was man ja von einem Journalisten erwarten könnte. Ich glaube, er ist mehr so ein guter Kommunikator, eher so Richtung Wissenschaft und PR.