Тёмный

37C3 - Lass mal das Innere eines Neuronalen Netzes ansehen! 

media.ccc.de
Подписаться 208 тыс.
Просмотров 50 тыс.
50% 1

media.ccc.de/v/37c3-11784-las...
Nachdem in den letzten Jahren dauernd der Weltuntergang durch KI heraufbeschworen wurde, ist es an der Zeit nachzuschauen, was diese ominösen Neuronalen Netze (NN) eigentlich sind. Wir beginnen mit einer anschaulichen Erklärung, wie ein NN funktioniert und warum es keine wirkliche Ähnlichkeit mit deinem Gehirn hat. Anschließend schrauben wir die Black Box, wie es so schön heißt, einfach einmal auf: Wie können NN erklärbar gemacht werden? Warum trifft ein Neuronales Netz diese oder jene Entscheidung? Was an der politischen Forderung nach erklärbarer KI ist tatsächlich umsetzbar? Außerdem werden wir sehen, wie NN manchmal schummeln, um eine Vorhersage zu treffen. Im Gegenzug tricksen wir sie auch gezielt aus.
Brauchen wir wirklich einen weiteren Vortrag über Künstliche Intelligenz? In den letzten Jahren war das Thema omnipräsent, Bilder werden jetzt generiert, Texte nicht mehr selbst geschrieben und ob ich kreditwürdig bin, prüft auch so eine KI. Und wer weiß, neulich klang der Chat Bot richtig menschlich, vielleicht hat er ja doch ein Bewusstsein.
In diesem Vortrag geht es nicht um tolle Errungenschaften von KI-Systemen oder um „30 Prompts, mit denen du noch effektiver bist!“. Dieser Vortrag legt den Grundstein für ein Verständnis von maschinellem Lernen mit dem Ziel, dass du am Ende selbst die aktuellen Entwicklungen einschätzen kannst: Übertrumpfen Neuronale Netze irgendwann wirklich den Menschen? Oder können sie im Grunde gar nichts und sind massiv fehleranfällig? Und die Frage aller Fragen: Hat künstliche Intelligenz ein Bewusstsein oder steht kurz davor, eines zu entwickeln? Über all das kannst du dir nach dem Vortrag eine eigene fundiertere Meinung bilden.
Annika Rüll
events.ccc.de/congress/2023/h...
#37c3 #Science

Опубликовано:

 

30 дек 2023

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 86   
@Dalmen
@Dalmen 5 месяцев назад
Echt guter Vortrag! Sehr gut verständlich für jeden. Hoffe wir hören mehr Beiträge von Ihr.
@mhotzel
@mhotzel 5 месяцев назад
Hervorragend! Ich habe mich die letzten Tage mit Neuronalen Netzwerken beschäftigt und anhand des Buches "Neuronale Netze selbst programmieren mit Python" von Tariq Rashid das ganze selbst nachgebaut und trainiert ohne "PyTorch-Magie", weil ich das Ganze mal richtig verstehen wollte. War mega sinnvoll fürs Verständnis. Dazu dieser tolle Vortrag: Dieser hat mir nochmal richtig viele Fragen beantwortet. VIELEN DANK!
@petermuller608
@petermuller608 5 месяцев назад
Wirklich toll erklärt! Danke für den Vortrag
@Tipps_fuer_Schriftfuehrer
@Tipps_fuer_Schriftfuehrer 2 месяца назад
Spitze! Und herzlichen Glückwunsch zur Auszeichnung!
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
2:53 linear regression 6:24 perzeptron 10:30 (hidden) layers 13:00 preprocessing(bild zu tensor) 16:00 tokenizers und embedding (text zu tensor) 21:00 feature importances
@theodorbarth8436
@theodorbarth8436 5 месяцев назад
Klasse Vortrag 👍 Ich würde mich über einen solchen Vortrag über Tranformer freuen.
@Chloe_Priceless
@Chloe_Priceless 5 месяцев назад
Lieben Dank für den tollen Vortrag das hat das ganze nochmal ansehnlicher gemacht wie das arbeitet, gerade den Teil mit dem y=ax+b fand ich sehr toll endlich hab ich das denke ich mal annähernd mehr verstanden als zuvor (bei dem Thema in der Schule habe ich resigniert). Du hast das ganze Thema über Neuronale Netze für mich besser erklärt als viele viele andere.
@Protoscherge
@Protoscherge 5 месяцев назад
Top Talk - gut gehandled trotz des Pointers
@ChristophGranz
@ChristophGranz 5 месяцев назад
Sehr kompakt und toll erklärt, wir neuronale Netze von innen aussehen. Durchatmen vor dem Talk. Du bist eine sehr gute Rednerin!
@haraldclark6206
@haraldclark6206 3 месяца назад
Vielen Dank für die Super Vortrag! Sehr Gut!
@compuholic82
@compuholic82 5 месяцев назад
Vielleicht die Antwort auf die Frage bei 30:50 Das wurde lange Zeit tatsächlich so gemacht und (wie bereits bemerkt wurde, wird das in manchen Bereichen immer noch so gemacht). Insbesondere im Bereich Computer Vision hat man sich von diesem Ansatz eher wieder entfernt. Das Problem ist, dass man beim Feature-Engineering i.d.R. Informationen wegwirft. Daher trennt man nicht mehr zwischen Feature-Extraktion und Klassifikation und erlaubt es dem Netz sich selbst die interessanten Features zu suchen. Die ersten Schichten des Netzes sind dann i.d.R. aus Operationen (z.B. Faltungen) aufgebaut die für die Feature-Extraktion relevant sind. Aber da sowohl Feature-Extraktion als auch Klassifikation Teil des gleichen Netzwerkes sind, kann der Optimierer auch beide gemeinsam adaptieren.
@seriouce4832
@seriouce4832 5 месяцев назад
Echt merkwürdig dass Annika Feature Engineering nicht kennt. Feature Engineering hat die letzten Jahrzehnte (also sozusagen "seit immer") ML komplett dominiert und wird langsam aber sicher abgebaut. Das Gegenteil von Feature Engineering heißt übrigens "end to end", sprich man überlässt dem neuronalen Netz die komplette Verarbeitung von Eingabe bis Ausgabe, statt eben einige Schritte manuell zu implementieren. Dadurch spart man sich Arbeit, kriegt bessere Ergebnisse, und man vermeidet das Risiko, durch feature engineering einen Fehler zu machen (es ist ja opinionated).
@compuholic82
@compuholic82 5 месяцев назад
@@seriouce4832 Ist wahrscheinlich der Fluch (oder Segen, je wie man es sieht) der Jugend. Wenn man quasi mit Faltungsnetzen aufgewachsen ist, kennt man es vermutlich nicht mehr anders.
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
& @seriouce4832 das versteh ich irgendwie nicht: feature engineering ist ja eigentlich ein überbegriff für techniken. das kann ja einmal heißen das man die rohdaten vorverarbeitet, oder auch das man mittels transfer learning bestimmte feature importances auf ein anderes modell überträgt. wie kann man den ein modell trainieren ohne die daten zu normalisieren (was ja teil des feature engineering ist)? also man setzt dann extra schichten die dann die normalisierung ersetzen? und was meint hier "daten wegwerfen"? wenn ich nicht alle rohdaten brauche, dann muss ich das modell doch nicht komplexer machen und diese dann trotzdem eingeben. also ich habe das jetzt so verstanden das e2e zwar keine transformer benutzt aber die daten trotzdem normalisiert werden müssen was ja teil des feature engineering ist
@Tilagiho
@Tilagiho 5 месяцев назад
​@@seriouce4832Wobei man schon sagen muss, dass große Teile von ML (vor allem Tabular Data) immer noch Feature Engineering einsetzen und end-to-end Modelle oft nur zusätzlich (als Teil eines Ensembles) benutzt werden.
@frank-lr
@frank-lr 5 месяцев назад
Zu erkennende Objekte in Bildern zu modellieren und dafür features zu definieren und abzuleiten ist/war die Grundlage von Computer Vision seit, wann?, 1950 oder so. Wird in der industriellen Bildverabeitung immernoch angewendet, insbes. wenn man gar kein ML benötigt. Irgendwann kam man auf die Idee, das wegzulassen und hat Deep Learning direkt auf Pixeln verwendet. Jetzt merkt man, dass das nicht immer so toll ist (eben z.B. wg. der Erklärbarkeit) und nun kommt man wieder dahin, mehr Modellwissen einzubringen, damit ein Stopschild nicht per adversarial Muster als 130km/h erkannt wird, weil ein Stopschild halt ein rotes Achteck mit weißem Text darin ist, achwas, achnein. Bedauerlich, dass Einige die Historie der Mustererkennung nicht gelernt haben und überall einfach DL draufwerfen.
@Gorgonias
@Gorgonias 5 месяцев назад
So gut, danke! Die Idee aus ihrer Masterarbeit ist die erste Richtung Nachhaltigkeit im Kontext KI die ich Sinnvoll finde. Vielen Dank für den Impuls
@mannamanfulify
@mannamanfulify 3 месяца назад
Sehr spannend. Vielen Dank für den Vortrag. Coole slides auch
@renzuki5830
@renzuki5830 3 месяца назад
Perfekter Vortrag für den Einstieg. Genau der hat mir gefehlt :)
@karl_maximus
@karl_maximus 5 месяцев назад
Vielen Dank, sehr gut erklärt.
@technickUM
@technickUM 5 месяцев назад
Mega Vortrag! Und am Ende die richtig gute Erklärung der Fragenden noch einmal. Du weißt, was du machst. Mehr von dir. Du kannst höhere Komplexitäten so erklären, dass auch der Unwissende es versteht. Davor ziehe ich meinen Hut. 🤗
@TobiasGeek
@TobiasGeek 5 месяцев назад
Echt ein Top Vortrag! :D
@ralefalba3233
@ralefalba3233 5 месяцев назад
Vielen Dank für die tolle Einführung. Auch in Zukunft gerne mit Mut zur Mathematik. 👍
@itissatno
@itissatno 5 месяцев назад
Super Vortrag!
@karionwhite2367
@karionwhite2367 5 месяцев назад
Können wir zusammen legen und ihr ein besseren Pointer schenken?
@sascharambeaud1609
@sascharambeaud1609 4 месяца назад
Guter Vortrag, aber kleine Korrektur: Nein, du kannst nicht aus dem Zahlenwert am Ende den Input rekonstruieren, dafür verschwindet unterwegs einfach zu viel Information.
@quebono100
@quebono100 5 месяцев назад
Super Vortrag
@vannevantastisch1814
@vannevantastisch1814 5 месяцев назад
Am Anfang komme ich nicht ganz mit - da sind mir die Sprünge zu groß. Ab der Hälfte bin ich dann aber drin. Trotz leichter Nervosität in der Stimme ein super Vortrag. Weiter so!
@derwuki
@derwuki 5 месяцев назад
Richtig gut 👍👍👍
@yahmk3978
@yahmk3978 5 месяцев назад
Vielen Dank!
@uwehalla4902
@uwehalla4902 5 месяцев назад
Gott sei Dank kam die Frage mit dem "Embedding" noch. :)
@nicks1482
@nicks1482 5 месяцев назад
Toll! 🐶
@DathCoco
@DathCoco 5 месяцев назад
Super Vortrag, danke! Ich hätte zu 12:12 noch den Wunsch: Wie kommt man auf das NN design? Also wann entscheidet man welche Knoten/Neuronen hinzuzufügen und zu verbinden sind? Ich kenn mich nur Oberflächlich damit aus, bin aber sehr interessiert. Falls jemand Lektüre/Videovorschläge hat würde ich mich sehr drüber freuen :)
@malickruschtchof6772
@malickruschtchof6772 5 месяцев назад
das nn design ist vorgegeben, alles was der Mensch erfindet oder baut schaut er sich bei der Natur ab oder anders gesagt die Information ist schon da nur dein geist begreift es noch nicht. Das menschliche Gehirn funktioniert auch genau so wie hier im Video erklärt, jede Information besteht aus unzähligen biometrischen Informationsmustern die im Gehirn durch Neuronen und Synapsen sozusagen gespiegelt sind, durch das Milgram Experiment kann man testen wie gut das Gehirn mit biometrischen Informationsmustern durchsetzt ist und ob es sich um einen Bioroboter oder Menschen handelt. Zum letzten Teil mit dem "raparieren" was man auch durch manipulieren ersetzen kann, gibt es das Solomon Asch Konformitätsexperiment wo man mal wieder Bioroboter neu programmieren kann und wenn man dieses Muster der Manipulation kennt, dann fällt man nicht mehr darauf rein und kann sich als Mensch bezeichnen.
@Killerhippo111
@Killerhippo111 5 месяцев назад
Wenn man so eine Heatmap hat, wo man sehen kann welche Parameter wichtig sind, könnte man den Spieß nicht umdrehen und eine neue Heatmap zeichnen und so die Parameter neu gewichten? Oder wäre das eher kontraproduktiv, zu aufwändig, gar nicht mehr notwendig, weil größere neuronale Netzwerke das Problem nicht mehr so sehr haben?
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
meinst du backpropagation?
@petermuschick9914
@petermuschick9914 5 месяцев назад
Das ist ja quasi das Lernen eines Netzes an sich. Das Netz passt sich an, lernt somit bei ausreichend Neuronen auch andere Sonderfälle korrekt zu lernen.
@martinkifmann6177
@martinkifmann6177 5 месяцев назад
Super Vortrag. 👍 Nächstes mal bitte Mikro weiter hinten und seitlich, dann sind die Schnaufgeräusche weg 🤗
@malickruschtchof6772
@malickruschtchof6772 5 месяцев назад
in dem Diagramm fehlen die groß Katzen, man kann demzufolge gleich zur Bildanalyse übergehen
@donnawetter1513
@donnawetter1513 5 месяцев назад
Was ist denn mit der Methode Katzen und Hunde freigestellt zur Analyse zu geben damit der Hintergrund und Hände von Menschen nicht mit reinspielen?
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
ja auf jeden fall. das verringert das rauschen. also ich habe das so gemacht für mein yolo-modell. also die hintergründe können halt noch mal zusätzliche infos geben, aber dann müsstest du auch alle möglichen hintergründe im datensatz haben und müsstest für diese dann zusätzliche klassen erstellen wie: "hund hinter baum". das braucht man aber eigentlich nicht mehr seit segment anything. das ist dann aber auch deutlich langsamer als ein yolo modell, weil es halt viel komplexer ist. du kannst aber auch ein yolov modell trainieren und dir danach eine bildbeschreibung für alle erkannten objekte generieren lassen und dann halt die texte mit cosinusähnlichkeit oder so vergleichen
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
das ist auch besser wenn du nicht so viele unterschiedliche bilder hast, denn wenn das modell nur mit bestimmten hintergründen trainiert wurde, dann erkennt es eventuell andere bilder mit anderen gegebenheiten nicht mehr
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
aber jedes bild freizustellen ist halt mega aufwendig, weil du musst halt dann auch gucken ob das geklappt und die freistellung dann noch verfeinern und so. da gabs so ne api die da sehr hilfreich ist. also am ende hast du halt echt halb fotoshop programmiert xD und du musst halt tausendfach über den tensor iterieren
@TheDeceptiveHero
@TheDeceptiveHero 5 месяцев назад
Ladet ihr auch noch Patrick Breyers Vortrag zur Chatkontrolle hoch?
@HoppiHopp
@HoppiHopp 5 месяцев назад
13:54 Die Katze ist sooo süß!
@klauswerner
@klauswerner 3 месяца назад
Blöde Frage,vielleicht macht man das auch. Bei Worten in ChatGPT nimmt man Wortbestandteile, warum nicht bei Bildern zusätzlich charakteristische Elemente zum Training (beim Tiger die Streifen)?
@kawasakizx750g6
@kawasakizx750g6 5 месяцев назад
Schöner Vortrag. Was mich - wie auch in vielen anderen Bereichen - stört ist die "Black Box". Wenn die Mechanismen darin nicht offen gelegt sind kann man m.E. den Ergebnissen nicht trauen. Betrifft aber alle propietäre Software.
@timothygillespie6281
@timothygillespie6281 5 месяцев назад
Die Mechanismen sind ja offen gelegt - die sagen einen nur oftmals nicht viel. Das hat mit propietär oder nichts erstmal nichts zu tun. Man würde kein Neuronales Netzwerk nehmen um zum Beispiel 3 + 4 zu rechnen. Dafür haben wir bessere, effizientere und zuverlässigere Methoden. Man nimmt die dort, wo es an besseren Methoden fehlt und muss damit rechnen, dass Sachen falsch eingestuft werden. Wenn Du aber ein Katzenforum moderierst wo Hundebilder verboten sind, dann kann das hier beispielhafte Neuronale Netzwerk eingesetzt werden damit Bilder, welche als Hunde eingestuft wurden, erst noch von einen Menschen geprüft werden. Es kann sein, dass mal eine Katze fälschlicherweise als Hund eingestuft wird, dann wird es halt vom Moderator zugelassen. Wenn mal ein Hund als Katze eingestuft wird, dann ist mal einer durchgerutscht. Die Konsequenzen sind allerdings nicht dramatisch und damit Fehler tolerierbar.
@derLeon16
@derLeon16 5 месяцев назад
zu dem +100 hund in den fragen: hab ein video gesehen, wo jemand großbuchstaben lernen lassen hat und daraus dann kleinbuchstaben finden lassen. als es das konnte, hat er die kleinbuchstaben als großbuchstaben deklariert und kleinbuchstaben machen lassen bzw umgekehrt. also ja, sowas in der art geht
@troetenvirtuose9103
@troetenvirtuose9103 2 месяца назад
Das Video haben bisher nur 48K Leute geguckt... Gibt also nach wie vor zu viele, die mir was über KI erzählen, als ob es reinste Magie sei 😢
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 месяцев назад
was sie hier leider überhaupt nicht erwähnt hat ist backpropagation und errorfunktion, was wirklich essentiell ist wenn man nn's im ansatz verstehen will. denn so lernt ein nn ja
@kbusse
@kbusse 5 месяцев назад
30 Minuten, da kann man nicht über alles reden.
@wadotrust
@wadotrust 5 месяцев назад
Toller Vortrag....wäre es zum Trainieren der Daten nicht sinnvoll, einfach noch den Begriff Finger/hand mit, ein zu Trainieren? Sozusagen derm Netzwerk zu sagen Das ist eine Hand und Finger.
@nonlinearsound-001
@nonlinearsound-001 5 месяцев назад
Das passiert in der Tat auch. In ihrem Beispiel hat sie diesen Fakt wohl nur nicht angesprochen. Du erweiterst dein Input-Set oft durch zusätzliche Dimensionen - erweiterst dein Feature-Set. Somit kann das Modell mit wesentlich mehr Attribute rechnen und wird im Verlaufe des Aufbauens eines Netzes die relevanten weiter stärken und die irrelevanten schwächer bewerten.
@BertAframion
@BertAframion 5 месяцев назад
Ist die Antwort bei 36:00 nicht falsch? Das Modell selbst kann ja nur die Vorhersage geben. Man kann durch XAI doch höchstens quasi das beste Beispiel für Hund und Katze herausfinden?
@mamore.
@mamore. 5 месяцев назад
Man kann ein "leeres" so anpassen, dass es eine bestimmte Ausgangklasse des neuronalen Netzes triggert. Dabei entsteht sozusagen das grundsätzliche Konzept der KI für z.b. die Klasse Fisch oder Hund. Google hat das mal gemacht und gezeigt blog.research.google/2015/06/inceptionism-going-deeper-into-neural.html
@ClundXIII
@ClundXIII 5 месяцев назад
Die Nichtlinearität macht die Umkehrung unmöglich. Nichtlinearität wäre zum Beispiel: x --> [ 0 wenn x
@KanjiasDev
@KanjiasDev 5 месяцев назад
Gewicht und Höhe funktioniert bis zum ersten Dackel xD
@wowwohoo77
@wowwohoo77 3 месяца назад
wie der vortrag ist kann ich noch nicht sagen, aber für eine Master absolventin ziemlich komisch. steht mit Ihrem komischen pointer, der anscheinent nicht wie normal funktioniert, da rum anstatt einfach an den rechner zu gehen. Studenten halt.
@nilskonrad4729
@nilskonrad4729 Месяц назад
05;10 Minuten. Wieder mal ein klassisches Beispiel dafür, ob jemand wirklich eine Sache verstand hat und sie STRINGENT erklären kann. Eigentlich eine sehr gute Präsentation, aber der Bruch ist gravierend! Warum ist die zweite Gleichung "quasi das Gleiche"? Komplexe Dinge durchgehend gut zu erklären ist eine hohe Kunst, die hier leider eben nicht zu 100% beherrscht wird. Jedes Mal wenn ich das Video sehe, schüttele ich an dieser Stelle den Kopf. Die Gleichungen sind eben NICHT das selbe. Die eine beschreibt eine Kurve, die andere ein Ergebnis links oder rechts der Kurve. Und davon gibt es weitere Brüche in der Präsentation. Das ist das Manko heutzutage, was man überall antrifft. Sei es KI oder der Zusammenbau von Möbeln oder einem Fahrad. 3-.
@quebono100
@quebono100 5 месяцев назад
36:47 Das ist nicht korrekt. Tesla verwendet unsupervised learning
@freckhard
@freckhard 5 месяцев назад
Das initial dataset / neural net ist aber supervised trainiert worden, wäre sonst ein lustiger Launch gewesen auf den Straßen erstmal durch ausprobieren die Verkehrsschilder etc. zu misachten :D
@quebono100
@quebono100 5 месяцев назад
@@freckhard Es hört sich so an, als würdest du glauben, dass man ein Model zuerst supervised trainiert und wenn es gut genug ist, kann man auf unsupervised rüber springen
@freckhard
@freckhard 5 месяцев назад
Ich glaube das nicht nur, ich habe das so auch mal gemacht :-) und im Verkehrsbereich fände ich das auch sinnvoll. Letzten Endes wird Tesla es schon so gemacht haben wie es funktioniert, ob supervised oder nicht.
@quebono100
@quebono100 5 месяцев назад
@@freckhard Das sind zwei verschiedene paar Schuhe, wieso sollte Tesla Resourcen verschwendung betreiben
@mamore.
@mamore. 5 месяцев назад
Tesla trainiert vollständig supervised. Die Trainingsdaten bestehen aus dem Kamerafeed der Fahrzeuge und die Zielwerte sind z.B. die Handlungen der Fahrer bei ausgeschaltetem Autopilot (nach links lenken, beschleunigen, etc.) Wenn man davon genug sammelt trainiert man ein Modell end-to-end supervised auf die realen Fahrten der Nutzer. Weiterhin erkennt das Modell ich Fußgänger, Fahrzeuge, segmentiert die komplette Straße, etc was natürlich auch supervised trainiert ist ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-qBGzo5nyfmo.html&ab_channel=ALLElectric%E2%9A%A1%EF%B8%8F
@elfboi523
@elfboi523 5 месяцев назад
Ich muß jetzt gerade an diese Aufkleber denken, die man auf Verkehrsschilder kleben kann, damit sie von selbstfahrenden Autos nicht mehr erkannt werden.
@freckhard
@freckhard 5 месяцев назад
Genau das ist mir auch in den Sinn gekommen, war das nicht sogar beim (vor?)vorletzten Congress in einem Talk? Edit: Ein bekanntes Paper dazu heisst "Robust Physical-World Attacks on Deep Learning Models" aus dem Jahre 2018. Medium und Vice haben dazu ganz lesbare Artikel geschrieben.
@To4242M
@To4242M 5 месяцев назад
Schön, dass Du so ausführlich erklärst, wie 'dumm' diese Systeme grundsätzlich sind, und dass sie Fehler machen und Unfug machen und sich reinlegen lassen - und dass hier grundsätzlich Software auf Hardware läuft und Mathematik ausführt, also keine Magie. In der üblichen kurzen Mediendarstellung klingt dies ja leider oft ganz anders. Kritische Anmerkung: Du sagst, dass Du von Gehirnen keine Ahnung hast, und dass dies neuronale Netze mit Mathematik sind, keine Gehirne mit Magie. Wie kommst Du darauf, dass Gehirne was mit Magie zu tun haben, und keine neuronalen Netze sind die Mathe machen?
@malfroller3022
@malfroller3022 5 месяцев назад
Ist natürlich Laienwissen, aber guter Vortrag!
@vecvan
@vecvan 5 месяцев назад
Der Vortrag verschweigt, dass die Mathematik dahinter schon auch aus der Forschung an Neuronen herkommt und das Funktionsprinzip schon längst verstanden war bevor die Rechenleistung es nutzbar machen konnte. Natürlich war das auch viel Mathematik, ist halt eine Stützwissenschaft, die überall drin ist. Aber es ging nicht aus der sogenannten Reinen Mathematik hervor. Durchbrüche ja (Terrence Tao "one pixel camera" zB., der ist Mathematiker). Der wichtigere Punkt ist doch, dass zum menschlichen Denken mehr gehört und dies gar nicht vollständig verstanden ist.
@kbusse
@kbusse 5 месяцев назад
Das ist ein Vortrag von einer guten halben Stunde über neuronale Netze, und nicht der angeblich „wichtigste Punkt“ Ihrer Schwurbelei übers menschliche Denken.
@axelurbanski2774
@axelurbanski2774 5 месяцев назад
Bei KI und inneres der KI muss ich immer an Brainwashing denken, kann das wer verstehen ?
@dasistdiewahrheit9585
@dasistdiewahrheit9585 5 месяцев назад
POINTER, WHY YOU NO WORK?
Далее
Neuronale Netze - Basiswissen
1:07:46
Просмотров 85 тыс.
36C3 -  Hirne Hacken
43:48
Просмотров 580 тыс.
Final muy increíble 😱
00:46
Просмотров 4,2 млн
Stray Kids "ATE" Trailer
02:42
Просмотров 1,9 млн
[r3s]  OSINT: Ich weiß wo dein Haus wohnt (jomo)
1:05:44
Просмотров 134 тыс.
37C3 -  Hirne hacken: Hackback Edition
1:01:40
Просмотров 128 тыс.
37C3 -  SMTP Smuggling - Spoofing E-Mails Worldwide
31:40
Final muy increíble 😱
00:46
Просмотров 4,2 млн