Dieser Vortrag war wirklich sehr interessant und kurzweilig aufbereitet. Ich habe nur noch nicht ganz verstanden, warum in die Fotoserie mit den vielen Waffen eine Schildkröte hineingemischt wurde, obwohl es sich bei dieser ja um ein recht ungefährliches Tier handelt. 🤖
Wenn man der Schildkröte den Panzer auszieht, da eine Zeitbombe reinwirft..den Kopf und die Beine der Schildkröte mit UHU wieder befestigt...BUMM...ok, ich gehe ja schon wieder in die Künstlerische Fantasie Ebene in meinen Kopf..Bye ♡ =)
Du solltest nochmal deine Software aktualisieren. Tatsächlich war das eine Bild in der Fotoserie ein Gewehr und keine Schildkröte. Keine Ahnung, wieso das so viele als Schildkröte erkennen, wobei es sich doch offensichtlich um ein Gewehr handelt
Bin froh, dass das Video mir etliche Male wiederholend empfohlen wurde, da ich mir zwar merken wollte es noch anzusehen, aber wahrscheinlich sonst nicht mehr dazugekommen wäre. Tolles Video, unterhaltsam. Es gibt die vielen "ähs" zu kritisieren, dennoch gut hingekriegt.
mich nerven eher seine weil/denn bzw Hauptsatz/Nebensatz Probleme. z.B ",weil je nach Anbieter wird das hochgeladen." statt richtig: ",weil das je nach Anbieter hochgeladen WIRD." oder ",DENN je nach Anbieter wird das irgendwie hochgeladen."
Mega geil, ich war schon immer davon überzeugt das das menschliche Gehirn mit allem was wir noch nicht wissen, nicht so mal eben reproduzierbar ist. Danke für diese Erklärung.
Da muss ich dich enttäuschen. Mit genügend Rechenleistung, Trainingsdaten und Willen ist heute schon so einiges möglich. z.B. kann man jetzt schon Kunst innerhalb weniger Sekunden automatisch generieren.
@@dennismeier1486 Was hat das mit der Reproduzierbarkeit des Hirns zu tun? Das ist Reproduzierbarkeit von Kunst und über den Kunstbegriff lässt sich bei KI-generierter Kunst freilich streiten (und über Copyright).
Natürlich ist es reproduzierbar. Ausgerechnet in dem Bereich, den wir Menschen für niemals reproduzierbarhielten: Kreativität,rollt KI aktuell in richtig nutzbare Bereiche.
@@diaet Aber das ist ja auch keine wirkliche Kreativität. Ein paar Schlagwörter in Bilder umwandeln ist nicht dasselbe wie wirklich etwas entwerfen. Kreativität ist ja nicht nur digitale Bilder, sondern auch Werkstoffe miteinander kombinieren, Lösungen für ein technisches Problem finden, Arbeitsabläufe definieren, etc. Geh mal in eine Kunstausstellung, das wäre ultra langweilig wenn da nur KI generierte Bilder hingen. Etwas wirklich neues zu schaffen ist noch immer menschlichen Hirnen vorbehalten. Im Moment sehe ich KI generierte Bilder auf dem Level von Siri, wenn man Sprachgesteuterte Computer aus ScifiFilmen mit dem Level von menschlicher Kreativität vergleicht.
Guter Vortrag, treffende Argumente. Warum das als SCIENCE-SLAM verkauft wird, verstehe ich nicht so ganz. Ist für mich die beste Relativierung des viel zu hoch gehypten Themas "maschinelles Lernen". So etwas wird u.A. für Prüfverfahren in der industriellen Fertigung verwendet wird, obwohl man das eigentliche Prüfverfahren nicht ansatzweise verifizieren kann.
Bitte bleiben sie skeptisch ist ein guter Ratschlag. Wobei man sich sagen muss, dass die Versprechungen von ML/AI einfach schwer überzogen sind. Sicherlich hat es aber auch tolle Anwendungsbereiche. Bei der Medikamentenentwicklung versuchen wir auch gerade unser Glück an Massen von klinischen Daten... Bisher mit sehr überschaubarem Erfolg ^^
9:00 der Baseball in Zeile 3 Spalte 4 sieht aber wirklich aus wie eine Kaffeetasse von oben. *Generell finde ich dass man bei den Baseballs es irgendwie nachvollziehen kann. Bei vielen roten sieht man die Nähte von oben (was halt wie ne Tasse aussieht, irgendwie) oder in einer Graden Linie quer über den Ball. Bei den grünen erkennt man ganz gut anhand des verlaufes der Nähte das es ein Ball und speziell ein Baseball ist. Nicht perfekt aber irgendwie nachvollziehbar. Im Grunde gar nicht so übel für eine "Intelligenz" die unserer so fremd ist
@@andigoescycling ich sag ja ist nicht perfekt. Und hab auch keine Ahnung ob es überhaupt was damit zu tun hat. Aber wir sehen ja auch zum Beispiel überall Gesichter oder würden einen gezeichneten Würfel nicht erkennen wenn wir noch nie einen in echt gesehen hätten. In den einen Fall hab ich auf den ersten Blick aber tatsächlich selbst gedacht dass es aussieht wie ne Kaffeetasse von oben.
Also der Vortrag war gut, meine Frage wäre aber wie du das hinbekommst das ein Bild als genau ein anderes erkannt wird? Also brute-force wäre ja schwer realisierbar weil es so unglaublich viele Möglichkeiten gibt, und mir persönlich fällt jetzt nicht ein wie man einen Algorithmus programmieren könnte der das für einen ohne brute-force macht, da KI ja nicht deterministisch ist
Man kann ein weitere Netz trainieren, dass das Rauschen erzeugt. Es bekommt das Bild als Eingabe und die Auswertung des anderen als Eingabe. Nicht sicher, ob das hier so gemacht wurde.
Heute gibt es da andere, modernere Methoden für (z.B. so genannte GANs), in dem Paper mit der Schildkröte aber wurde eine Variation von Gradient Descent eingesetzt, also irgendwo gestartet und kleine Veränderungen gemacht und nachgeschaut, ob es jetzt besser oder schlechter geworden ist. So tastet man sich langsam heran. Details bei Lab6: www.labsix.org/physical-objects-that-fool-neural-nets/
Ich kann das Problem von dem zuletzt genannten Algorythmus durchaus nachvollziehen. Es fällt mir auch immer schwer Lego-Palpatine und Jean-Luc auseinander zu halten. So wie in der einen Folge neulich, als die Borg Coruscant assimilieren wollten und Picard den Befehl zur Trennung des Todessterns gegeben hat um die Ferengi davon abzuhalten sich die ganzen in Gold gepressten Legosteine unter den Nagel zu reißen welche die Rebellen für den Bau ihrer B-Klasse-Chicken-Wings-of-Prey haben wollten. XD
Man spricht in diesem Zusammenhang auch vom "Problem des gesunden Menschenverstandes" und das gilt wohl als der Heilige Gral und härteste Nuss der KI-Forschung.
Sowas ist konzeptionell nicht sonderlich schwer zu erreichen. Kommerziell ist es allerdings derzeit unmöglich. Unsupervised Learning nennt sich das. Beim Unsupervised Learning gibt es kein starres richtig oder falsch, sondern alles ist Kontext basiert. Der große Nachteil ist jedoch das es von der Dauer her ein ganzes Menschenleben bräuchte, eine KI so anzulernen, um zu handeln wie ein Mensch. Technisch funktioniert es so, die KI besitzt Speicherneuronen und interagiert ununterbrochen mit der Umwelt, ab einer bestimmten Evolutionsstufe ist das Netz dann soweit trainiert, dass es lernt, seine Speicherneuronen zu nutzen und damit eben auch lernt, wie es lernt. Es gibt dabei jedoch drei große Problem. Die KI würde so zwar sehr menschlich werden, jedoch typische menschliche Fehler machen, wie mangelnde Konzentration usw. Die Denkleistung selbst wäre mit unseren Digitalen Rechnern unglaublich Resourcenhungrig und die KI müsste man, wie einen Menschen für jede neue Tätigkeit einarbeiten. Vergessen spielt da auch eine große Rolle, die KI würde relativ schnell unwichtige Aufgabe verlernen, da das ja zu ihrem Lernverständniss unabdingbar ist.
Vielen Dank für den Upload. Vielen Dank an Jonas. Ich beschäftige mich derzeit mit der Thematik " Machine Learning" und da ist das ein richtig guter Beitrag (der allerdings schon ein kleines bisschen vorkenntnis erfordert bzw selbiges sehr praktisch ist). Soweit ich das verstanden hab, berichtet Jonas hier über NN (also eher DL als ML). Aber hey... das hängt ja alles zusammen. XD Beitrag bis zum Ende geschaut. Anmerkung dazu: Alles schön, richtig und gut - jedoch vermisse ich ein wenig weiterführende Überlegungen zum Verbessern der "Treffsicherheit" bei ML/DL. Es gibt ja etliche Ansätze. Ich favorisiere folgenden Ansatz (ohne zu wissen ob er durchführbar ist): Gib dem Model einen 3D Blueprinter für ein Objekt. Lass das Modell einen Abgleich mit den präsäntierten Daten machen. Gib dem Model Blueprints für alle möglichen HIntergründe und deren Kombinationen. Die 3D-Maske muss vom Hintergrund separierert werden. Bei Bilderfolgen sollte das relative sicher sein, denn das Abzugleichende Objekt wird sich weniger ändern als der Hintergrund, wenn man die 3D Maske des zu erkennenden Objektes als Referenz zu Grunde legt. Umgekehrt: Die übereinstimmung mit der 3D Maske des Ojekts sollte einfacher zu klassifizieren sein, als der sich variabel ändernde hintergrund. Ggf. sollte bzw könnte man hingehen und hintergrund und objekt trennen lassen (stichwort stereoskopie) und von separaten NN´s klassifizieren lassen. Durch die Trennung wird es einfacher, die objekte zu klassifizieren. Das ganze wird dann somit auf 2 verschiedene lineare regressionen minimiert. Nur mal als Anmerkung. Und noch einen für den Spaß´: Wenn ich ´ne überlegene Intelligenz wäre, würde ich die dummen Menschen auch zum Narren halten und fragen, ob sie beim Kauf einer Geldbörse noch weitere Geldbörsen kaufen wollen. Denn Erstens: so dumm kann nur der Mensch sein Zweitens: so unwahrscheinlich ist das garnicht. Menschen haben Familie, Freunde, Bekannte.. die brauchen auch alle Geldbörsen.... Drittens: nur der unbedarfte Menschtrottel würde denken, dass eine überlegene Intelligenz ihn niemals ausbooten könnte.... hmmm...vielleicht haben die experten den Zeitpunkt sich sorgen zu machen schon verpasst... aber hey. früher haben wir gescherzt, Bill Gates würde seinen Computer fragen, ob Gott existiert... nach dem BillyBoy dann alle Rechner zusammengeschlossen hat, kam die Antwort: "JETZT schon!" XD
Beim machine learning (zu mindesten in dem Vortrag) geht es doch darum große Datenmengen zu verarbeiten. Am Ende noch einen Menschen einzuschalten um die Finale information zu verarbeiten ist doch ohnehin klar.
Es geht bei machine learning nicht unbedingt um die Verarbeitung von großen Datenmengen. Es geht vorallem um die Erkennung von Mustern. Aber um die Muster zu finden braucht man große Beispieldaten. Wenn dein Auto komplett automatisch fahren soll und jemand ein Stopschild so manipuliert, dass es für das Auto wie "Tempo 100" aussieht, gibt es halt keinen Menschen mehr, der da gegencheckt.
let's be clear: deep learning / neural nets have VERY little in common with the architecture of the brain. e.g. 1. axons signals are not digital, they are analog; 2. connections are not homogeneous nor in any way fully interconnected; 3. all neural elements run on their own power and fire completely independently (async); 4. there are both inhibitory as well as excitatory activations; 5. there are feedback loops in the brain, but not this notion of processing broken down by input layers, backprop, error correction, and all that nonsense. 6. (BIG ONE) there is no distinction in the brain between remembering and memorizing.
Ich denke die KI sicht nach Mustern. Die sollte aber in 3D Modellen denken. Also man sollte mit Förmchen wie für Kinder anfangen. Stellt euch vor ihr habt nie ein Tastsinn gehabt und habt 0 Erfahrung. Ich glaube auch die Robotik macht ein riesen Fortschritt wenn in Füssen ein Tastsinn eingebaut wird. Das hilft sehr beim laufen.
Eine KI zur Unterstützung einsetzen bedeutet nicht die Entscheidung vollends dem Algorithmus zu überlassen. KI sind für erste Filterungen hilfreich und nehmen einen grossen Teil der Arbeit ab, können aber auch Fehler machen. Btw 7:00 Es sind sogar nur "0.007"
Ich glaube das ist wichtig im Verständnis von KI: sie kann viele komplizierte Sachen aber nicht entscheiden. Es wird leider viel zu sehr als Utopie (KI wird wie wir) oder Dystopie (Sie wird den Menschen verdrängen) verkauft. Ich denke es wird uns das Leben vereinfachen. Fertig.
Doch. Wer baut denn bitte eine Maschine, die dir die Arbeit abnimmt nur um dann permanent noch mal zu gucken, ob sie auch alles richtig gemacht hat? Statistische Algorithmen sind dazu gedacht ihre Aufgabe nicht zu erfüllen sondern nur noch bestmöglich zu erfüllen. Das kann ein großes Problem sein, denn sie werden auch bei richtiger funktionsweise zu 100% Fehler machen und deshalb sind sie unzuverlässig, weil man nicht weiß wann genau und man das Pech haben kann, sich aber genau dann auf sie zu verlassen.
Wir haben bei uns im Unternehmen einen Roboter der nach jahrelanger Einarbeitungszeit ganz gute Ergebnisse abwirft. Allerdings waren in der Zeit zwei Leute damit beschäftigt ihn zu überwachen und neu zu programmieren, nachdem er beim Hersteller schon jahrelang entwickelt wurde und er taugt halt wirklich nur für diesen einen sehr kleinen Bereich in unserem Unternehmen. Man kann den nicht einfach in einem anderen Unternehmen einsetzen, wenn dort die Abläufe nicht zu 100% mit denen bei uns übereinstimmen. Nur zum Verständnis: Er packt auf einem Band ankommende Ware in einen auf einem anderen Band ankommenden Karton und macht den zu. Das ist eine Arbeit, bei der die Einarbeitungszeit für einen Menschen 5 Minuten beträgt.
Und dann erst die Idee, KI unsere Entscheidungen treffen zu lassen, bis hin zur Partnerwahl, da folgerichtiger und schneller. Nein danke, auf gar keinen Fall!
Interessant. Mal zu verstehen wie KIs verstehen. Oder es zu versuchen. Spiele ne Weile mit Text to Image KIs rum wie z.B. DALL E , Wombo oder StableDiffusion rum....ja und da wunderst mich hin und wieder wie die auf das Ergebnis kommen....ich sag Kapelle und es kommt eine tanzende Frau auf der Wiese...der Rest sind diverse traumartige Gebilde von Kapellen...der eine Ausreißer fasziniert mich dann schon irgendwie...
Jetzt ist mir klar warum man in einem Bilderfeld zb Verkehrsschilder auswählen muss, um sich als Mensch zu identifizieren, da eine KI das also eh nicht hinkriegen würde 😛
Lass Dich nicht unterkriegen. Dein Slam war total interessant. Und als Kumpel würde ich dich auch zu ner Party einladen.. Bin verheiratet.. 😉 Lg aus Schweden
Das besorgniserregende ist, dass maschinelles Lernen keine logisch exakten Lösungen für Probleme liefert sondern nur statistische. Das Ergebnis kann also auch in einem unwahrscheinlichen Moment völlig daneben liegen und keiner wird damit rechnen, denn das jeweilige Netz handelt nach seiner Logik und nicht nach Menschenlogik. Selbst bei einem gestörten Amokläufer kannst du irgendwie noch mal auf Suche nach einem Motiv gehen aber wollen wir diese theoretische Technik auch bei Maschinen umsetzen? Falsche Kleidung und das Auto-Auto der Zukunft hat dich nur für einen Zebrastreifen gehalten... könnte auch jedem Menschen passieren aber bei Menschen können wir einschätzen wann und warum. Das Ergebnis werden fehlerhafte Maschinen sein, die aber trotzdem richtig programmiert wurden. Wollen wir den Einsatz solcher Technik, weil er uns günstiger kommt als das Problem dahinter logisch zu analysieren? Theoretisch könnten wir schon jetzt "lebende" Maschinen bauen: Einfach ein paar Roboter, die Roboterfabriken bauen, auf einem Gelände mit Rohstoffen für ein paar Jahrhunderte Evolution spielen lassen, da wird was bei rumkommen. Aber warum? Wir suchen die Reise zum Mars und können weder irdische Wüsten ergrünen lassen noch haben wir ethische Probleme im Umgang mit Tieren gelöst und seien wir ehrlich, die Antwort auf die Frage nach dem Sinn haben wir schon nur gefällt sie uns nicht.
AI kann man täuschen, das ist durchaus eine Schwäche, die man beachten muss. Man darf aber nicht vergessen, dass man Menschen auch täuschen kann. Meist viel einfacher und simpler.
Das Problem gibt es ja aber auch bei Menschen mit optischen Täuschungen. Overfitting halt 🤷♂️. Sobald irgendjemand erfolgreich ein NN trainiert, dass einen Selbsterhaltungstrieb hat, wird es kritisch.
Gruselig wie schlecht es eigentlich immer noch ist bzw wie wenig es mit dem Erkennen wie wir es tun zu tun hat/dem ähnlich ist. Dafür gibt es aber auch wohl ziemlich logische Gründe bzw kann man relativ "ez" zusätzlich ein System entwickeln welches mehr so sieht/denkt/erkennt wie wir. Beide Systeme zusammen exponentiell anders trainiert wird immer unfehlbarer.
Ich hätte mir gewünscht, wenn er etwas mehr auf die Ursache und weniger auf den Fakt eingegangen wäre, dass auch maschinelle Intelligenz Fehler macht. Intelligenz basiert fundamental auf einem Fehler. Der Gleichsetzung von Korrelation und Kausalität. Dieser Fehler lässt sich auch nicht beseitigen sondern bestenfalls reduzieren. Mit reinem Backpropagation wird man da auch nicht viel weiter kommen. Ich glaube das die Simulation von Spiegelneuronen helfen kann. Also das die neuronale Maschine nicht durch Rückkopplung lernt, sondern dadurch das es versucht Muster zu immitieren. Bezüglich der Struktur des neuronalen Netzes sollte man vielleicht auch mal genetische Algorithmen nutzen.
Ich habe einen Vortrag eines ESA- Wissenschaftlers gehört, in dem er gefragt wurde für wie wahrscheinlich er einen Flug von Robotern auf fremde Planeten, um dort für die Menschen ein Base Camp zu errichten, hält. Er meinte er hält es momentan für sehr unwahrscheinlich, weil ein Roboter/KI nicht improvisiert kann. Das geht sicherlich in die Richtung "Muster immitieren", wie du es geschrieben hast.
@@andigoescycling Ich glaube das die heutigen KIs das nicht können. Ich bin aber 100% davon überzeugt das es echte technische Intelligenz prinzipiell geben kann. Menschliche Intelligenz ist aber mehr als ein simples Näherungsverfahren wie dies heutige KIs abbilden. Auch bei Menschen dauert es zwei Jahrzehnte bis aus Immitation eventuell echte Intelligenz werden kann. Bislang gab es keine Maschine die so lange lernen konnte. Der Antrieb jeder Intelligenz ist aber immer ein Trieb irgend einer Art. Aber erst die Spiegelneuronen schaffen das Potenzial für echte Intelligenz. Sie sind das Fundament für Phantasie.
Naja gut, Menschen kann man auch täuschen, da sind halt die Methoden andere, aber im Prinzip einfacher, weil wir selber Menschen sind und einschätzen können wie es für Menschen aussieht. Bei dem Beispiel mit Apple verstehe ich auch das Problem nicht. Nehmen wir an jemand will mir was böses und schickt mir ein Hunde-Bild, das von Apple als Kinderpornografie erkannt wird. Dann werde ich doch nicht sofort verhaftet, sondern im Worst case, schaut sich ein Polizist dieses eine Hundebild an und sagt "Der Apple-Detector hat mal wieder Mist gebaut". Was ich meine ist, natürlich soll AI nicht alleine Entscheidungen treffen und Menschen verhaften. Aber wenn AI von Zigmilliarden Fotos 100 aussortiert, die von Menschen üperprüft werden sollen, ist das eine extrem gute Sache, auch wenn die AI ab und an mal falsch liegt. Autonomes Fahren ist heute schon sicherer als menschliches Fahren. Aber wenn ein Computer einen Unfall verschuldet, wollen wir das nicht akzeptieren. Das Menschen jeden Tag Hunderte andere totfahren interessiert uns da irgendwie weniger. Was ich sagen will: Maschinelles Lernen muss nicht perfekt sein, nur besser als der Mensch. Und das ist es halt in 99% der Fälle. Dazu wird es immer besser.
Du gehst bei dem Hundebild jetzt ja nur von einem bösen Scherz aus. Aber jetzt stell dir vor, es klinkt sich jemand in einen RU-vid oder TikTok account mit vielen Aufrufen ein und spielt dort solche Fehlinformationen ein. BAM, 12 Millionen Anzeigen die bei der Polizei weltweit einprasseln und du kannst ganze Systeme lahmlegen. Selbst am Flughafen ist eine Fehlerrate von 1% schon verdammt viel extra Arbeit für das Personal. In NewYork am JFK wären das um die 400-500 Fehlalarme pro Tag. Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an. Gibt natürlich jetzt auch weniger extreme Beispiele, die etwas alltäglicher sind. Aber selbst bei den Autos mit dem halb autonomen Fahren und den ganzen Assistenten merkt man schon, dass viele Menschen die zur Verfügung gestellte Menge an Informationen oft nicht verarbeiten können und deshalb Assistenten deaktivieren oder sich zu sehr auf sie verlassen (Navi hat gesagt ich soll auf der 4-Spurigen Autobahn umdrehen). Das Ziel sollte halt immer eine Synergie zwischen Mensch und Maschine sein, nicht das komplette ersetzen.
@@mirastor1796 Verstehe das mit RU-vid/Tictoc nicht ganz. Nur wenn jemand das Video schaut, ist das ja nicht in der Mediathek gespeichert. Und selbst wenn: Die Polizei müsste das nur einmal als harmlos markieren und alle 12 Millionen Hinweise (nicht Anzeigen) mit dem selben Inhalt würden verschwinden. Eine Fehlerrate von 1% ist auch recht hoch. Aber selbst hier, 400-500 Fehlalarme kann man noch handeln. Soweit ich weiß wird sowieso jeder Einzelner der 40 - 50 Tausend Fluggäste persönlich abgetastet und deren Gepäck durchleuchtet. _Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an_ Das ist doch genau die Fehlannahme, auf die ich hindeuten wollte. Die KI trifft keine Entscheidungen! Sie filtert, und wenn sie was "Interessantes" gefunden hat, sollen Menschen die Entscheidungen treffen. Wenn es um was banales geht wie defekte Schrauben in der Fabrik aussortieren, kann natürlich ein anderes Programm automatisch auf Empfehlung der KI handeln ohne dass ein Mensch das bestätigen muss. Aber dass nicht ausgereifte KI sensible Befehle anorden kann, die Datenschutz oder gar Leben gefährden, finde ich ein bisschen lächerlich, dass das angenommen wird.
Denke mal anders rum. Wenn man echte K-nakedeibildchen einfach so verändern kann, das die AI sie als harmlose Katzen erkennt. Welchen Zweck hat dann dieser ganze Aufwand, inklusiver der menschlichen Mitarbeiter, Recourcen- und Energieverschwendung? Kann man dann damit wirklich diesen ganzen Mist bekämpfen? Oder wird das Ganze dann zur zwecklosen Arbeitsbeschaffungsmaßnahme?
Wie will der Applealgorithmus Bilder von einer/m jung wirkenden 25 jährigen und einer Person U18 unterscheiden? Da haben schon Menschen mit Probleme. Ich wurde bis weit nach meinem 25. Geburtstag nach meinem Ausweis gefragt, wenn ich mir ne Flasche Alkohol gekauft habe. Ich möchte nicht, dass Apple dann entscheidet ggf intime Fotos, die ich mit Partnern denen ich vertraue teile an die Polizei also wildfremde Personen weiter zu leiten.
Das geht halt unglaublich einfach auch anders herum. Sprich die regelwidrigen Inhalte werden als harmlose Katzenbilder getarnt. Genauso können selbstfahrende Autos sehr sehr einfach getäuscht werden, nur gibt es halt aktuell noch niemanden, der das getan hat. Aber wenn jemand eine Polarisationsfolie auf eine Ampel klebt, so dass sie nicht mehr erkannt werden kann, tun alle total überrascht.