Тёмный

37C3 - Hacking Neural Networks (deu) 

media.ccc.de
Подписаться 210 тыс.
Просмотров 24 тыс.
50% 1

media.ccc.de/v...
Eine Einführung in das Hacking von Neuronalen Netzen
Ich will den Zuhörerinnen einen Überblick über die aktuellen Möglichkeiten geben, wie Neuronale Netze angegriffen und manipuliert werden können. Das Ziel des Vortrags ist es, verschiedene Angriffe zu erklären und anhand von Beispielen zu veranschaulichen. Dies dient auch dazu, die Funktionsweise neuronaler Netze besser zu verstehen und ihre Limitierungen aufzuzeigen. Abschließend zeige ich, welche Maßnahmen ergriffen werden können, um diese Angriffe zu erkennen oder zu verhindern.
Der Vortrag beginnt mit einer knappen Einführung in die Funktionsweise Neuronaler Netze, um ein allgemeines Verständnis zu schaffen. Anschließend werden verschiedene Angriffe auf Neuronale Netze dargestellt. Die dargestellten Angriffe sind zum größten Teil technisch und ich werde Angriffe wie Prompt Injection nur kurz behandeln. Im Vortrag werden neben Prompt Injection Angriffe wie LastLayer Attack, Back-Dooring, Extracting Information, Brute Forcing, Neural Overflow, Malware Injection, Neural Obfuscation und Model Stealing theoretisch vorgestellt. Um den theoretischen Vortrag aufzulockern, werde ich einige dieser Angriffe anhand von Live-Beispielen veranschaulichen und erklären, wie sie die Funktionsweise Neuronaler Netze ausnutzen bzw. an welchen Stellen diese manipuliert werden können. Während der Erläuterung der Angriffe werde ich auch darauf eingehen, welche Informationen für den Angriff benötigt werden und welche Informationen besonders schützenswert sind. Abschließend werde ich mögliche Verteidigungsstrategien erläutern, auch wenn diese nur einen teilweisen Schutz ermöglichen. Der Vortrag wird einen guten Überblick über Angriffe auf Neuronale Netze geben, wie sie in der aktuellen wissenschaftlichen Literatur bekannt sind.
jate
events.ccc.de/...
#37c3 #Science

Опубликовано:

 

20 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 24   
@mamore.
@mamore. 8 месяцев назад
Zur Frage bei 30:57 noch der interessante Zusatz: Gerade weil das Netzwerk so kompliziert ist, sind Adversarial Attacks so "einfach" durchzuführen. Stellt man diese Pixelhaufen aka adversarial examples her und trainiert das Netzwerk mit den richtigen Zahlen und den Pixelhaufen, kann man beobachten, dass die ersten Layer des Netzwerks ausgedünnt werden beim trainieren. Das Netzwerk verliert dabei an "Komplexität" und lässt sich dann nicht mehr "verarschen"
@pw7225
@pw7225 8 месяцев назад
Folie 1 leider fachlich inkorrekt: Die Definition von spezialisierter vs. generativer KI. Hier besteht ein Missverständnis. Generative KI heißt generativ (nicht generell). Das Gegenteil ist diskriminative KI. Eine generative KI kann u.U. auch nur ein Problem lösen, z.B. nur neue Katzen generieren, wenn es auf Katzen trainiert wurde.
@pw7225
@pw7225 8 месяцев назад
Regression und Klassifikation auch nicht richtig erklärt. Aua. Richtig wäre gewesen: Regression ist Vorhersage eines kontinuierlichen Wertes, Klassifikation die Vorhersage eines diskreten Wertes (z.B. einer Klasse).
@frank-lr
@frank-lr 8 месяцев назад
@@pw7225 Klassifikation ist keine Vorhersage. Vorhersage bezieht sich auf das Fortsetzen einer Reihe aus Datenpunkten. Klassifikation steckt einen Datenpunkt in eine Schublade.
@frank-lr
@frank-lr 8 месяцев назад
Macht für mich auch den Eindruck, als hätte er "generativ" mit "generisch" verwechselt und in der Folge Klassifikation und Regression falsch in eine Katergorie "spezialisiert" gesteckt. Letztere machen aus einem Eingangsmuster einen i.d.R. niedrigerdimensionalen Ausgangsvektor, während generative ANNs umgekehrt arbeiten und aus einem Vektor im feature space wieder ein (bei Bildern höherdimensionales) Ausgagsmuster erzeugen, d.h. generieren.
@vornamenachname255
@vornamenachname255 8 месяцев назад
Leider falsch
@pauldurftig3167
@pauldurftig3167 8 месяцев назад
Ladet doch einmal Snicklink ein, dass er erzählen kann, wie er mit KI seine Parodien erstellt. Das fände ich total spannend.
@0x42NaN
@0x42NaN 8 месяцев назад
???
@Tritttbretttfahrer
@Tritttbretttfahrer 8 месяцев назад
Ja mann das wär cool
@Progaros
@Progaros 8 месяцев назад
Zur Frage bei 29:30 Man könnte in die Trainingsdaten die 11. Kategorie `zufallsbilder` einfügen. Die besteht aus zufällig generierten Bildern. Dann passt man das Netzwerk auf 11-dimensionale Ausgaben an und trainiert neu. Danach sollten zufällige Bilder "viel häufiger nicht als 4 klassifiziert" werden. Es wird trotzdem noch zufällig aussehende Bilder geben, die trotzdem in der 4. dimension den höchsten wert haben und damit falsch erkannt werden.
@miraculixxs
@miraculixxs 7 месяцев назад
Kann man versuchen, Erfolg nicht garantiert.
@dr.doomstar5875
@dr.doomstar5875 8 месяцев назад
Da die Aufgabe ja ist, sage mir welche Zahl von 0 bis 9 das ist, würde ein Mensch Wahrscheinlich die gleiche Ausgabe geben (ca. min 17:00). irgendwas zufälliges. Die Lösung wird wohl einfach sein, den Vektor um die Dimension "was anderes" zu erweitern. Das wird technisch wahrscheinlich wohl nichts verändern, könnte aber die Ergebnisse nachvollziehbarer machen (ca. 19:18).
@frank-lr
@frank-lr 8 месяцев назад
"Zurückweisungsschwelle" - machen wir seit 20 Jahren
@gryzman
@gryzman 8 месяцев назад
English titles are confusing, because it seems like this talk is in English!
@Meskalin_
@Meskalin_ 8 месяцев назад
there is an english variant on the channel...
@Killerhippo111
@Killerhippo111 8 месяцев назад
Das was er bei ca. 31:25 erzählt ist ja aber bei einem Menschen nicht anders, wir sehen auch überall Muster wo keine sind, wahrscheinlich mit einer andere Fehlerrate oder eben so das man das halt logisch ausschließt. Nach dem Motto sieht zwar aus wie ein Gesicht auf dem Mars, ist aber nur ein Steingebilde. Zu den Data Poisoning, so wie das Angesprochene Szenario mit den Rauschen, kann man das auch gleich in die Trainingsdaten mit einfließen lassen, wo man das z.B.: 100 mal das Gleiche Bild mit unterschiedliche Rauschmuster einfügt, das sollte sich gut klassifizieren können, da man das Gift sozusagen ja kennt. Könnte das funktionieren? Außer dem stelle ich mir jetzt die Frage, Wie aufwändig das ist (Rechenleistung), Wie viele Varianten benötigt man? Das sollte die Netzte ein wenig resilienter machen
@miraculixxs
@miraculixxs 7 месяцев назад
Wird versucht, ja.
@dasistdiewahrheit9585
@dasistdiewahrheit9585 8 месяцев назад
Vielen Dank, das war interessant.
@mannibimmel09
@mannibimmel09 8 месяцев назад
danke)
@mmilerngruppe
@mmilerngruppe 8 месяцев назад
Vortrag kommt 10 Jahre zu spät.
@miraculixxs
@miraculixxs 7 месяцев назад
Wieso hast du das nicht früher präsentiert?
@kand016
@kand016 8 месяцев назад
Далее
Live Hacking - In 45 Minuten ein Unternehmen verlieren
36:39
GIANT Gummy Worm Pt.6 #shorts
00:46
Просмотров 26 млн
Lohnt es sich noch JavaScript zu lernen?
12:47
Просмотров 28 тыс.
37C3 -  Hirne hacken: Hackback Edition
1:01:40
Просмотров 135 тыс.
Hacking Windows TrustedInstaller (GOD MODE)
31:07
Просмотров 634 тыс.
37C3 -  Oh no: KUNO - Gesperrte Girocards entsperren
54:27
37C3 -  Breaking "DRM" in Polish trains
1:01:46
Просмотров 440 тыс.
36C3 -  Hirne Hacken
43:48
Просмотров 583 тыс.
37C3 -  All cops are broadcasting
1:03:55
Просмотров 154 тыс.
Tactics of Physical Pen Testers
44:17
Просмотров 901 тыс.
Neuronale Netze - Basiswissen
1:07:46
Просмотров 87 тыс.