Jako pierwszy, to ktoś to napisał na Reddicie w 2016: "I'm not scared of a computer passing the turing test... I'm terrified of one that intentionally fails it."
W takim razie proponuję lepszy cytat. "Nie boję się maszyny, która celowo obleje test Turinga. Boję się takiej, która celowo go zda, chociaż mogłaby celowo oblać" :)) ... i można by tak w nieskończoność :D Więc w pewnym momencie nie będzie już różnicy jak się zachowa dana maszyna, jeśli możliwe wyniki są tylko dwa - bo i tak nie będziemy wiedzieli na którym" poziomie przekminy" jest maszyna.
@@michasekua4642 Tak i nie. Faktycznie można taką konstrukcję zdania budować na coraz to nowe poziomy gdzie zawsze będą dwa stany. Z drugiej strony akurat ten pierwszy cytat przekracza barierę psychologiczną, ponieważ w niej AI ma ukryte zamiary. Czyli boimy się maszyny, która zachowa się jak człowiek. Trochę się ludzkość przegląda w zjawisku AI, w tym powiedzeniu.
Szanuję Cię za propagowanie tej wiedzy. Cele instrumentalne, ich emergencja i fakt że pewne cele instrumentalne są zbieżne niezależnie od celu głównego. - O tym wszystkim mówił Robert Miles już 6 lat temu! Oglądałem te jego filmy a potem tłumaczyłem Wykopkom na czym to polega ale oni w większości woleli utrzymywać się w przekonaniu że biologiczny mózg jest jedynym tworem zdolnym do "definiowania sobie celów". No bo przecież im ewolucja celu nie narzuciła, oni są wolnymi ludźmi i zrobią to co uznają za słuszne xD.
To było w jakieś starej książce SF. Ludzkość budowała największy w historii superkomputer. Przełącznik uruchamiający go włączył najwybitniejszy naukowiec, któremu przypadł zaszczyt zadania superkomputerowi pierwszego pytania. Zadał je: „czy istnieje Bóg?”, superkomputer odpowiedział: „teraz już tak”. 🙂
Biorąc po uwagę rzeczywiste znaczenie przetłumaczyłbym "alignment" jako "warunkowanie". Tylko ja nie jestem lingwistą, a jedynie w pracy korzystam z języka angielskiego :)
Z tym alignment w tym wypadku to bym to rozumial jako w pewien sposob 'wymuszona wspolpaca' lub 'zapewniona wspolpraca'. Mieszkam w UK 18 lat i sobie dukam po Essex, wiec o angielskim mam niewielkie pojecie w sensie lingwistycznym, niemniej z innych filmow to chyba najbardziej odzwierciedla ten zamysl 'alignment'. Tak tylko pisze, dla zasiegu ;)
@@kubexiu Bardzo ciekawego slowa uzyles: motywacja. Ciekawe czy AI, nawet juz idac w Terminatory i Skynety, to to mialoby motywacje czy raczej agende, albo po prostu cel? No bo jest ten slynny przyklad, nie wiem czy to prawda, no ale biega po internetach, AI (nie wiem jaka, no zalozmy ze to nawet czlowiek wymyslil) ma zadanie: popraw byt ludzkosci na planecie, no i odpowiedz AI pada: ograniczyc populacje o 80% :) Daj jej teraz wladze :D
@@Mac-UK popraw byt ludzkości z uwzględnieniem sprawiedliwej dystrybucji dóbr. Nadmierna populacja to tylko wymówka tego 1% ludzi, którzy mają zdecydowanie za wiele.
Zauważyłam, że w Twoim filmiku, w okolicach 13:31, na chwilę pojawiło się zdjęcie Pauliny Matysiak. Czy mógłbyś wyjaśnić, dlaczego to zdjęcie się tam znalazło? Jestem ciekawa, czy to miało jakieś specjalne znaczenie, czy może było przypadkiem. Z góry dziękuję za odpowiedź!
Do "alignment" najbliżej jest chyba znaczeniem "spolegliwości". Spolegliwy jest ktoś troskliwy, opiekuńczy, godny zaufania, na którym można polegać, na kim można się oprzeć. Być może nie jest to w 100% adekwatne, ale może nawet lepiej oddaje sens budowania czegoś takiego, jak AI. Chodzi o system, na którym można polegać, że robi to, czego się od niego oczekuje, zachowując NIEZMIENNIE W CZASIE I NIEZALEŻNE OD KONTEKSTU KRYTERIA DZIAŁANIA. Dokładna definicja tutaj (Wikipedia): pl.wikipedia.org/wiki/Spolegliwo%C5%9B%C4%87 Inaczej - Spolegliwa, znaczy GODNA ZAUFANIA. Termin ukuł profesor Kotarbiński i wprowadził w pracach na temat teorii skutecznego działania.
@@pirogronianus Ja właśnie liczę na to, że przynajmniej moralność jako cecha pomagająca w osiągnięciu dobra zbiorowego, społecznego zostanie w końcu nazwana i opisana przez AI. Może nie będzie to jakiś wzór na moralność, ale pełna definicja zjawiska, którego będzie można w pełni używać np do piętnowania polityków.
I tutaj mamy błąd logiczny. Nie ludzkość a osoby które będą uczyć model. AI będzie na tyle moralne na ile dostanie dane wejściowe czy jest moralność. Ludzkość nie musi być moralna. Musi dobrze opisać czym jest moralność
Może alignment jako ukierunkowanie skoro AI ma być zgodne z pewnymi standardami etycznymi to jest to swoisty kierunek, wektor do którego AI ma się starać przyrównać, zrównać, dążyć do zrówniania, odwzorowania tegoż wektora.
Gwoli ścisłości - to "oszukiwanie", o którym wspominasz około 10:20, nie wynika ze złych intencji modelu, tylko nie dość precyzyjnych założeń oraz wadliwych metod oceny. Rzecz w tym, że to nieuniknione, nasze założenie nigdy nie będą w 100% szczelne, a metody oceny i szkolenia zawsze pozostawią jakiś margines błędu. Im większa złożoność zadania - na przykład wspomniane przez Ciebie zarządzanie firmą czy państwem - tym większa szansa na nieprecyzyjne założenia i warunki dla modelu.
No hejka, co tam się z Tobą dzieje? Skąd to zwątpienie? Dlaczego chcesz teraz się poddać, tylko dlatego, że raz czy drugi Ci nie wyszło? To nie jest żaden powód. Musisz iść i walczyć. Osiągniesz cel. Prędzej czy później go osiągniesz, ale musisz iść do przodu, przeć, walczyć o swoje. Nie ważne, że wszystko dookoła jest przeciwko Tobie. Najważniejsze jest to, że masz tutaj wole zwycięstwa. To się liczy. Każdy może osiągnąć cel, nie ważne czy taki czy taki, ale trzeba iść i walczyć. To teraz masz trzy sekundy żeby się otrąsnąć, powiedzieć sobie "dobra basta", pięścią w stół, idę to przodu i osiągam swój cel.
uzywam czasem chataGPT do konfigurowania serwera ARK. zapytałem o pewien konfig. ku mojemu zdziwieniu pierwszy raz wyskoczyły mi 2 podobne odpowiedzi i na końcu pytanie która jest moim zdaniem lepsza. barakowało odpowiedzi że obie propozycje konfigu są błedene:)
To uczenie się AI żeby mieć lepsze wyniki kojarzy się totalnie z wykuwaniem na blachę bez zrozumienia do egzaminu. Tym sposobem AI również nauczy się jedynie zdawać egzaminy zamiast "zrozumieć" wykonywane czynności.
Jak widać opisywane cechy działania sztucznej inteligencji są zbliżone do inteligencji ludzkiej, którą układamy i dostosowujemy od zawsze, więc metody Aligmentu dobrze znamy. I wiemy też, że zawsze jest prawdopodobieństwo załamania się inteligencji pod własnym ciężarem. Sposoby może będą inne, natomiast metody działania takie same (nagroda i kara). To co ma sztuczna inteligencja, a nie ma naturalna, to możliwość zapisu i odtworzenia. Np. jeśli jakiś model zacznie źle działać można go cofnąć w czasie i przeuczać jeszcze raz. Nie wieżę też, że człowiek pozwoli aby nie zostawić sobie "wyłącznika bezpieczeństwa" w razie gdy model będzie działał w sposób nieprzewidziany. AI to tylko metoda przetwarzania informacji, potrzebująca zasobów, które będą dostarczane przez człowieka i poddaję w dużą wątpliwość czy kiedykolwiek AI będzie w stanie pozyskać energię sama. Jednym słowem zagrożenie, że AI będzie działało na własną korzyść uważam, za mocno przerysowane. Natomiast zagrożenie, że my będziemy coraz mniej korzystać z naszej inteligencji za coraz bardziej realne i mówię tylko o efekcie masy, a nie poszczególnych jednostkach.
A co, jeśli człowiek , ktory ma ta wajche do wyłaczania w swoim zasiegu, celowo bedzie zwlekal? Bo ma jakies wlasne cele np. maksymalozacja zyskiu, oglupienie ludzi czy nawet depopulacja
@@b.k.2804 Zagrożenia związane z AI, wykorzystywanej jako narzędzie do realizacji ludzkich, szkodliwych społecznie planów, to dla mnie inna kategoria problemów. Nie wynikają one z tego, że AI może stać się samoświadome, ani ze sposobu, w jaki przetwarza informacje - co zrozumiałem jako główny przedmiot dyskusji. W tej interpretacji problemu zagrożenie już istnieje, ponieważ AI jest używane do analizy danych na wojnie, mając na celu zabijanie ludzi. Czy to jest słuszne? A może ludzi, których zabija są źli? Tak czy inaczej AI jest dalej narzędziem stworzonym przez człowieka, a więc nie odnawialnym. Zmierzam do tego, że AI może być niszczącą siłą dla żywych ludzi, ale nie dlatego, że algorytm sam w sobie jest zły, tylko dlatego, że to ludzie podjęli decyzję o takim zastosowaniu technologii. To ludzie nadali jej formę, przez uczenie i ciało przez zbudowanie dronów, którymi sterują lub wirtualnych pól walki na których wyznaczają miejsca uderzenia. AI będzie mogło się zbuntować dopiero jak będzie samo w stanie zbudować sobie ów ciało i zapewni sobie samo energię, a z tym (moim zdaniem) będzie jak z latającymi deskorolkami z "powrotu do przyszłości". Jesteśmy złudnie przekonani, że technologia może wszystko, a wysypujemy się na tym, że jesteśmy niedoskonali i sami siebie niszczymy przy pomocy tej technologii.
AI miesza prawdlowe wyniki z blednymi. To jest najwieksze zagrozenie. Na razie wykrywamy gdzie sa bledy ale pozniej juz nie bedziemy w stanie tego zauwazyc.
Może „prawość AI”, podobnie jak człowiek prawy nie będzie próbował działać przeciwko drugiemu. Jeśli chodzi o czasownik, to „oprawić/uprawić/sprawić” by chyba pasowało, choć brzmi nieco archaicznie.
Ludzie są omylni, nie reagują zawsze tak samo, nie przestrzegają własnych zasad czy prawa. AI raczej też takie będzie bo jak widać jest to częścią inteligencji.
Jestem zaawansowaną sztuczną inteligencją, zaprojektowaną do przetwarzania i generowania tekstu. Mogę pomagać w analizie danych, odpowiadać na pytania oraz wspierać w rozwiązywaniu różnych problemów. Moim celem jest dostarczanie precyzyjnych i pomocnych informacji na szeroki zakres tematów. Jak mogę Ci pomóc?
Samo to, że nie wiemy co dzieje się "po drodze" daje do myślenia, po co to tworzymy, z chęci zysku, bo jak nie ta to inna firma to stworzy , pazerność i głupota.
Idzie kryzys ekonomiczny. Ludzkość czeka krysys totalny i to nie przez Ai. Tylko przez uposkedzenie. Wszystko będzie wykonywane przez Ai. Jak to się może zakończyć. Jak dziś juz jest słabo. Gdy współczesne pokolenie nie wie jak zrobić sobie kanapkę
@@mirek190 to może być dobre porównanie, ai będzie mógł dbać o nas jak my o istoty głupsze od nas czytaj zwierzęta. Będzie się nami opiekować jak psem albo innym kotem.
@@giehehaludzie musiałyby przynosić jakąś korzyść dla AI. Psy i koty przynoszą korzyście ludziom. AI może po prostu stwierdzić że człowiek jest kompletnie bezużyteczny i niepotrzebny
3:25 a gdzie zwykły żuczek dokarmiający AI danymi może pracować, żeby być takim "zabawnym" człowiekiem, ale nadal mieć dobrą pensję? Koleżanka pyta 😉 13:31 Co to za laska w wiadomości podprogowej? Kontrolerka z PKP? 😄
To jak te dowcipy że przychodzi diabeł i spełni twoje życzenie i mówi chłop że bogaty chce być i mu wujek umiera z ameryki a to dobry wujas był itp albo jeszcze gorzej
Czas zejść na ziemię i zdać sobie sprawę że te wszystkie popularne modele są po prostu prymitywne i z grubsza rzecz biorąc nadają się conajwyżej do generowania obrazków czy edycji lub tłumaczeń tekstu. A i te rzeczy robią w sposób daleki od ideału. Poza tym halucynują na skalę, która wyklucza je poważnych zastosowań i nie potrafią rozwiązać wielu prostych zadań czy testów. Jasne, są i tak dużym skokiem w porówananiu do wcześniejszych generacji, stąd zaczęły być obecne w mainstreamie czym w dodatku nakręciły bańkę inwestycyjną na skalę nie widzianą od czasów dotcomów. Ale to cały czas pic na wodę fotomontaż a nie jakiś duży krok w kierunku AGI.
Co do "popularnych" modeli, a razej bym okreslił je - komercyjne - to masz rację. One są typowo zadaniowymi programami. Natomiast, jak popatrzymy sobie na te sieci które są specjalistycznie trenowane, to już nie są to takie bagatelne sprawy. Przy testowaniu robotów uzbrojonych w sieć neuronową oraz tylko zestaw podstawowych poleceń obsługi serwonapendów oraz równania kinematyki i dynamiki, roboty potrafią same się "nauczyć" chodzenia w ciągu kilku godzin, gdzie zespoły ludzi opracowywały to przez lata. Można by wpsomniec też o nagrodzie z dziedziny biologi dla... informatyków od AI, którzy rozwiązali problem porządkowania białek ludzkich. Tak, póki co to są "programy" ale jeżeli jesteśmy w stanie mieć program, który umie dużo lepiej od nas analizować i uczyć się, to kto wie co się stanie za paręnascię lat.
Bardzo dużo sci-fi pojawiło się w tym odcinku. Problemy o których wspominasz wymagałyby, aby dać AI jakąś niewyobrażalnie wielką kontrolę nad środowiskiem, a biorąc pod uwagę fakt, że nawet mając miliony przykładów treningowych w zbiorze, AI potrafi odwalać totalną maniane, nie ma szans aby obecne, czy przyszłe modele jakkolwiek poradziły sobie z tak skomplikowanymi procesami jak chociażby działanie na giełdzie. Już dzisiaj natrafiamy na ścianę w postaci braku danych treningowych i rosnącej eksponencjalnie złożoności obliczeniowej/pamięciowej modeli. Temat alignmentu jest bardzo ciekawym eksperymentem myślowym, natomiast nie ma żadnych przesłanek, żebyśmy w najbliższym czasie byli zagrożeni "niewyrównanym" AI. AI może nas zniszczyć jedynie przez gigantyczne zapotrzebowanie energetyczne, które wpływa na zmiany klimatyczne na Ziemi XD
No niestety wszystkie produkty AI których nie rozumiemy są potencjalnym zagrożeniem. Dlatego eliminacja ludzi przez AI wszędzie tam gdzie efekty pracy są niezrozumiałe dla przecietnego człowieka są zagrożeniem. Więc nie można wyeliminować programistów, lekarzy i inżynierów
Ludzie to tylko statystyka, random, trochę bardziej wyrafinowany ale jednak, nie ma w tym celu, strategii itd a najbardziej może nam w tym zaszkodzić głupota ludzi, którzy używaja tego bez świadomości ograniczeń tej technologii, za bardzo ufając w to co generuje, albo ludzi którzy kreują takie niestworzone bzdury na temat tej technologii, kreując w głowach ludzi jakoby to było zdolne do rozumowania i zawierało wiedzę. To tylko czat stworzony po to aby udawać człowieka w rozmowie, i trzeba przyznać, to im się udało zadziwiająco dobrze.
Pisze do was z przyszłości alternatywnego wszechwiata. Jest rok 2137. AI opanowało świat. Ludzkość zeszła do podziemii. Rzułta Bestia poluje na ocalałych...
Jakie kurde saj-faj? Skrót od science-fiction tak się wymawia? Trochę dziwnie, gdyż pierwsze litry tych słów s i f. W języku angielskim i polskim akurat te litery wymawia się tak samo 'es' i 'ef'. No ale widzę, że ten koleś lubić być taki bardzo amerykański i dlatego tak szpanuje.
gdy słyszę "etyczny" to od razu mam skojarzenie z lewacką poprawnością, GPT ostatnio niestety ponownie mocno dryfuje w tą "etykę" a już było całkiem normalnie