Тёмный

ChatGPT jako symulator Linuxa: GPT-4 ogarnia to epicko 

Skynet Poland
Подписаться 2,7 тыс.
Просмотров 3,2 тыс.
50% 1

Опубликовано:

 

25 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 19   
@maciejgrzyb4514
@maciejgrzyb4514 Год назад
Dobre i pomocne. Można poćwiczyć komendy linuxowe :)
@MizuuV12
@MizuuV12 Год назад
Ciekawe materiały :) Sub i czekam na więcej
@polskiskynet
@polskiskynet Год назад
Dzięki! Pozdrawiam :)
@Pawlo370
@Pawlo370 Год назад
niezła sprawa
@figarybka1393
@figarybka1393 Год назад
Skompiluje hello words I sprawdź czy po odpaleniu się w /proc pokazuje 😊
@zj7498
@zj7498 Год назад
Nie wiem czym się podniecacie. Jako model językowy za każdym razem czyta wszystko od początku i próbuje wygenerować tekst najbardziej prawdopodobny jako kontynuacja. To takie proste. A wy sie podniecacie, że generuje po piątce szóstkę, bo tak było na milionach (miliardach) przykładów.
@Maramowicz
@Maramowicz Год назад
Chat GPT 3.5 (nie mam dostępu do 4) zna nawet podstawowe eksploity i udało mi się zasymulować odpalenie takowego, ciekawe co na to GPT4, tylko trzeba pamiętać że eksploity wymagają odpowiednio niskich wersji oprogramowania.
@dariuszolcha9421
@dariuszolcha9421 Год назад
W którymś z wcześniejszych odcinków mówiłeś że gpt nie posiada pamięci tego czym pisało się wcześniej, tylko za każdym razem wczytuje historie całego dialogu i na bieżąco opisywane są linie co powiedział człowiek i co odpowiedział ai. Ostatnio coś obiło mi się o uszy że w nowej aktualizacji gpt jest dodany jakiś mechanizm pamięci . Możesz opisać coś więcej jak to działa i o co kaman ?
@mirek190
@mirek190 Год назад
Pamiec GPT czy innych LLM nigdy tak nie dzialala kal opisujesz. Jest to zupelnie inny mechanizm . Tylo powiem ze na kazde 2K ( 2048 ) tokenow pamieci ( okolo 1500 slow ) potrzeba aktulnie 1.5 GB VAM lub RAM. Aktualnie najwieksze modele ktorre mozna uzywac w domu maja wielkosc 70B ( 70 miliardow parametrow ) i 8K lub 16K kontekstu ( pamieci ulotnej ) a do tego juz trzeba 6 GB lub 12 GB VRAM lub RAM .... Myslisz ile zajmuje dialog zapisany tekstem skladajacy sie z 2 tysiecy slow gdzie model potrzbuje 1.5 GB? Okolo 2 KB ( kilobajtow ) czyli 0.000002 GB ;-) .
@polskiskynet
@polskiskynet Год назад
Jasne, już opisuję. Ta "pamięć", którą opisujesz i bierzesz za pamięć jest ładowana z zewn. bazy danych i zapisywana zupełnie oddzielnie od modelu. W momencie "przywrócenia" starszej konwersacji jedynie ładowany jest z oddzielnej bazy cały zapis rozmowy i od nowa wrzucane jest to do modelu jako całość.
@mirek190
@mirek190 Год назад
@@polskiskynet LOL nie. Zapisany jest stan binarny uzytych wag oraz polaczen w ktore byly uzyte w warstwach dla pamieci ctx . Jak uzywasz w domu offline LLM np wersji ggml to mozesz sobie zapisac stan sesji i potem do niej wrocic. Wiekosc tej sesji jest uzalezniona od wielkosci ctx. Np dla 2048 to 25 MB i sie powieksza np do 50MB przy ctx 4096 itd. I jest to plik binarny w wagani i sciezkami w warstwach.
@polskiskynet
@polskiskynet Год назад
@@mirek190 No tak, ale właśnie o to mi chodzi, że zapis trzymany jest zewnętrznie, "przywracany" jedynie potem z bazy/pliku.
@mirek190
@mirek190 Год назад
@@polskiskynet A jak mialo by to inaczej dzialac? Chodzi o to ze nie jest to zapis w pliku tekstowym tylko binarnym w wagami.
@ferdynand40
@ferdynand40 Год назад
Trzeba bylo urochomic forkbombe i zasymulowac wynik... :(){ :|:& };:
@dae2530
@dae2530 Год назад
GPT-4 jest zepsuty ;)
@terrix8
@terrix8 Год назад
nie przyszło wam do głowy, że pod spodem został uruchomiony kontener dokerowy??
@JarosawGrzesiak
@JarosawGrzesiak Год назад
Też mam takie wrażenie, że to nie jest do końca tak jak autor mówi, że dzieje się "w chatgpt", tylko uruchamia sobie pod spodem "symulację", czyli np. kontener jak mówisz. Można by się chata spytać jak to robi :)
@polskiskynet
@polskiskynet Год назад
Nope, to nie jest żaden trick. To jest naprawdę ogarniane przez model. Już GPT3 kilka lat temu pozwalało na coś podobnego, ale nie z aż taką skutecznością jak czwórka. Poza tym można sobie wywołać "surowy" model przez API, bez używania do tego ChatGPT i efekt osiągnie się ten sam.
@TymexComputing
@TymexComputing Год назад
To jest tylko proste drzewo
Далее
ДУБАЙСКАЯ ШОКОЛАДКА 🍫
00:55
Просмотров 843 тыс.
Three NEW MAPS in Update 0.31.0 Nightmare | Standoff 2
01:48
Wait for it 😂
00:19
Просмотров 2,1 млн
Czarne pudełko: co to jest i czego nie rozumiemy w AI?
12:00
Q* (Q-Star): Prawda czy fejk? cz.2
8:32
Просмотров 3 тыс.
Agenci GPT-4:  SuperAGI, BabyAGI, AgentGPT i GodMode
16:08
ДУБАЙСКАЯ ШОКОЛАДКА 🍫
00:55
Просмотров 843 тыс.