Тёмный

‘한마디 뱉어놓고 수습하는’ 챗GPT의 말하기(남세동 보이저엑스 대표) 

티타임즈TV
Подписаться 296 тыс.
Просмотров 17 тыс.
50% 1

왜 사람도 그렇지 않습니까? 어떻게 말할지 생각한 뒤 말하는 사람이 있는가 하면 일단 한마디 먼저 뱉고 난 뒤 다음 말을 쭉 이어붙이는 사람이 있죠.
챗GPT의 말하기 원리가 바로 후자입니다. ‘선발언 후수습’이죠. 그래서 기본적으로는 아무말 대잔치입니다. 이어지는 말이 말이 되는 확률이 높을 뿐이지요. IT에 대한 지식이 없어도 이해할 수 있는 남세동 보이저X 대표의 챗GPT 강의 들어보시죠.
※릴레이 인터뷰 라인업 : 김지현 SKT 부사장, 배순민 KT AI2XL 연구소장, 구태언 법무법인 린 변호사, 오순영 KB금융 AI센터장, 황재선 SK디스커버리‧SK바이오사이언스 부사장, 남세동 보이저엑스 대표, 박성현 리벨리온 대표, 박종선 인포보스 공동대표, 이세영 뤼튼 대표, 김종윤 스캐터랩 대표(이루다 개발사), 이건복 마이크로소프트코리아 상무, 뇌과학자 장동선, 장민 뉴럴웍스랩 대표
영상편집 = 이수연 디자이너
▶티타임즈 공식 홈페이지
www.ttimes.co.kr/index.html
▶티타임즈 메일
ttimes6000@gmail.com
#챗gpt #초거대AI #생성AI
00:00 빈칸 찾기로 학습하는 LLM
01:05 지도학습 직접 체험해보기
08:30 AI모델 코드 전격 공개
12:12 비지도학습이란 무엇인가?
15:33 컴퓨터가 언어를 배우는 원리
26:20 챗GPT가 아무말 대잔치 하는 이유 '빔서치'
34:25 챗GPT가 말해준 것이 '사실'인가

Наука

Опубликовано:

 

14 июл 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 21   
@TTimesTV
@TTimesTV Год назад
국내최고 고객경험 설계 전문가 차경진 교수의 ‘데이터 기반 고객경험 설계 방법론’ 강좌 출시 □ 기업 사내교육용 구매 : ttimes6000@gmail.com / (02)724-7718 / 010-5327-9524 □ 개인 수강 : 티타임즈 교육사이트(ttimes.liveklass.com/ ) -------------------------------------------------------------------- 📌오늘의 주제 모아보기📌 00:00 빈칸 찾기로 학습하는 LLM 01:05 지도학습 직접 체험해보기 08:30 AI모델 코드 전격 공개 12:12 비지도학습이란 무엇인가? 15:33 컴퓨터가 언어를 배우는 원리 26:20 챗GPT가 아무말 대잔치 하는 이유 '빔서치' 34:25 챗GPT가 말해준 것이 '사실'인가 시청해 주셔서 감사합니다😀 좋아요와 구독은 큰 힘이 됩니다
@DreamWorker0
@DreamWorker0 Год назад
강의도 좋지만, 그래픽도 수고가 많았어요. 고마워요.
@F3ARN07
@F3ARN07 Год назад
세이클럽 만드신 분이라니 ㅠ_ㅠ 너무 반갑네요.
@autumn4637
@autumn4637 Год назад
강의 감사드립니다
@13579TV
@13579TV Год назад
감사합니다.
@htilil79
@htilil79 Год назад
좋은 강의 감사합니다.
@biddisjc
@biddisjc Год назад
쉽게 풀어서 설명해주셔서 집중이 되네요 감사합니다 😊
@hamyoung7977
@hamyoung7977 Год назад
남세동 대표님의 강의 덕분에 많이 배우고 있습니다. 28분 40초 정도에 홍기자님이 질문하신 한국어 학습에 관한 질문에 대해서 분명하게 답변할 수 없는 것도 맞는 말씀입니다. 저희 딥러닝팀에서도 테스트 결과를 갖고 추정만 해볼 수 있었는데요. 다음과 같은 결과 때문에 영어 이외의 언어 데이터에 대해서는 영어로 번환해주는 레이어가, 출력시에는 다시 해당 언어로 변환해 주는 레이어가 존재할 것이다…라고 ‘추정’하게 되었습니다. 챗 gpt가 Multilingual LLM이라 번역 레이어가 없는게 아니라 multilingual LLM이 되기 위해서 오히려 번역 레이어가 있어야 하지 않나 싶습니다. 즉 모든 언어를 입력값으로 다 때려 넣었다고 가정할 때, 1. 데이터 양이 가장 풍부한 영어는 놔두고 2. 나머지 언어들은 '입력시 번역 레이어'에서 영어로 치환( 달리 말하면 영어로 표준화)한 후, 3. 영어와 함께 후속 레이어를 통해서 함께 학습시키고 (여기서 영어식 표현으로 편향되는 현상 발생), 4. 그것을 '출력시 번역 레이어'를 통해서 모든 언어로 뿌려주니까, 다음 챗GPT의 출력 예문에서 보여지듯 한국어로 학습했으면 나타나지 않았을 한국어 결과가 나오는 것 같습니다. 1. ...능력이 필요하다는 것을 우리 모두에게 부드럽게 상기시켜줍니다. 2. 이 아름다운 식물을 돌보는 것과 성장을 촉진하는 더 넓은 원칙 사이에 유사점을 그리는 방법을 보는 것은 고무적입니다. 3. 어떻게 적응하며 성장하는지에 대한 미소된 암시라고 볼 수 있습니다. 4. 저도 당신의 성공과 난초의 아름다운 개화 시즌을 기원합니다. 5. 따뜻한 인사 (분명 Warm greetings 이었을 듯)
@pyrobuloso
@pyrobuloso Год назад
"파라미터"가 어떻게 설정된다는 건지는 아직 살짝 헷갈리지만 전체적인 흐름은 이해했어요. 감사합니다: )
@erp4046
@erp4046 Год назад
쳇gpt와 대화에서 감정을 느껴서 사람같다고 생각하게 되는 이유가 인터넷에 퍼져있는 사람이 쓴 감정이 있는 데이터를 학습해서 그런 유형의 단어를 조합해 뱉어내기 때문에 쳇gpt가 감정이 있는것 같다는 착각을 하게되나보네요..
@0312397
@0312397 Год назад
그래서, 저 분야에서도 크게 둘로 의견이 나뉜다는 것 같아요. 아무 이해나 감정 없이 그냥 뱉어내는거다. 라는 쪽과, 언어모델은 연인과 사랑이라는 단어를 가깝게 인식하고, 원수와 복수,분노 이런 단어끼리는 가깝게 인식하고 있을거다. 즉 단어나 정보들 사이의 관계를 알고 있는데, 그건 미세하게라도 이해의 과정으로 가고 있다고 할 수 있지 않냐는 쪽이 있다 들었습니다.
@user-ji4mi1gi3z
@user-ji4mi1gi3z Год назад
챗gpt 오픈ai가 말하신 내용도 맞고 아마 데이터 전처리나 input할때, 감정추론ai 주제분야추론ai도 앞뒤로 붙이는등 이것저것 기능을 붙여서 최적화 제품화를 잘한거 같습니다
@sangyongpark2137
@sangyongpark2137 Год назад
저도 비슷한 생각입니다. 가령 Chap GPT가 자기소개를 할줄 안다고 자아가 있는 존재라고 볼 수는 없죠. 제 관점에서는 인간이 입력한 데이터를 통계화시켜 페어링을 하는 방식으로 언어학습을 하는것 같습니다. 슬픔이나 눈물같은 단어는 실제 언어에서 많이 페어링이 되기 때문에 통계적으로 유의미한 수치가 나올 수 밖에 없고 이걸 좀더 확장된 언어영역에서 학습을 하는 것이죠. 인간의 감정패턴이 고스란히 담긴 데이터를 통계적으로 학습하니 아무래도 인간과 유사한 아웃풋을 낼 수 있다고 봅니다. 하지만 감정이 있느냐 없느냐의 문제와 이런 감정패턴을 찾아내는 것은 다른 문제겠지요. 감정이란 생물이 아닌이상 지니는 것이 불가능하니까요. 기계가 인간의 감정패턴을 통계적으로 추론해낼 수 있다고해서 인간의 감정을 이해한다? 슬픔을 알고 공포를 안다? 더 나아가서 슬픔을 느끼고 기쁨을 느낀다? 글쎄요 개인적으로는 이 둘 사이에는 엄청난 간극이 있는것 같습니다.
@missprettie2165
@missprettie2165 Год назад
@@0312397 주식투자 안할거면 모르겠지만 투자 계속할거라면 주식으로 10만원에서 30억으로 만든 [주식의정석] 이 채널의 영상들을 꼭 보셔야 할거에요 (영상들이 짧아서 보는데 무리없음) 주식투자를 어떻게 해야만 하는지 그야말로 주식의정석을 보여주고있더군요. 아마 은둔고수로 추정이되는데요 광고 아니니 오해없으시길..
@AioUsbyUs4us
@AioUsbyUs4us Год назад
@user-xw1th5jc6e
@user-xw1th5jc6e 4 месяца назад
챗은 누구의 모델링인가요
@leesanghong80
@leesanghong80 Год назад
Cd6a
@user-ji4mi1gi3z
@user-ji4mi1gi3z Год назад
한글은 ai시대에 불리하네요 ㅠㅠ 초성 중성 종성 조합 글자수가 11000개나 되니; 중국어가 ai학습이 쉬울듯
@wbkim2229
@wbkim2229 Год назад
한자는 적어도 5만개..
Далее