@@user-ig7nj1xb5r 키가 150cm인 사람과 200cm인 사람은 굉장히 다르죠. 하지만 같은 지역에 살고, 같은 학교를 나오고, 같은 게임을 즐기고, 같은 직종에 종사하고, 같은 차를 몰고, 같은 주량, 같은 음식취향, 같은 연봉인 두 사람이 키가 150cm 200cm라면? 저희가 보기엔 당연히 다른 사람이지만 데이터만 놓고 보기엔 키를 제외한 많은 데이터가 같은 사람인걸 가리키고 있기에 큰 차이를 느끼기 힘들다는거죠. 이 영상이 하고싶은 말은 데이터 분석을 할 때 원하는 결과를 얻기 위해선 필요 없는 데이터는 제외해야된다는 것 같습니다
@@user-ig7nj1xb5r 사람의 관계에서 예를 들자면 너와 내가 비슷한 취향인가 했을 때.. 차원을 색깔 하나로 두면 취향의 차가 극명하게 나뉘지만, (나는 노란색을 좋아하지만 너는 초록색을 좋아해. 우리는 달라. 또는 너도 나도 노란색을 좋아하니 취향이 같아.) 차원을 색깔, 물건의 길이, 물건의 종류, 물건의 위치 등 점점 늘려가서 100개의 차원이 있다고 생각하면 어떤 사람도 취향이 비슷하다고 말할 수 없습니다. 그러므로 모두 같은 취향의 거리가 있다고 할 수 있겠죠
공대에서 대학원 졸업하고 산업 현장에서 연구직으로 잠시 일했었습니다. 어떤 화학반응을 시킬때 온도 압력 시간 반응물질의 양 등 조건이 많은데, 다른 조건은 "고정" 시키고 시간만 변화시켜서 결과를 본다든지, 해서 데이터를 가져갔지요... 이제보니 수학적으로는 차원의 축소라고 볼 수 있었겠네요
차원의 저주라는게 단순하게 데이터의 변주가 다양해진다고만 알고 있었는데 수학적으로 이런 말도 안되는 일이 있었군요... 가까운 점과 먼 점을 구분하는 게 의미가 없다라는건 정말 멋있네요. 차원이 높아질수록 하이퍼스피어가 차지하는 비율이 줄어든다는 사실은 적분으로 쉽게 증명이 되지만 이해하는 것은 참 어렵군요... 더 열심히 생각해보겠습니다.
고차원에서 보면 벌레나 사람이나... 사람 맞는지 볼려면 사람 수준 차원으로 구분하고... 우주적 관점에선 고차원으로 비교하고.. 결국 상대적인 관점을 갖느냐의 문제. 종교나 우주나 형이상학의 영역 쯤과 형이하학의 영역의 질적인 차이쯤을 구분하는 과학(수학)적 기준 쯤 될려나? ^^
직관적으로 이해하기 너무 어렵네요..! 근데 너무 재밋어요 ㅋㅋㅋ 고차원으로 갈수록 부피는 0으로 수렴하는데, 그 부피 안에서 (max dist) / (min dist)의 비율은 1로 수렴한다는게 상상해보면 맞는것같기도 한데, 아닌거같기도하고 ㅋㅋㅋㅋㅋㅋㅋ 항상 좋은 영상 너무나도 잘 보고있습니다 감사합니다 !
계량경제학 퀄 시험 준비할 때 직관적으로는 이해가 잘 안가서 꽤 오래 고민했던 부분이었는데 설명 명쾌하게 해주셔서 감사하게 봤습니다. 영상 보면서 생각한건데요. ‘인간은 평등하다’라는 말의 수학적 근거가 될 수 있을 것 같아요. 한가지 변수로 사람들을 평가한다면 사람들을 줄세워서 1등부터 꼴찌까지 서열화 할 수 있잖아요. 하지만 사람에게 한가지 특성이 주어진 것이 아니고 엄청나게 많은 특성이 주어지는데 그걸 고려해서 사람들을 다시 평가한다면 그 서열이 매우 불확실해질 것 같아요. 인간본질의 평가에 있어서 차원의 축소가 어려워서 차원의 저주가 계속되기를 바랍니다.ㅋㅋ
12math님 12만 구독자 축하드립니다. 이것에 대해서 영상 찍어주실수 있을까요? 임이의 확률 예를 들어 1/3 이라는 확률이 있으면 ㄱ,ㄴ,ㄷ중 하나를 무작위로 고를겁니다. 이것을 n번 했을때 1/3확률로 이것을 뽑았어도 그 값이 ㄱ,ㄴ,ㄷ 의 뽑힌 횟수가 각각 n/3을 갖지 않을수 있잖아요. 결과적 으로 얻을 확률을 미리 구할수 있는 방법이 있을까요? 또는 n=3k라고 할때 정확히 각각 n/3을 갖게되는 확률을 구할수 있을까요? 현재 수상 하고 있는 중2 인데 호기심이 많아서 번뜩 생각난 문제 입니다. 계속 고민해 보았지만 lim등을 배우지 않아서 질문 남깁니다.
쉽게 말하면 아주 우연히 첫 10번 뽑기에서 ㄱ-8, ㄴ-1, ㄷ-1 이 나오더라도 추가적으로 100번, 1000번, 아주 많은 횟수만큼 뽑으면 333333333......8, 333333333....1, 333333333.....1처럼 결국엔 맨 처음에 주어진 확률에 근접하게 되는거임
1차원에서 자신을 중심으로 양쪽 끝점이 1의 거리에 있다면 2차원에서는 모서리가 루트2의 거리가 되고, 3차원에서는 더 늘어나고 고차원으로 갈수록 너무 늘어나다보면 안 보일것이라는 생각을 했는데 맞는건지 헷갈리네요..ㅋㅋㅋ 한점을 중심으로 같은 길이의 선분이 제자리에서 추가되는데 모서리까지의 거리가 무한대로 늘어나네요..;;;
X와 Y가 iid uniform on [-1,1] 일 때, E(X-Y)^2 = 2/3, V(X-Y)^2 = 28/45 인 것을 이용하면 n dimensional cube [-1,1]^n 에서 랜덤한 두 점의 거리의 제곱을 n으로 나눈 것의 distribution이 normal distribution 에 가까워지고 (Central limit theorem), Chebyshev inequality를 쓰면 임의의 epsilon>0 에 대해서 P(max dist/min dist < 1+ epsilon) 이 n->infinity일 때 1로 수렴하는 것을 보일 수 있습니다. 이런 이야기를 다 하시기에는 영상이 너무 길어지겠네요.
stable diffusion이 과거의 diffusion 모델보다 더 좋은 성능을 달성한것도 encoder를 통해 적절한 크기의 차원으로 embedding을 한데에서 기인하고 있는 것으로 알고 있습니다. 그리고 저는 저차원이 더 좋다고 생각하는 것이, 저차원은 사람이 볼 수 있기 때문에, 설명가능함의 관점에 있어서도 중요한 것 같습니다. t-SNE, PCA, UMAP 등, 차원축소 알고리즘은 설명하는데도 굉장히 좋은 역할을 하기도 하고요.
차원을 설명할 때 흔히 예로 드는 다른 차원의 생물(직선상의 개미라든지 4차원의 인간같은)을 지금 이 영상을 보고 생각해보니 고차원에 있는 존재들은 칼라로 연결되어있다거나, 유년기를 끝낸 인류와 같이 비슷비슷한(혹은 서로 차이가 없는 혹은 단일) 존재들일까 하는 뻘생각이 들었습니다
크기가 같은 원(반지름1)끼리 사각형 모양으로 붙이면 2차원 에선 원의중심과 전체중심의 거리는 2^0.5-1이죠. 마찬가지로 3차원 구를 같은 조건으로 하면 3^0.5-1이죠. 근데 4차원 구에서 같은조건을 실행하면 4^0.5-1=1이죠 즉 4차원 구 16개를 맞닿아놓으면 그 구16개안쪽에 새로운 구1개를 놓을수있다는거죠... 이개념을 확장하면 9차원 구 512개를 맞닿아놓으면 그안에는 반지름이 2인 구도 들어간다는거고... 고차원은 참신기한개념같아요
와.. 이런 개념은 처음 알았지만 직관적으로도 생각이 가능한 부분이었네요. 방금 떠오른게 만약 어떤 사람이 조건에 따라 고용할 사람을 찾고 있는데, 1가지 조건만 보는 사람이라면 후보가 2명만 있어도 거의 명확하게 선택 되겠지만, 조건을 10가지를 따진다고 할 때 조건별 가산점 차이가 없다면 각 사람마다 10가지의 강약점이 상쇄되어 비슷한 총점을 받게 되겠죠. 그렇기 때문에 확실한 후보를 찾기 위해 더 많은 후보군이 필요하겠네요.
(키, 몸무게, a, b,...)에서 자신의 데이터 (180, 70, a0, b0,...)가 하나의 기저 e1 = (e,0,0,...)가 되도록 유니터리 좌표변환을 한 뒤에 완전히 랜덤한 데이터 셋을 보면 c = (c1, c2, c3...) 꼴이 될텐데, 유클리드 공간이면 이 데이터와 나의 정보간의 거리는 norm[c-e1] =( (e-c1)^2+c2^2+c3^2+... )^(1/2)될 것이고, norm[c]가 어떤 특정한 값 근방에 분포될 때, 차원이 커질 수록 (e-c1)/norm[c-e1]가 0에 가까워질거란 의미로 받아들이면 될까요? 즉, 차원이 증가할 수록 max dist/min dist가 1이 되는 것은 norm이 1이나 특정 값으로 동일한 데이터 셋을 사용하였기 때문에 일어나는 일인 것처럼 보입니다. 차원이 커질 수록 두 점을 잡았을 때 두 점은 거의 수직에 가까워질 가능성이 높아지고(차원이 충분히 크다면 데이터가 랜덤하게 주어졌을 때 c1^2가 c2^2+c3^2+...에 비해 충분히 작을 것이므로) 그 경우 두 점 사이의 거리 r은 (위의 예시에서) r^2~=e^2+norm[c]^2 이 될 것이므로 norm[c]가 일정한 대부분의 c에 대하여 r은 일정해지기 때문에 r_min/r_max가 1에 가까워진다고 생각했습니다. 아니면 norm[c]가 일정하다는 조건이 없이도 가능한 것인데 제가 뭔가 착각한 것일까요?
0부터 1사이에 유니폼 랜덤한 수를 독립적으로 n번 뽑아서 좌표 하나를 만듭니다. 이걸 100번을 해서 좌표 100개를 만듭니다. 그리고 100개들 사이에 두개를 선택하는 모든 조합 100C2개에 대해 거리를 계산하고 가장 긴거리 분의 가장 짧은거리 비율을 계산합니다. 이 과정을 n을 키우면서 플롯해보면 1로 수렴하게 됩니다.
@@12math 중심이 원점이고 반지름이 r과 r+e인 두 S^(d-1) 하이퍼 구 사이에 있는 점의 개수는 두 구 사이의 하이퍼볼륨에 비례한다고 가정합니다.(이 볼륨에 있는 점들은 모두 norm이 r과 r+e사이에 있게 됩니다. e는 매우 작은 값) 그리고 이 볼륨은 r
와우 ㄷㄷㄷ 학교다닐때 이렇게 설명을 잘하는 선생님이계셨다면 노벨상 최다배출국이 되었을수도 ㄷㄷㄷ 빅데이터라고 모아보면 유의미한결과를 산출하기가 어려웠는데.. 이걸보고나니 이해가 쏙쏙! 수집되는 정보의 유형을 차원에 대입할때 10소름ㄷㄷㄷ 데이터 여러종류 모으지말고 집중해야하는 최소한의 데이터만 모아서 일했는데.. 그게 차원줄이기 같은거였군요? 이론은모르지만 직감적이고 본능적으로 그리해야할것같았는데 ㄷㄷㄷ 우왕.. 진짜 세상모든게 다 수학으로 설명가능한거구나 ㄷㄷㄷ 설명못하는건 아직 발견되지 않은것일뿐!