. 전체 부품 가격은 1,100 만원이 살짝 넘어가는 본체였지만, 조립자체가 까다롭고, 케이블이 복잡하고,, 머 그런건 아니어서 사실 조립하는데 있어 부담감은 생각보다 없었던거 같습니다. 게다가 TITAN 도 제가 준비한게 아니고, 보기에는 머, TITAN 이나 1050 이나,, 머 별반 다를바 없네... ╮(︶︿︶)╭ 라는 건방진 생각까지 들어버려서,,, 가,, 아니고 .... 진짜 ,, 이런거 들고와서 [사장] 찾으면,,, Ψ( `▽´ )Ψ ...
CPU와 램은 그냥 OS와 프로그램 구동정도만 하면 됩니다. 딥러닝의 튜토리얼 수준의 DATA를 학습하는데만 i5기준 5시간, 1080ti 기준 1분 GPU는 병렬연산이 기본이고 특화, 특히 머신러닝용은 아에 설계단계부터 연산을 잘할 수 있도록 설계되어 있습니다. CPU는 시리얼하게 연산을 하는데, 연산량이 적으면 GPU와 차이가 나지 않지만, 딥러닝에서 쓰는 연산이 단순한 연산이지만 동시에 해야하는 연산량이 어마어마하게 많아서 GPU를 사용함.
경차뺨치는 가격에 놀랍네요 엔디비아 그래픽 레퍼런스라서 불리는게 값이라 는 그래픽 인듯 근데 서버용이라면 라이젠 은 안쓸것 같고 암텔 양아치 제논(?) 서버 용 씨퓨를 쓸것 같음 역시 갓물주 부자동네 라서 클라스가 다르긴 다르나 봅니다 근데 다 비싸고 좋은데 많고 많은 메인보드중에 서 애자락인지 애꾸보드 피방보드로 막굴릴 과거경력이 화려해서 ECS나 애자락은 믿고거름
인공지능: 인공적인 지능, 가장 포괄적인 개념 머신러닝: 기계학습, 기계 학습의 방법, 인공지능 하위개념 딥러닝: 기계학습을 통한 예측, 과거의 데이터를 가지고 최적의 값을 예측함, 기계학습 하위개념. 머신러닝 약간 배워본 바로는 아직 실질적인 인공 '지능' 은 없음. 현재 수준은 그냥 스마트 셀렉터(여러가지 선택에서 잘 선택) 정도 다만, 초창기 인공지능(심심이 채팅 프로그램 같은류)은 개발자가 상황별로 리턴값을 일일이 입력해 줬다면, 현재 머신러닝은 개발자가 입력한 값이 아니라 기계가 데이터를 통해 학습한 값을 사용자에게 보여주는 정도로 발전했다고 생각하면됨. 바둑프로그램으로 예를들면 기존프로그램은 사용자가 어디에 두면 어디에 두어라 라고 개발자가 일일이 상황별로 정해놓은 값이 있는데 알파고는 기존의 대국들을 학습한 데이터를 가지고 사용자가 어디에 두면 이 상황에서 어디에 두는게 최적인지 개발자가 입력한 값이 아니라 학습된 데이터에서 추출해서 결과를 보여주는 정도. 인공'지능'은 아직 시작도 안된거구나 라고 느꼈음.
제가 생각하는 허수아비 유투버 님이 꾸준히 성장할수 있었고, 앞으로도 한걸음씩 계속 나아갈거라고 생각하는 이유입니다. 1.정직하게 일한다. 2. 손님의 나이대와 성별 각각의 상황에 맞게 상세하고 풍부한 예시로 설명, 3. 부드러운듯 단단하고 사람을 생각할 줄 아는 유투버 4. 시청자의 의견을 받아들일 줄 알고, 그 의견이 허수아비님 가게에 맞이 않는다면 그 이유와 죄송하다고 표현해서 소통합니다. 5. 자극적인 내용보다는 우리의 소소한 일상을 보는 듯한 편안한 느낌. 저도 구독자 중에 한사람인데 허수아비 유투브는 그냥 틀어놓고 공부해도 잘될만큼 목소리가 부드럽습니다.
지나가는 설명충입니다ㅎㅎ 간단하게 말하자면 딥러닝은 AI라는 알고리즘 방식에 속합니다. -딥러닝 방식 3가지 딥러닝에는 아무런 방식도 가르쳐주지 않은상태로 컴퓨터가 우리가 의도 한데로 작동했을때 점수를 +1하고 그렇지 못했을때 -1을 하는 방식으로 컴퓨터가 +를 향해 행동을 하게 유도하는"강화 학습", 데이터와 그 결과 값을 이미 준 상태에서 특징점을 학습하여 다른 데이터를 넣었을때 결과를 도출하게 하는 "지도 학습", 데이터는 제공하되 결과값을 주지 않고 학습 시키는 "비지도 학습"이 있습니다(아무것도 주지 않기 때문에 가장 구현하기 어렵기도 하고 보통 데이터 분류의 목적으로 많이 씁니다.). -딥러닝의 기본 구조 이러한 딥러닝은 "인공 신경망"을 토대로 작동하는데요. 우리 뇌의 "뉴런구조"를 본 따서 만들었습니다. 인터넷에 검색하시면 알 수 있습니다만. 입력한 값에 "가중치"라는 것을 더하거나 빼서 출력까지 여러번 "가중치"를 더하거나 빼면서 나온 결과물이 딥러닝의 기본 형태입니다. 가중치는 일정한 범위내에서 랜덤하게 잡히며 우리가 원하는 쪽으로 값이 변경됩니다. 처음 0.1을 더했는데 결과가 긍정적이었다면 그쪽으로 계속 가는 것이죠.(활성화 함수라는것도 있습니다만... 간단하게 하기위해 패스) 결국 숫자들의 더하기와 빼기를 여러번 하여 나온숫자가 딥러닝의 결과물이고 우리가 원하였던 결과물이 나왔을때 사용되었던 "가중치" 값을 을 저장하였다가. 나중에 다시 사용하면 빠르게 입력값에 대한 결과값을 얻을 수 있죠. 예를 들자면 "고양이 사진"은 수많은 픽셀의 집합입니다. 각 픽셀은 값을 가지고 있죠 대충 0~255까지 있다고 한다면 (1,1)픽셀부터 (8000,8000)픽셀 까지의 모든 값을 신경망에 넣어 가중치를 더하고 빼면 나오는 값이 있을 것이고 그 값이 우리가 원하는 값이 었을때 그 값을 도출할때 사용된 가중치들을 저장해 두었다가. 나중에 다른 "고양이 사진"을 넣었을때 우리가 원하는 값이 도출되면 그 사진을 컴퓨터는 고양이 사진이다 라고 말하는 것입니다.
이해하기 쉽게 설명하기 위해 저렇게 설명하셨겠지만, 사실 딥러닝의 학습과정은 정반대입니다. 앞서 말씀하신 가중치를 랜덤하게 주어 이때 모델의 예측값과 실측값의 간극(비용함수)을 최소화하고 가중치를 업데이트하는 일련의 순환과정을 학습과정 혹은 최적화작업이라 지칭합니다. 그렇기 때문에 사실상 딥러닝에서 '원하는 가중치값'을 정의하긴 애매하며, '이 사진은 고양이다.'는 이론적으로 'Class 0번일 확률이 높다.'이기 때문에 사실상 주어진 클래스내에서 분류만 할 뿐, 이 사진이 고양이라는 것을 인지하지는 못합니다. 또한 앞서 말씀하신 비지도학습의 개념은 머신러닝에서의 Clustering 개념이며, 딥러닝의 비지도학습은 아마 2014년 페이스북팀에서 발표한 GAN(General Adverserial Network)알고리즘이 조금 더 비지도학습 의미에 가까울 것 같습니다. 생성자와 판별자가 적대적인 경쟁구도를 통해 판별자가 결국 판별할 확률을 0.5로 수렴하게 만드는 것이 그 원리입니다. 즉 labeling작업이 주를 이루던 딥러닝계에서 큰 파장을 불러일으켰던 알고리즘입니다.
댓글에 공대분들이 등장하시면서 자세한 내용들 알려주시는데 어려워요!! ㅋㅋ 간단하게 말씀드릴게요~ 딥러닝이란 사람으로 따지면 말 배우는 애기와 비슷하게 프로그램을 짜주는 거에요. 그럼 컴퓨터가 중복적인 데이터를 사람이 미리 짜놓은 길 대로 러닝 즉 공부를 하는거죠 (중복적인 공부=딥 러닝) . 마치 애기에게 부모님들이 "아빠""엄마" 란 단어를 말하게 하기 위해 아이 앞에서 무수히 말해주는거와 같은 방법이라 보시면 됩니다. . 물론 개념적 이론적 으론 조금 다른 부분이 있지만 비스무리한 맥락이에요 헿 저는 이만 뿅
딥러닝, 빅데이터 분석 등 분산병렬처리를 하는 PC는 생각보다 자본이 많이 투입되긴 하죠 ㅎㅎ 제가 다니는 회사에서는 중소규모로 그럭저럭 하둡 에코시스템 돌리는 서버 PC를 맞추는데만도 CPU 코어 기준으로 128코어를(4대) 쓰고있네요. 그리고 보통은 이런거 맞춰주고 납품하는 업체가 따로있구요.
@@user-vp3un3vg1j 옛날 fsp가 무명파워였다가 벤치마크에서 갑자기 일약 스타로 떠올랐는데, 그 배경에는, 사실 대기업에 납품되는 파워 대부분이 fsp였음. fsp가 스타로 떠오르면서 가격이 올라서 대기업들이 다른 파워로 넘어갔는데 그게 델타. 그래서 델타도 대기업들이 인정한 좋은 파워다!!! 라는 믿음이 깔려있는데... 사실, 회로를 보면 그렇게 믿음직스럽지 못함. 캐패시터가 너무 코일에 가까이 있어서, 당장의 수치상으로는 믿을만하지만 설계상으로는 수명이 짧음.
원래 이런것들이 난이도는 보통과 큰 차이가 나지는 않죠. 진짜 문제는 개인 사업하는 사람으로써 감당하기 어려운 무지막지하게 비싼 물건이라 실수로 뭔가 하나 부서진다던지 하면 끄음찍한 상황이.... 사람이 완벽할 수는 없으므로 실수를 할 수도 있는데 이런거 건들때 발생하지 않기만 바래야죠....
딥러닝 비슷한 분야 종사자입니다. 흠.. 대학원생이 저렇게 비싼 컴퓨터를 맞춘다고요? 요즘 클라우딩 시스템이 얼마나 잘 되어있는데. 구글의 클라우드 플랫폼이나 아마존의 AWS 아니면 심지어 네이버의 네이버 클라우드 플렛폼에서도 저정도 성능의 컴퓨터를 사용한 양만큼 돈을 지불하고 사용할 수 있어요. 인터넷으로 연결해서 수십억짜리 슈퍼컴퓨터 서버의 성능을 이용해서 인공 신경망을 학습시키는 방법인데 대학원생이고 연구 목적이면 아마 일부는 무료로 사용할 수 있게도 되어있어요. 연말이라 예산을 빨리 해치워야해서 그런가.. 원래는 저렇게 까지 안하는데..
@@user-xc2cv5ui6u 리눅스에서 AMD 잘 안쓴다는건 상당히 선입견이신거 같은데... 인텔과 암당 두 CPU 모두 리눅스 환경에서 매우 잘 돌아갑니다... 단일 코어로는 INTEL이 장점이 있지만 멀티코어로는 AMD가 장점이 있는거 같습니다. 그리고 비용적인 측면에서도 어느정도 절충안이 되기도 하고요. 연구비 중 자재비로 산 컴퓨터일거 같네요ㅎㅎ
6:30 정전기 방지 비닐은 비닐 안쪽으로만 적용되고 바깥은 오히려 전자기기 고장의 원인이 될 수 있는걸로 알고 있습니다. 정전기 방지 비닐 원리를 검색하시면 어렵지 않게 이해하실 수 있습니다. 특히 마더보드같은 경우 면적도 넓어 AS 발생의 많은 통계가 포장을 뜯고 마더보드를 정전기 비닐 위에 올리면서 나는 고장 이라고 합니다. 비닐에 써있는 static sensitive device는 그냥 정전기에 취약한 제품이라는 뜻이며 비닐에 대한 설명이 아닙니다.
딥러닝을 최대한 간단하게 설명. 2차 함수 그래프의 그림이 그려져있을 때, f(x) = ax^2 + bx + c = y 를 만족하는, 그림에 최대한 근접한 a,b,c를 찾는게 머신러닝. 딥러닝은 f2(x) = f(x) = y 머신러닝이 2단계 이상 넘어가면 딥러닝. 보통 범용 딥러닝을 쓸 때는, 몇차함수인지, 몇단계인지를 설정하고 돌림. 단계가 올라갈 수록 시간이 무궁무진하게 증가.
사장님 말씀하신대로 딥러닝은 인공지능 연구라고 이해하시면 될것 같습니다. 저는 AI(인공지능)라는 말이 기자들이 부풀리기 쉬운 용어이기도 하고 비전문가가 들었을때 직관적으로 매칭이 안되는 말이라서 싫어하는데요. 보통 요새 들어 대중매체에서 말하는 인공지능 기술이라는건 기계학습이라는 분야에서 나온 말입니다. 특별한 일을 수행하는 프로그램이 추가로 각종 데이터를 얻어서 더 일을 잘 수행하게 하는게 목적이구요. 이 교육방식에 따라 세부적인 명칭이 바뀝니다. 이 방법 중 인공신경망을 통한 학습방법이 있는데 학습 레이어를 늘려서 좀 더 결과가 느리게 나오는 대신 복잡한 학습이 되게끔 설계한 경우 딥러닝이라고 합니다. 그래서 좀 더 좋은 하드웨어가 필요한 경우가 많죠.
타이탄 자체가 게임용 그래픽카드이기도 하지만 연산용으로 많이씁니다. 인공지능, 머신러능, 흔히말하는 알파고죠. 이연구분야에서는 기존의 CPU로는 속도가 너무느리고 병렬작업이힘듭니다. 그래서 병렬계산에 특화된 GPU(CUDA 프로세서)를 사용합니다. 그래픽카드라서 그래픽작업인줄 아시는 분들이많을텐데 실제로는 단순계산이 대부분이고 물론 그래픽작업도 동시에 가능합니다. 머신러닝은 기존의 5개 데이터를 넣고 학습(기억)시켜 외부에 새로운 변수가 들어왔을때 알아서 대답하게 하는 가장 유명한 학습방법입니다. 이분야는 물리 화학 생물 컴퓨터공학 등등 다양한 분야에 활발히 연구하고 있습니다. 저는 연구비 관계상 1080Ti를 쓰고 있지만 cpu보다 진짜 빠릅니다. 코딩에 따라다르지만 cpu보다 3배이상은 적어도 빠릅니다. 여기에 중고등학생분들 중에 신기술을 배우고 싶으시다면 머신러닝 인공신경망 등 인공지능과 관련된 서적이랑 코딩 배우면 진로에 아주 도움이 될겁니다.
작업시에 저 시스템(타이탄 V 2개)의 경우 이론상 이세돌과 대국했던 알파고 성능(300TFlops)의 약72% 정도(대당 110TFlops이므로 2대는 220TFlops)의 성능이 나오는 시스템 구축이 가능합니다. 예를 들어 위 시스템 성능은 개발자가 아침에 출근해서 작업 돌리고 퇴근전에 결과를 확인하고 재작업을 돌리는 상황이라면 일반적인 1080ti 2개 설치된 pc의 경우 출근해서 작업걸고 이틀뒤에 결과를 확인해야 하므로 위 시스템이 시간을 비용으로 본다면 결코 비싼 컴퓨터가 아니죠
컴공과 가겠다고 공부한 고등학생 시점에서 마지막 설명을 좀 정리해 드리자면 입력이 들어오면 사람이 정해둔 계산과정을 통해서 값을 내주는게 일발적이라면 딥러닝은 계산과정을 모르니까 데이터를 잔뜩 집어넣어서 뭐가들어가면 뭐가 나오더라는 규칙을 찾는게 딥 러닝입니다. 근데 그 규칙을 사람이 이해하기는 불가능하다 라는게 단점으로 꼽힙니다.
딥러닝 설명을 쉽게 해주시지 ㅋㅋㅋ 컴퓨터가 장미와 튤립을 구분 못했는데 딥러닝기술로 구분할수 있게 됬다고 뉴스에서봤는데.... 사람은 그냥 보면 아는데 기계는 어렵게 알아먹는데요. 하지만 컴퓨터가 데이터가(딥러닝) 많아지면, 전문가보다 더 구체적으로 많은걸 구별한다고 합니다. 비슷한 장미더라도 어떤 종자인지 어느나라에서 재배됬는지 앞으로 어떻게 성장할지 까지 구분도 가능할수도....
대학교 연구실에서 정말 저예산으로 딥러닝하나 보네요. 보통은 기업이나 연구실등에 납품하는 업체가 있죠. 서버처럼 랙형태로 만들어가지고. 모델명은 기억안나지만 12GB 짜리 카드 8개 꼽고 당연히 하드는 레이드로 구성한 3000만원짜리 저렴이들을 엔트리레벨로 쓰죠. 물론 예산에 따라 스펙을 조정해야겠지만. 그래픽카드 2개짜리로는 시뮬레이션 몇개 돌리지는 못하겠어요.
일반 노말한 사람도 100만원 넘어가면 아~휴! 비싼 것 했네! 하는데...천 만원이라~+100만원 추가~!!! 엄두가 나질 않으나 대단한 PC 조립인데...그 만한 능력을 활용해서 쓸런지는 의문입니다.사실 비싸도 너무 비싼 부품이라...달리 이렇다 저렇다 할 순 없지만...솔직히 좀 과한 느낌이 들지만..이런 것도 있구나! 알고 있으면 될 것 같네요! 정말 대단한 엄청난 가격이 아닐 수 없는 것은 사실인 것 같습니다. 100% 활용해 잘 쓰시길 빕니다. =^.=~...