전체적으로 맞는 말이긴 한데 미국 작전세력의 개미 떨구기 이기도 함...... 엔비디아 실적발표 기다리면서 주식 올렸다가 막상 발표되니 그냥 팔아버리는 작전.... 그리고 계속 떨어지다가 개미 다 떨구고 나서 주식매집하면서 뉴스 떠트리고 다시 엔비디아 주가를 올리는 것임... 한국이나 미국이나 똑같음.... 미국 장 좋아하는 서학개미들 이럴 때 물리고 쪽박차는 것임.....ㅎㅎㅎㅎㅎ
저런거 흔함..애플 같은 경우도 전망보다 좋게 실적 나와도, 앞으로의 성장 전망은 그리 밝지 못하다는 이유로 주가 폭락한 경우를 한두번 봤나? 물론 앞으론 엔비디아 폭등하던 장세는 이제 고점 찍었다고 봐야 하는게 맞기도 하고..앞으론 엔비디아도 완만한 성장이상은 힘들거임..
엔비디아 발표 전 나스닥 엔비디아 주가는 장중 최저가 115 선 , 최고가 125선으로 옵션 걸어놓은 장이였습니다.월가에선 그냥 엔비디아 발표에 몰린 자금으로 계단식 행복회로를 돌리게 해서 하락장으로 만든거죠.성장의 둔화를 지금 당장 말하기엔 너무 이릅니다.수익모델은 과거 아마존과 넷플릭스가 한 경쟁 비지니스처럼 결국 시장을 누가 선점 효과를 두고 가냐에 따라 승자와 패자가 나뉘니깐요.OTT 시장에 수많은 기업들이 M&A와 시장참여를 했지만 결국 승리자는 넷플릭스 하나뿐인 걸 생각 하면 결국 전일 엔비디아 쇼크는 월가놈들의 작전이였다 라는게 제 생각 입니다.
뉴욕시장에 대한 깊이있는 이해가 없는 경우에,...껍데기만 보면 박 선생님과 같은 평범한 설명이 가능하죠. 이미 외신에서 언급하고 있는 이유들을 요약해서 소개해 주셔서 감사합니다. 그러나,... 실제 원인은 수급에 있고, 그 수급의 문제는 파생상품시장에서 기인하고 있다는 사실을 설명해주심이 가할 것 같습니다.
댓글들 밸류 따져보면 너무 뻔한 이야기를 무슨 월가 맘대로라고 해석해버리지... 그냥 거의 130 불 가까이 갔던건 밸류가 엄청높았던거임. 130 불 대였으면 FW PER이 거의 40대 후반이었는데, 그동안 주었던 30~40대의 PER보다 너무 높았음. 즉 이번 2분기 EPS가 FW PER을 30대 초중반 정도로 낮춰줄 수 있기를 은근히 기대하면서 올렸던거임. 즉 EPS 0.7 초중반 이상은 나와주기를 바랬는데 EP 0.68로 그동안의 달리던 가속도를 못따라왔기 때문에 한발 쉬고 갈거임. 그리고 더 높은 PER을 주기가 애매해진거임... FW PER 30중반 ~40초반쯤인 아마도 90후반 110 중후반 사이를 왔다 갔다 하지 않을까 싶음...
와우, 뜬금없이 AOL얘기가 나오네요. AOL은 제가 사는 여기 북버지니아에 본사가 있고요, 제 친한 친구도 일했었기 때문에 나름 잘 아는데, 타임워너랑 합병하기 전에 나름 고심을 했습니다. 인터넷 속도를 높이는데 투자를 할까, 아니면 풍성한 컨텐츠를 제공하는데 투자를 할까. 결국은 잘못된 선택을 했고 도태되고 말았는데요, 그 당시까지는 전화회사가 깔아놓은 전화망을 공짜로 이용해서 인터넷 서비스를 제공하는, 거의 무임승차 하고 있었는데 고속인터넷을 제공하기 위해서는 광케이블망이나 고속케이블을 설치하는 작업을 해야 하는데, 지금까지 꿀빨다가 느닷없이 이런 공돌이 작업을 해야한다는게 마음에 들지 않았던 거지요. 그 당시에 광케이블 작업을 하고 있던 Verizon이나 아니면 고속 케이블 작업을 하고 있던 유선방송 회사 몇군데만 이라도 손잡았으면 나락으로 가지는 않았을텐데 말이죠.
문제는 MSFT, Amazon, Apple 등, 미국의 대기업들이 AI 로 전환중, 꼭필요했든 Nvidia 를 떠나서, 자체 개발을 하기 시작하고 결과가 좋은걸로알고있음. Nvidia 의 Major customer 들이, 2026년 까지는 Nvidia pre-order 가 되어있지만, 지나면 Nvidia 의 필요가 지그보다는 훨씬 작을것이라는…..
아끼는 채널이라 제 조그마한 지식을 보충드립니다. 1. sLLM 이란 경량화 모델 경쟁은 1티어 경쟁은 아닙니다. 성능은 모델 크기에 비례한다는, scale of laws (규모의 법칙)이 2020년부터의 입증된 정설이라, 크기가 큰 모델이 플래그 쉽으로써 전체를 이끌고 있습니다. 품질보다는 가성비가 필요하거나, 빠른 속도가 필요하거나, 스마트폰 같은 on-device 등에 필요하거나 등등, sLLM은 부가적인 필요에 의해서 양자화(quantization) 시킨 모델들이 많으며, 부차적인 시장입니다. 2. 학습에 있어서 nvidia의 cuda해자를 깨려면, 적어도 두세배이상은 월등한 성능을 내는 칩이 필요합니다. cuda의 효율적이고 최적화되어있는 소프트웨어를 사용하지 않고, 자체 엔지니어를 갈아넣어서 비슷한 성능을 내야하는 코스트를 감당하려면, 이정도는 되어야 다른 칩으로 갈아탈 수 있을 것이므로, 학습 분야에서는 nvidia와 경쟁이 상당히 힘이 듭니다. 3. 그러므로, 추론용 칩들에서부터 nvidia의 쉐어를 뺏어올 필요가 있는데, 언급하신 스타트업들의 칩들도 좋지만, (개인적 의견으로는) RAM 에 관련한 신기술들이 있어서 주목하고 있습니다. 가속컴퓨팅에서 가장 큰 병목 현상이 발생하는 곳은 RAM과의 통신입니다. - nvidia 등의 GPU : 외부에 광대역메모리-HBM을 연결 (여전히 병목 심함) - groq : 내부에 SRAM을 on chip으로 패키징 (SRAM 매우 비쌈) - cerebras : 거대한 웨이퍼 하나에 처음부터 RAM을 함께 그려넣어 설계함 전 좀 시간이 지나면 cerebras 의 on-wafer 방식이 추론용 칩의 대세가 될 것이라 생각되더군요. 현재도 검색해서 들어가보면 써볼 수 있습니다. 가성비도 가성비지만, 속도가 말이 안되더군요.
지식 정보 잘 읽었습니다. 아래 문의사항이 있는데 답변 부탁드려요~ 2. 모레는 AI 반도체 시장의 90% 이상을 독점한 엔비디아에 맞서 쿠다의 '상위 호환' 기술을 개발했다. [출처] "엔비디아 독점 깬다"는 토종 슈퍼컴 개발자...AMD도 반했다|작성자 블랙클로버 쿠다 상위호환 기술이 개발되었으니, 쿠다의 해자는 깨지지 않을까요? 3. cerebras 의 on-wafer 방식이 추론용 칩의 대세가 된다면 어떤 기업을 사야 될까요?
@@기특-b2y cuda의 개발 플랫폼으로써의 생태계를 잘 이해 못하는 분들이 많더군요. 가장 중요한, 호환성이 문제입니다. 그 호환성을 해결했다고 믿을 수는 없습니다. 본인들이 앞으로 입증해야겠죠. 그동안 다른 플랫폼에서 cuda 위의 각종 어플리케이션들을 돌리기 위한 시도들은 많이 있었습니다. 문제는 거의 다 실패했다는 것이 문제죠. 이게 그리 쉬운 문제라면 애플의 iOS 생태계든 windows의 앱 생태계든, 기존 각 플랫폼들의 생태계를 옮기는게 쉬웠겠죠. 애플 맥에서 windows 게임들을 변환해서 돌릴 수도 있지만, 성능도 처참해지고, 호환성도 애매하죠. 마찬가지로 iOS 와 안드로이드는 각자의 플랫폼으로써의 해자를 갖추고 수많은 전용 앱들을 거느리고 있습니다. 하나의 플랫폼 위의 수많은 앱들의 생태계를 다른 생태계로 옮기는 것은 결코 쉬운 일이 아닙니다. 성능이 떨어지는 것은 둘째 문제고, 수년동안 수많은 개발자들이 cuda 위에서 갖추어놓은 AI 개발 생태계는 그 각각의 기능들의 호환을 유지하는 것 자체도 쉽지 않습니다. 그래서 향후 몇년간은 해자가 유지될 것이라고 한 이유가 여기에 있습니다. (단, 학습과 추론은 전혀 다릅니다. 학습쪽의 해자입니다. 이 두가지 개념은 명백하게 구분해야 합니다.)
@@기특-b2y 아랫쪽은 업계 AI 엔지니어의 인터뷰 내용을 발췌한 것입니다. 참고가 되길 바랍니다. ============= - 이미 AMD는 오픈소스 개발자들과 협력해서 hipify-perl을 개발했습니다. hipify-perl의 주요 목표는 개발자들이 CUDA 기반 프로젝트를 AMD GPU에서 사용할 수 있게 포팅하는 것을 돕는 것입니다. AMD GPU가 100% 성능을 내려면 추가적인 커스텀 작업이 필요합니다." - "일반적으로 생각해보자면 CUDA 워크로드의 50%는 hipify-perl을 통해 전환이 가능합니다. 나머지 50%는 개발자들이 붙어서 커스텀해줘야 합니다. 50대 50정도라고 생각합니다. 코드베이스는 굉장히 구체적인 단어들로 이뤄져있습니다. CUDA의 수많은 라이브러리를 통해 간단하게 코딩했던 것을 다시 정확하게 변환하려면 그 비용이 더 클 수도 있습니다." - "생각보다 창의성과 전문성을 필요로 하는 작업들입니다. 제 경험상 프로젝트들을 봤을 때에는 hipify-perl이 CUDA 코드를 AMD GPU로 굴리는 데 필요한 50~75%를 담당하고, 나머지 25~50%를 전문가 집단이 계속해서 최적화시켜줘야 합니다. 이에 대한 비용, 시간, 따로 CUDA-ROCm로 옮기느라 핵심 사업에 쓸 유능한 개발자를 낭비하는 것을 생각하면 딱히 여기서 추가적인 비용을 정량화하는 게 의미가 없을 수도 있습니다." - "기업들은 몇 가지 고민들을 해보겠지만 결국 엔비디아 GPU를 구매하는 것을 택하곤 합니다. 기업 입장에서는 전체 프로젝트에 있어서 일부 비용일 뿐이고, 일회성 비용이며, 엔비디아를 사용함으로 인해서 CUDA를 계속 쉽게 쓸 수 있기 때문입니다. hipify-perl은 자금문제 등으로 엔비디아 GPU에 접근할 수 없으면서 대신 비용을 줄이고 싶을 때 유용한 옵션입니다." - “가격과 예산의 중요성은 이해하지만, 실제 NVIDIA GPU + CUDA를 대체하기 위한 AMD GPU + ROCm + hipify-perl + 추가엔지니어링비용 고려하면 엔비디아 GPU가 갖는 가격적 프리미엄을 정당화 할 수 있습니다."
@@기특-b2y cerebras의 on-wafer 방식은 이제 막 빛을 내기 시작했습니다. 저도 계속 주목하고 있는 중입니다. 이미 어느쪽에서는 물밑에서 인수나 협업을 시도하고 있지 않을까요? 아예 nvidia 나 amd가 이런방식으로 칩을 제조할 수도 있는 거고요 ㅋㅋ 구체적인 기술에 특허는 있을지라도, on-wafer ram 이라는 큰 개념 자체는 별도의 특허 장벽은 없을 듯 하거든요 :)
미국은 Local은 전화비가 무조건 무료였습니다. 그리고 적은 비용으로 Long Distance도 무료로 해주는 플랜이 많았습니다. 그래서 높은 전화비가 AOL을 망하게 한 건 아닙니다. AOL이 유명해질 때 케이블 인터넷이 등장했고 그때부터 인터넷 컨텐츠들의 용량이 어마무시하게 늘어났어요. 하지만 AOL는 느린 다이얼업 인터넷만 고집했다가 외면받은 거에요.
사실 GPT같은 LLM 모델은 수익성이 나기 매우 힘들어서 기술의 발전을 보여주는 쇼잉이나 자동차 전시회에 컨셉카 같은 느낌이고 SLM정도가 실생활에서 사용될 것으로 생각됨 근데 박종훈 기자님이 말씀해주시지 않은 부분중에 또 하나 중요한 주제는 AI의 모델의 정확도 및 선명도가 앞으로 점점 성능 저하가 일어날 수 밖에 없다는 논문이 최근 발표되었음 AI가 생성하는 데이터는 사실 창조가 아니라 참조임 참조를 한다는건 100만개를 읽고 10줄로 요약을 하는 압축이라고 생각하면 되는데 이것들을 다시 재참조하는 상황이 벌어지면 정규분포로 치면 중심극한의 정리처럼 하나의 데이터에 쏠림 현상이 이뤄진다는 것을 보여주는 논문임 물론 다양한 형태로 해결할 수 있을지도 모르지만 AI의 발전 속도가 모델이 발전한다해서 지금 처럼 충격적인 무언가를 보여줄 가능성은 낮아진것이고 결국 기술력으로 무언가 엄청난 것이 나오길 기대하기보단 사업에 뛰어들 때 기술장벽은 낮아지고 BM이 중요해질 가능성이 높음
현재 AI는 그들만의 리그죠. 엔비디아같은 칩 개발, 생산자와 AI 데이터센터 설립자들이 AI의 무궁무진한 가능성을 놓고 돈자랑 현질을 하고 있어요. 그들의 결과물이 당장 일반 소비자에게는 와 닿지도 않고 필요없어 보여도 그들은 상당기간 이 짓을 할겁니다. 현재의 주가로 AI의 미래를 판단하기에는 너무 이르니 지나치게 공부할 필요는 없습니다. 다행인 것은 그들이 흘리는 떡고물만 주워먹어도 웬만한 회사생활을 통해 버는 만큼은 되니까 일반인은 그냥 즐기면 되는 거구요. 하나 덧붙이자면 LLM은 AI 혁명의 극히 작은 조각일 뿐입니다. 엔비디아의 꿈은 생각보다 상당히 큽니다.
우리나라에서는 cloud를 클로드 라고 하지 않고 클라우드라고 부릅니다. 아모데이 엔트로픽 클라우드 회사로 표기하는것이 혼돈없이 더 이해하기 쉬울것 같습니다 --> 제가 잘못 알았네요.(Cloud X, Claude O) 바로 잡아 주셔서 감사합니다. 기자님! 바로 잡아주
소형화에 대해 이야기 하셨는데..제가 알기로는 엔비디아칩이 필요한 이유는 LLM에 학습을 시키기 위한 연산에 필요하기 때문이고 SLM은 디바이스가 직접 학습하는것이 아니라 LLM에 의해 학습된 모델을 일부 사용해서 디바이스에 장착시키는 방식을 말하는걸로 알고 있습니다. 결국 SLM에 필요한 모델을 만들기위한 학습에도 엔비디아칩이 쓰이는걸로 알고 있는데… 제가 잘못알고 있다면 바로잡아주시면 감사하겠습니다
점점 무지성매수하는 사람들이 늘어나고, 이에 따라 기존 투자자들의 부담이 커지고 있다는 뜻이겠죠. 실적이 기대 이하일 줄 알았는데 어닝비트면 주가는 오르고, 실적이 기대치 만큼 나올 줄 알았는데 어닝서프라이즈면 오르는 게 보통인데 엔비디아는 그동안 모두가 실적 어닝비트를 예상하는 동안 어닝서프라이즈를 해왔으니 어닝서프라이즈가 아니고 어닝비트면 실망하고 부담을 줄이는 지경에 왔다는 겁니다. 무지성 매수자들을 덜어갈 건강한 조정의 단계가 도래했다는 신호로 보입니다. 물론 비즈니스 모델 자체에 이상신호가 생기면 더 하락할 수도 있지만요.
생각해보니 테슬라가 그렇네요...인플레 금리인상기를 거치면서 전기차버블이 붕괴됬다고 해야하나...리비안 니콜라같은 스타트업들 시총이 포드 지엠을 넘어서던 시절이 있었죠...그렇게 따지면 지금 엔비디아 투자는 굉장히 위험할수도 있겠네요...가뜩이나 경기침체를 앞두고 있는 상황이니...
AI도 스마트폰처럼 혁명이 완전히 정착될려면 뭔가 아이폰같은 충격적인 실생활에서의 변화와 수익모델이 나와야된다고 생각하네요. 지금은 일단 그 잠재력이 무궁무진하니까 캐쉬를 쌓아놓고 있는 빅테크들이 돈을써서 경쟁하듯이 먼저 개발할려고 하는거고요. 그 가시적인 성과가 일단 이번에 새로 나오는 아이폰부터 앞으로 1-2년이 중요할꺼라 생각하는데 그냥 빈수레만 요란하고 사장되는 시장은 절대 안될것 같습니다. 오히려 두렵습니다. 빅테크들이 지금도 우리의 삶을 거의 지배하는 단계로 가는데 더 엄청난 물건이 나올것 같네요. 결국엔 스마트폰떄도 하드웨어에서 소프트웨어로 패권이 넘어갔듯이 AI시장도 엔비디아에서 빅테크로 패권은 결국 넘어갈것 같네요. 빅테크들이 자체 칩도 개발하고 있고 일정이상 성능이상으론 더이상 필요없을수도 있으니까요.