영상 재미있게 잘 보았습니다. 다만, 영상에서 잘못된 부분들이 몇 가지 있어서 짚고 넘어가고자 합니다. 이 영상으로 AI를 공부하시려는 분들도 있을 수 있으니까요! 9:30 이 부분에서 classification할 때 사용되는 feature들을 matrix 형태(global feature map)로 표현하셨는데, 일반적인 CNN에서는 vector형태(local feature map)의 feature를 사용합니다. 그리고 영상에서 나온 것처럼 모든 feature를 전부 사용하는 게 아니라, flatten된 feature vector를 linear layer에 넣어서 class 개수에 맞게 dimension을 줄여준 뒤, softmax로 각 class에 대한 확률값을 계산하는 형태로 predict하게 됩니다. 10:59 그리고 이 부분은 RNN에 대해 설명하신 것 같은데, 최근 연구된 LLM이 RNN을 기반으로 학습되었다는 설명은 잘못되었습니다. NLP 분야의 트랜드는 RNN에서 transformer로 넘어온 지 오래되었고, 많은 LLM들도 모두 transformer를 기반으로 학습되었습니다. transformer는 영상에서 설명하신 것 처럼 input값을 sequential하게 받지 않으며, 학습 역시 attention이라는 특수한 패러다임을 사용하여 이루어집니다. 이외에도 fine tuning에 관련된 부분이나 filter 관련 부분에도 오류가 있다는 점 인지하시고 시청하시면 좋을 것 같습니다.
🎯 Key Takeaways for quick navigation: 00:00 🤖 *Introduction to changing AI perceptions from sci-fi to reality, influenced by AlphaGo and deep learning.* 00:27 🧠 *Explaining artificial neural networks, mimicking human neurons, and their decision-making.* 03:09 📊 *Linking programming, flowcharts, and deep learning algorithms in AI.* 04:02 🔄 *AI's probabilistic decision-making using thresholds and categories.* 04:46 🧮 *Weights in artificial neurons affecting decision-making and data classification.* 07:02 🧠 *Introduction to deep learning with multiple layers for complex tasks.* 08:25 🖼️ *How deep learning extracts features from images using filters.* 09:33 🚗 *Applying AI to autonomous driving, analyzing road features and decisions.* 10:00 🗣️ *Exploring AI's language processing with flexible input layers.* 11:08 🧠 *Super large AI models' capabilities and their evolution.* 12:04 💻 *Hardware and infrastructure for super large AI models, including AI-specific chips.* 13:28 🛠️ *Fine-tuning super large AI models for specialized applications.* 13:55 🏢 *Customizing AI services through fine-tuning for specific industries.* 14:36 🤖 *The pervasive role of AI in daily life, from voice-activated controls to personalized recommendations.*
안녕하세요. 인공지능 연구직 종사자입니다. 어려운 내용을 쉽게 풀어주셔서 항상 재밌게 보고 있습니다. 조금 짚이는 부분이 있어 댓글 남깁니다. 후반부 설명에서 학습돼있는 인공지능을 비슷한 다른 분야로 바꿔 학습시키는 부분을 ‘fine-tuning’이라고 언급해주셨는데, 해당 설명은 ‘transfer learning’에 가깝습니다. fine tuning은 transfer learning을 구현할 수 있는 기법 중 일부입니다. (그 외에 linear probing 같은 기법도 있습니다.) fine tuning은 transfer learning을 위해서만 사용되는게 아니라, 어느정도 인공지능을 학습시킨 후에 정밀하게 성능을 조금씩 더 올리는 목적으로 사용하던게 시작입니다. 그래서 fine(정밀,미세) tuning(조정)입니다. 비유하자면, 전동 드라이버에 청소솔을 장착한 제품이 전동 청소솔로 사용되고 있잖아요? 이런 경우 ’전동 청소솔을 사용해 청소한다‘ 라는 표현이 자연스럽지 ‘전동 드라이버를 사용해 청소한다’ 는 그리 자연스럽게 받아들여지지 않습니다. 대략 이런 느낌입니다. 따라서, transfer learning으로 정정하는게 옳은 표현이 아닌가 하는 의견입니다.