분류 전체보기 썸네일형 리스트형 [연구일지] 존경하던 Müller 교수님을 만나다. 유명인을 만난다는 것은 꽤나 쉽지 않은 일이며 평소 인터넷에서 이름과 얼굴을 봤던 분을 실제로 만나는 일은 생각했던 것 이상으로 신기한 일이다. 마치 빌게이츠나 워렌버핏과 대화할 수 있는 기회가 생기는 것과 비슷하다. 나에게는 Klaus Robert Müller 교수님의 만남이 그런 것이었다. 한 번 만나보고 싶고, 이야기해보고 싶다는 생각. 그런데 상상이 현실이 되었다. Müller 교수님은 그는 XAI 에서 가장 유명한 사람이다. 무려 Citation 이 11만개나 되는 연구에 있어서 우상이신 분이다. 보통 한 명의 연구자가 일년에 많으면 10편 이내로 논문을 쓰니, 11만 인용되었다는 것은 그만큼 그의 연구가 수많은 연구자들의 밑바탕으로 사용되었다는 것이다. 개인적으로 나는 연구를 하면서 특히나 마.. 더보기 Vision Transformer로 CIFAR 10 학습하기 ✍🏻 EXP Vision Transformer로 CIFAR 10 학습하기 [Korean] ViT 결론 (TL;DR) 🔖 MNIST 는 학습이 아주 쉽다. 🔖 CIFAR 10 을 CrossEntropy로 Scratch 학습은 어렵다. 🔖 Pretrain 된 모델을 사용하면 1 epoch 만에 높은 성능을 보인다. 이 실험을 진행하기 전에 모델에 대해서 한 가지 믿음이 있었다. 학습데이터에 대해서 Loss를 줄이는 것은 Validation Loss를 어느정도 줄인다. " Decreasing training loss ensures large portion of validation" 그러나 그렇지 않은 모델이 있음을 알게 되었다. ✍🏻Post Structure 1. ViT 설명 2. MNIST 학습 3. CIF.. 더보기 [2022년 AI Trend] 트랜스포머 구조가 더 넓은 분야에서 사용된다. 트랜스포머에 대한 강한 집착 딥러닝이 발달하는 속도가 워낙 빠르다보니, 새로운 모델 구조를 다양한 분야에 적용하는 것은 빈번이 일어나고 있다. 최근에는 트랜스포머가 NLP 를 넘어서 더 넓은 분야에서 사용 되고 있으며, 앞으로 더욱 자주 사용될 것으로 예상된다. 트랜스포머의 장점은 더 많은 정보를 모델이 담을 수 있다는 것이다. Local Receptive Field 와 Transition Equivariance 를 특징으로 하는 CNN 에 비해서 상대적으로 Inductive Bias 가 덜한데, 이는 바꿔말하면 모델이 가지는 자율성이 높다는 것이고 데이터의 구조에 대한 정보를 더 많이 담고 있을 확률이 높다는 것이다. 최근에 ViT(Vision Transformer, 2021 ICLR)와 DT(Deci.. 더보기 temp 보호되어 있는 글입니다. 더보기 [논문 리뷰] OpenAI Learning to Play Minecraft with Video PreTraining (VPT) HTML 삽입 미리보기할 수 없는 소스 2022-06-23 일 OpenAI 블로그에 새로운 글이 올라왔다. Learning to Play Minecraft with Video PreTraining 라는 논문으로, MineCraft 를 비디오를 Pretraining 시켰다고 한다. 보통 Pretraining 하면 NLP의 텍스트 Language Modeling 으로 주로 사용되는데, 이번에 강화학습 분야에서 Pretraining을 시켰다고 한다. 그동안 강화학습에서는 Pretraining 자체를 할 수 없었는데, 그 이유는 환경에 대한 Universal Representation이 없기 때문이다. 예를 들어서, 지금 적고 있는 글은 다른 곳에서도 동일하게 사용될 수 있지만, 강화학습에서는, 로봇의 각도의 .. 더보기 Python XML Read, Save, Change (읽고, 쓰고, 값 변경하기) 1. Introduction 필자는 XML 에 대해서 자세히 모르며, 알고 싶지도 않았지만, XML의 값을 읽고 일부값을 변형시켜서 저장시키는 코드를 만들어야 했습니다. 결론적으로 root.iter() 함수를 통해서, tag 와 attribute 에 접근할 수 있으며, 일부값만 변경하고 다시 저장할 수 있다는 것을 알게 되었습니다. XML 구조에 대해서 알고 있다면 Section 2를 건너뛰고 Section 3 :Read and Save 와 Section 4: Attribution change 코드를 사용하시면 됩니다. 2. XML 구조 XML 은 쉽게 말해서 Tag 와 Attribution으로 이루어져 있다. Tag: Object 이름인 것 같습니다. 하나의 object는 단 하나의 Tag만 가지는 듯.. 더보기 블랙박스 모델 설명 (XAI) Introduction 딥러닝 모델은 의심의 여지가 없이 많은 도메인에서 높은 성능을 보여줍니다. 많은 데이터로부터 학습을 진행하면서 예측을 하게 되며, 사용자는 모델에 인풋으로 넣는 데이터와 결과인 아웃풋만 알 수 있습니다. 수많은 파라미터로 이루어진 복잡한 내부에 대해서는 알지 못하며, 또한 예측값은 보통 스칼라이며, 해당 값이 나온 이유에 대해서도 알려주지 않습니다. 이러한 블랙박스적인 특성은 모델을 사용하며 이를 신뢰할 수 있는가에 대한 이슈와 직접적으로 관련되어 있기에 해결해야 하는 중요한 문제입니다. 모델에 대한 설명성의 필요성으로부터 예측 모델에 대한 설명을 위한 연구들이 다방면으로 진행되었고, Klaus-Robert Muller 의 CVPR 2018 년도에 tutorial로 몇가지 카테고.. 더보기 강화학습에서 랜덤성과 비랜덤성에 관하여 + Return, Value Function 강화학습에서 랜덤성과 비랜덤성에 관하여 강화학습에서는 시간에 따라서 상태, 행동 보상이 결정된다. 이 값들에는 랜덤성이 포함되어 있고, 다음 Random Variable을 생각할 수 있습니다. State $S_t$ Action $A_t$ Reward $R_t$ Return $G_t = \sum_{k=0} ^\infty \gamma^k R_{t+k+1}$ 한 가지 놓칠 수 있는 것은 Return 값 또한 Random Variable 이라는 것 입이다. Cumulative Reward 라고도 불리는 이 값은 시간에 따라서 변하는 Radom Variable이기 때문에, 상태에 대해서 고정적인 값을 내려주지 않습니다. 만일 이 값을 상태 또는 (상태+행동)에 대해서 평균을 내리게 된다면, 우리는 랜덤성이 사라진.. 더보기 이전 1 2 3 4 5 6 7 ··· 32 다음