본문 바로가기

딥러닝

[CNN] LeNet-5 CNN 모델 구조 LeNet은 1998년 Yann LeCun,Leon Bottou,Yoshua Bengio, andPatrick Haffner 의 논문 “Gradient-Based Learning Applied To Document Recognition”에서 소개되었습니다. 구성 요소 LeNet-5 CNN Architecture는 7개의 층으로 이루어져있습니다. 3개의 Convolution layer 2개의 Subsampling layer 2개의 Fully Connected layer 모델 구조 LeNet-5 CNN의 모델 구조는 다음과 같습니다. Layer Layer Type Feature Maps Kernel (Filter) Input size Trainable param Activation Input image - .. 더보기
Word2Vec Gensim 실습 코드 단어 임베딩을 이용한 텍스트 유사성🤚 의미 유사성을 바탕으로 적절한 공간에 위치시키는 방법이 단어임베딩입니다. One-hot enconding을 사용할 수도 있지만, 이 경우 단어의 유사성을 파악하기는 어렵습니다. 단어가 10M 개가 있다고 가정해봅시다. 100,000,000 개를 1000개의 차원의 벡터 x = (x_1, ..., x_1000) 으로 투영시키는 경우를 생각할 수 있습니다. 두 단어의 유사성은 한 문장에 두 단어가 동시에 위치할 경우, 관계가 높다고 할 수 있습니다. 코드를 리뷰하면서 관련 내용을 살펴보겠습니다. 중요한 라이브러리 %matplotlib inline import os from keras.utils import get_file import gensim import numpy .. 더보기
[논문 리뷰] 트위터 길이와 감성의 관계 분석 자연어처리 중에서 감성분야는 사회적으로나 상업적으로 유용한 분야 중 하나라고 생각합니다. 사용자들에 대한 감성을 파악하는 것은 우리가 인지할 수 있지만 컴퓨터는 이를 인간처럼 이해하기 힘든 분야죠. 오늘은 쉬운 논문 중 하나인 "A Clustering Analysis of Tweet Length and its Relation to Sentiment" 을 리뷰하고자 합니다. 주장의 근거를 빠르게 접근하기 위해서 맨 뒤에서 처리하지 않고 바로 문단의 끝에 적었습니다. 저자가 너무 많을 경우 가독성이 떨어져서 2명까지만 적었습니다. Reference에 대한 자세한 내용은 해당 논문을 참조해주세요. (저처럼 논문이 익숙하지 않은 사람들을 위해서 적었습니다.) Abstract 논문에서는 두 가지 주제를 다루고 있.. 더보기