워드임베딩 썸네일형 리스트형 1/8, 서른 세번째 날의 TIL(NLP) NLP관련 e-북을 계속 읽는중인데, 오늘은 워드 임베딩에 대해서 정리를 해보았다. 텍스트를 컴퓨터가 잘 이해할수록 성능이 좋으므로, 워드 임베딩 처리를 잘 하는 것이 중요한 것 같다.워드 임베딩 (Word Embedding)텍스트를 컴퓨터가 이해할 수 있도록 변환하는 방법. 단어를 벡터로 표현하여 단어 간 의미를 학습하며, 희소 표현의 한계를 해결하고 밀집 표현을 사용.1. 워드 임베딩희소 표현 문제점: 단어 수가 많아질수록 차원이 커지고, 의미를 표현하지 못함.밀집 표현: 사용자가 설정한 차원으로 조밀한 실수값 벡터를 생성.임베딩 방식: LSA, Word2Vec, FastText, GloVe 등 다양한 방법이 있음.2. Word2Vec단어를 다차원 벡터로 변환해 의미적 유사성을 계산.CBOW: 주변 .. 더보기 이전 1 다음