word embedding
원핫인코딩과 워드 임베딩
2022.11.03
· 개발
완전 독립적일 수 있도록 원핫인코딩을 한다. 그러나 너무 길고 희소성이 높다. 유사한 것들을 모으고 싶다. 이런 사항들을 해결하기 위해 word2vec, GloVe 등의 방법이 있다. 원핫벡터는 고차원이고 표현은 희소성이 있고 학습을 하지 않으며 0 또는 1로 값이 구성되어있고, 임베딩 벡터는 저차원이고 표현이 밀집되어있으며 학습되어있고 실수표현이다.
이전
1
다음
'word embedding' 태그의 글 목록
구독하기
테마
상단으로
티스토리툴바
닫기
단축키
내 블로그
내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W
블로그 게시글
글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C
모든 영역
이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift
+
/
⇧
+
/
* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.