Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Python
- 부스트캠프
- 프로그래머스
- 파이썬
- 알고리즘
- 데이터 엔지니어링
- coursera
- 시각화
- 백준
- SGD
- 협업 필터링
- 코딩테스트
- 추천 시스템
- Tensor
- selenium
- 코테
- 데이터
- TF-IDF
- 웹크롤링
- wordcloud
- Overfitting
- 머신러닝
- 추천시스템
- 분산 시스템
- pytorch
- recommendation system
- Cosine-similarity
- 딥러닝
- 웹스크래핑
- codingtest
Archives
- Today
- Total
개발자식
[Pytorch] nn.Embedding 임베딩 벡터 만들기 본문
파이토치에서 임베딩 벡터를 사용하는 방법
- 임베딩 층을 만들어 훈련 데이터로부터 처음부터 임베딩 벡터를 학습하는 방법
- 미리 사전에 훈련된 임베딩 벡터들을 가져와 사용하는 방법
여기서 첫 번째 방법으로 구현하려면 nn.Embedding()를 사용한다.
- nn.Embedding은 크게 두 가지 인자를 받는데 각각 num_embeddings과 embedding_dim입니다.
- num_embeddings : 임베딩을 할 단어들의 개수. 다시 말해 단어 집합의 크기입니다.
- embedding_dim : 임베딩 할 벡터의 차원입니다. 사용자가 정해주는 하이퍼파라미터입니다.
- padding_idx : 선택적으로 사용하는 인자입니다. 패딩을 위한 토큰의 인덱스를 알려줍니다.
'AI > Pytorch' 카테고리의 다른 글
[Pytorch] 행렬 곱(내적) vs 아다마르곱(element-wise product) (2) | 2022.10.20 |
---|---|
[Pytorch] torch.nn.RNN() _ RNN API (0) | 2022.10.20 |
[Pytorch] torch.sum (Tensor 요소 합) (0) | 2022.10.18 |
[Pytorch] torch.stack (Tensor 붙이기) (0) | 2022.10.18 |
[Pytorch] Pytorch 모델 불러오기(save, checkpoints, transfer learning) (0) | 2022.10.02 |
Comments