Skip to content

Commit

Permalink
fix typo char_rnn_generation_tutorial.py (PyTorchKorea#500)
Browse files Browse the repository at this point in the history
  • Loading branch information
stella-oh authored and bub3690 committed Aug 7, 2022
1 parent ca1ec20 commit 0b33e95
Showing 1 changed file with 3 additions and 3 deletions.
6 changes: 3 additions & 3 deletions intermediate_source/char_rnn_generation_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@
우리는 몇 개의 선형 계층으로 작은 RNN을 직접 만들고 있습니다.
이전 튜토리얼인 이름을 읽은 후 그 언어를 예측하는 것과의 큰 차이점은
언어를 입력하고 한 번에 한 글자를 생성하여 출력하는 것입니다.
언어 형성(단어 또는 다른 고차원 구조로도 수행 될 수 있음)을 위해
언어 형성(단어 또는 다른 고차원 구조로도 수행될 수 있음)을 위해
문자를 반복적으로 예측하는 것을 "언어 모델" 이라고 합니다.
**추천 자료:**
Expand Down Expand Up @@ -128,7 +128,7 @@ def readLines(filename):
# 역자주: 기존 입력과 category tensor를 결합하여 입력으로 사용하기 때문에
# 입력의 사이즈가 n_categories 만큼 커집니다.
#
# 우리는 출력을 다음 문자의 확률로 해석 합니다. 샘플링 할 때,
# 우리는 출력을 다음 문자의 확률로 해석합니다. 샘플링 할 때,
# 가장 확률이 높은 문자가 다음 입력 문자로 사용됩니다.
#
# 더 나은 동작을 위해 두 번째 선형 레이어
Expand Down Expand Up @@ -303,7 +303,7 @@ def timeSince(since):


######################################################################
# 학습은 일상적인 일입니다. - 몇번 train() 을 호출하고, 몇 분 정도
# 학습은 일상적인 일입니다. - 몇 번 train() 을 호출하고, 몇 분 정도
# 기다렸다가 ``print_every`` 마다 현재 시간과 손실을 출력하고,
# 나중에 도식화를 위해 ``plot_every`` 마다 ``all_losses`` 에
# 평균 손실을 저장합니다.
Expand Down

0 comments on commit 0b33e95

Please sign in to comment.