본문 바로가기
프로젝트(진행중)/머신러닝 한 걸음씩

EP 05. RNN부터 LSTM까지 이해하기 1

by 일말고프로젝트 2021. 9. 22.

개념은 이 블로그를 참고했다.

 

https://dgkim5360.tistory.com/entry/understanding-long-short-term-memory-lstm-kr

 

Long Short-Term Memory (LSTM) 이해하기

이 글은 Christopher Olah가 2015년 8월에 쓴 글을 우리 말로 번역한 것이다. Recurrent neural network의 개념을 쉽게 설명했고, 그 중 획기적인 모델인 LSTM을 이론적으로 이해할 수 있도록 좋은 그림과 함께

dgkim5360.tistory.com

 

개념 요약

 

1. RNN은 비교적 짧은 시간 전의 정보를 기억해 모델에 활용하지만 긴 시간 이전의 정보를 기억하긴 쉽지 않다.

2. LSTM은 긴 시간 이전의 정보도 잘 기억하고 이를 잘 활용하도록 학습한다.

3. LSTM은 이전 정보를 없애거나 더하며 원하는 정보를 계속해서 학습해간다

 

역전파/순전파 개념은 이 블로그를 참고했다.

 

https://ratsgo.github.io/natural%20language%20processing/2017/03/09/rnnlstm/

 

RNN과 LSTM을 이해해보자! · ratsgo's blog

이번 포스팅에서는 Recurrent Neural Networks(RNN)과 RNN의 일종인 Long Short-Term Memory models(LSTM)에 대해 알아보도록 하겠습니다. 우선 두 알고리즘의 개요를 간략히 언급한 뒤 foward, backward compute pass를 천천

ratsgo.github.io

 

RNN

순전파/역전파

 

순전파

 

역전파

 

 

요약해보면

 

1. 순전파 : 주어진 정보를 학습해 타겟을 추측하며 Parameter 세팅

2. 역전파 : 추측 결과와 알려진 정답을 비교하며 loss를 토대로 Parameter 재조정

3. 관련 정보와 그 정보를 사용하는 지점 사이 거리가 멀 경우 역전파시 그래디언트가 점차 줄어 학습 능력이 크게 저하

   -> Vanishing Gradient Problem

 

 

 

댓글