참고:https://youtu.be/h9T9HlVvsDo?si=YYgpS2j15FPDMKH6
위 슬라이드는 일반 신경망과 RNN의 차이점을 보여준다.
두 개의 차이점은 모두 은닉층에서 나타나는데,
첫번째, activation 함수가 tanh 를 사용한다는 것과
두번째는 activation 함수의 출력을 다시 feedback해서 linear regression의 결과와 합해서 activation 함수의 입력이 된다는 것이다.
그러면, 이런 차이를 어디에 써먹을려고 하는 것인가? 하는 의문이 생긴다.
위 슬라이드에서 말하는대로 순서가 있는 데이터를 처리하는데 뛰어나다고 하는데 이게 무슨 뜻일까?
영상에서 좋은 예시를 들었다고 생각한다.
순서가 있는 데이터는 그 순서의 의해서 의미가 변형되기 때문에 그 순서가 중요한 데이터를 말하고,
순서가 중요하기 때문에 이전 데이터가 무엇인지 기억하고 있는 것이 중요하게 된다. 이런 의미에서 순환(recurrent)를 하면서 과거의 데이터를 가지고 있게 함으로써 새로 입력되는 데이터와 연결시키는 구조를 가지도록 설계한 것이 RNN이다.
이를 설명한 것이 아래 슬라이드이다.
여기에서는 RNN이 이런 구조갖고 있어서 순서가 있는 데이터를 잘 처리할 수 있는 모델이라는 정도만 기억하자.
다음 글에서는 간단한 RNN 예제를 살펴보자.
'AI > TensorFlow 학습' 카테고리의 다른 글
16. TensorFlow 2.x - LSTM 소개 (0) | 2024.08.13 |
---|---|
15. TensorFlow 2.x - SimpleRNN 소개 (0) | 2024.08.09 |
13. TensorFlow 2.x - 개선된 CNN모델에 대한 CIFAR10 예제 (0) | 2024.08.08 |
12. TensorFlow 2.x - Image Data Augmentation 소개 (0) | 2024.08.06 |
11. TensorFlow 2.x - CNN CIFAR 10 예제 (0) | 2024.08.05 |