Data/머신러닝 & 딥러닝

신경망의 기본 구성요소(3)/ 활성화 함수- 하이퍼볼릭 탄젠트

빛날희- 2021. 7. 19. 23:06

파이토치로 배우는 자연어처리 책과  참고하여 작성하였습니다.

참고블로그


▶ 하이퍼볼릭 탄젠트

 

하이퍼볼릭 탄젠트 활성화 함수는 시그모이드 함수를 선형변환한 것으로 시그모이드의 단점(그래디언트 소실)을 보완해주는 활성화 함수이다. 

다음은 탄젠트의 공식이다. 

탄젠트 활성화 함수는 시그모이드 함수를 선형변환한 것으로 다음과 같이 증명할 수 있다. 

 

 

 

 

▷ 구현

하이퍼볼릭 탄젠트 활성화 함수를 파이토치로 구현해보자. 

 

 

  • 위 그래프에서 볼 수 있다싶이 시그모이드 함수의 출력값이 0-1이었던 반면 탄젠트 함수의 출력값은 -1에서 1값을 갖는다. 즉 기울기가 양수와 음수 모두 나올 수 있기 때문에 시그모이드 함수보다 학습 효율성이 뛰어나다. 
  • -1에서 1에 y가 분포하고 있어 시그모이드 함수보다 그 범위가 넓어 출력값의 변화폭이 크다. 따라서 그레디언트 소실증상도 시그모이드에 비해 덜한 편이다. 
  • 그럼에도 탄젠트함수 역시 그 범위가 그닥 많이 크지는 않다. 따라서 기울기 소실 문제를 완전히 해결해줄 수는 없다. 

 

 

ReLU함수는 그레디언트 소실 문제 해결에 도움을 줄 수 있는 다른 활성화함수로 최근 딥러닝 혁신의 상당수를 가능케해준 중요한 활성화 함수이다. 

해당 함수에 대해선 다음 포스팅에서 알아보자.