250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- zipfile
- MySQL
- fileinput
- randrange()
- mro()
- CSS
- inplace()
- count()
- shutil
- MySqlDB
- locals()
- HTML
- node.js
- items()
- __sub__
- 오버라이딩
- JS
- shuffle()
- __len__
- fnmatch
- 파이썬
- decode()
- Database
- __annotations__
- remove()
- discard()
- View
- glob
- choice()
- __getitem__
Archives
- Today
- Total
흰둥이는 코드를 짤 때 짖어 (왈!왈!왈!왈!왈!왈!왈!왈!왈!왈!왈!)
(Python) 활성화 함수 본문
728x90
반응형
1. 활성화 함수(Activation Function)
- 신경망의 성능을 향상시키기 위해 사용
- 선형 함수는 입력값과 가중치를 곱한 결과를 그대로 출력하기 때문에 신경망에서 여러 개의 선형 활성화 함수를 사용한다면 최종 출력값은 입력값과 가중치의 선형 조합으로 표현되므로 이는 입력 데이터의 비선형 관계를 표현할 수 없음
- 신경망이 입력 데이터의 비선형 관계를 작 학습할 수 있도록 하기 위해서 비선형 활성화 함수를 사용
In [ ]:
import numpy as np
import matplotlib.pyplot as plt
1-1. 시그모이드
In [ ]:
def sigmoid(x):
return 1/(1+np.exp(-x))
x = np.arange(-5.0, 5.0, 0.1)
y = sigmoid(x)
plt.plot(x, y)
plt.plot([0, 0], [1.0, 0.0], ':') # 가운데 점선 추가
plt.title('Sigmoid Function')
plt.show()
1-2. 하이퍼볼릭탄젠트
In [ ]:
x = np.arange(-5.0, 5.0, 0.1)
y = np.tanh(x)
plt.plot(x, y)
plt.plot([0, 0], [1.0, -1.0], ':') # 가운데 점선 추가
plt.axhline(y=0, color='orange', linestyle='--')
plt.title('Tanh Function')
plt.show()
1-3. 렐루(Relu)
In [ ]:
def relu(x):
return np.maximum(0, x)
x = np.arange(-5.0, 5.0, 0.1)
y = relu(x)
plt.plot(x, y)
plt.plot([0, 0], [5.0, 0.0], ':') # 가운데 점선 추가
plt.title('Relu Function')
plt.show()
1-4. 소프트맥스(Softmax)
In [ ]:
x = np.arange(-5.0, 5.0, 0.1)
y = np.exp(x) / np.sum(np.exp(x))
plt.plot(x, y)
plt.title('Softmax Function')
plt.show()
728x90
반응형
'파이썬 머신러닝, 딥러닝' 카테고리의 다른 글
(Python) 딥러닝 (0) | 2023.06.16 |
---|---|
(Python) 데이터 로더 (0) | 2023.06.16 |
(Python) 파이토치로 구현한 논리 회귀 (0) | 2023.06.15 |
(Python) 파이토치로 구현한 선형회 (0) | 2023.06.15 |
(Python) 파이토치 (0) | 2023.06.15 |
Comments