0과 1 사이
활성화 함수 본문
밑바닥부터 시작하는 딥러닝 책을 공부 중인데 틈날 때마다 적으려 한다.
사실 시작한지는 꽤 되었으나 앞부분 내용부터 올린다.
시그모이드, 계단함수, Relu 함수 구현
import numpy as np
import matplotlib.pylab as plt
def step_function(x):
return np.array(x>0, dtype = np.int)
def sigmoid(x):
return 1/(1+np.exp(-x))
def relu(x):
return np.maximum(0, x)
x = np.arange(-5.0, 5.0, 0.1)
y = step_function(x)
plt.plot(x, y)
plt.ylim(-0.1, 1.1)
plt.show()
'딥러닝 공부' 카테고리의 다른 글
[4장] 신경망에서의 기울기 계산 (0) | 2021.08.23 |
---|---|
[4장]손실함수, 미니배치, 기울기 구현 (0) | 2021.08.22 |
[3장]신경망 예측, 정확도 계산, 배치 처리 (0) | 2021.08.19 |
[2장]퍼셉트론 구현 (0) | 2021.08.09 |
[3장]행렬 곱과 3층 신경망 구현 (0) | 2021.08.09 |
Comments