Keras
-
Keras공부 : 가중치 초기화Keras 2017. 12. 25. 12:24
각 뉴런은 특정한 가중치로 초기화할 수 있다.케라스는 몇 가지 선택 사항을 제공하며, 일반적으로 사용하는 것은 다음과 같다. 1. kernel_initializer = "random_uniform" : 가중치는 -0.05 ~ 0.05로 균등하게 작은 임의의 값으로 초기화한다.2. kernel_initializer = "random_normal" : 가중치는 평균이 0이고, 표준편차가 0.05로 정규분포에 따라 초기화한다.3. kernel_initializer = "zero" : 모든 가중치를 0으로 초기화한다. 전체 목록은 https://keras.io/initializers/ 에서 확인할 수 있다. [출처] 케라스로 구현하는 딥러닝과 강화학습, 안토니오 걸리/수짓팔 지음, 김창엽 옮김, 에이콘, p32
-
텐서보드와 연동하기Keras 2017. 12. 23. 11:41
# 1. 사용할 패키지 불러오기import keras from keras.utils import np_utils from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Activation import numpy as np # 2. 데이터셋 생성하기 # 2.1 훈련 데이터셋과 시험 데이터셋 불러오기 (X_train, Y_train), (X_test, Y_test) = mnist.load_data() # 2.2 훈련 데이터셋과 검증 데이터셋 분리하기 X_val = X_train[50000:] Y_val = Y_train[50000:] X_train = X_train[:50000] Y_..
-
히스토리 기능 사용하기Keras 2017. 12. 23. 10:51
# 1. 사용할 패키지 불러오기from keras.utils import np_utils from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Activation import numpy as np import matplotlib.pyplot as plt %matplotlib inline # 2. 데이터셋 생성하기# 2.1 훈련 데이터셋과 시험 데이터셋 불러오기 (X_train, Y_train), (X_test, Y_test) = mnist.load_data()# 2.2 훈련 데이터셋과 검증 데이터셋 분리하기 X_val = X_train[50000:] Y_val = Y_train[..
-
그리드월드와 큐러닝Keras 2017. 10. 31. 17:31
1. Monte-Carlo Prediction다이나믹 프로그래밍에서 강화학습으로 넘어가는 가장 기본적인 아이디어는 몬테카를로 예측입니다. 몬테카를로 예측은 기댓값을 샘플링을 통한 평균으로 대체하는 기법입니다. 몬테카를로 예측에서는 에피소드를 하나 진행하고 에피소드 동안 지나온 상태의 반환값을 구합니다. 이 반환값은 하나의 샘플이 되어서 각 상태의 가치함수를 업데이트합니다. 2. Temporal-Difference Control 시간차 예측에서는 몬테카를로 예측과는 달리 타임스템마다 큐함수를 업데이트합니다. 시간차 예측에서는 벨만 기대 방정식을 이용해 큐함수를 업데이트합니다. 3. SARSA 강화학습 제어에서 행동을 선택할 때 e-탐욕 정책을 사용하는데, 가치함수를 사용하면 환경의 모델을 알아야 하기 때문..
-
그리드월드와 다이나믹 프로그래밍Keras 2017. 10. 31. 09:32
1. 다이나믹 프로그래밍과 그리드월드순차적 행동 결정 문제를 벨만 방정식을 통해 푸는 것이 다이나믹 프로그래밍입니다. 벨만 기대방정식을 이용한 것은 정책 이터레이션이며, 벨만 최적 방정식을 이용한 것이 가치 이터레이션입니다. 2. 정책 이터레이션 정책 이터레이션은 현재 정책에 대한 참 가치함수를 구하는 정책 평가와 평가한 내용을 가지고 정책을 업데이트하는 정책 발전으로 이루어져 있습니다. 정책을 평가할 때 벨만 기대 방정식을 이용하여 정책을 발전할 때는 구한 가치함수를 토대로 최대의 보상을 얻게 하는 행동을 선택하는 탐욕 정책 발전을 이용합니다. 3. 가치 이터레이션 가치 이터레이션은 최적 정책을 가정하고 벨만 최적 방정식을 이용해 순차적 행동 결정 문제에 접근합니다. 정책 이터레이션에서와 달리 정책이 ..
-
피마족 인디언 당뇨병 발병 데이터를 이용한 다층 퍼셉트론 모델 만들어보기Keras 2017. 9. 18. 22:46
import numpy as npfrom keras.models import Sequential from keras.layers import Dense# 랜덤시드 고정시키기 np.random.seed(5) # 데이터셋 불러오기 pimaIndians = np.loadtxt("pimaIndians.txt", delimiter=",") # 입력(X)과 출력(Y) 변수로 분리하기 X = pimaIndians[:, 0:8] Y = pimaIndians[:, 8] # 모델 구성하기 model = Sequential() model.add(Dense(12, input_dim=8, init='uniform', activation='relu')) model.add(Dense(8, init='uniform', activat..
-