전체 글
-
shiny의 예제들R/shiny 2017. 11. 10. 23:13
install.packages("shiny")library(shiny)shiny::runExample("01_hello") shiny::runExample("02_text") shiny::runExample("03_reactivity") shiny::runExample("04_mpg") shiny::runExample("05_sliders") shiny::runExample("06_tabsets") shiny::runExample("07_widgets") shiny::runExample("08_html") shiny::runExample("09_upload") shiny::runExample("10_download") shiny::runExample("11_timer")
-
-
R GraphicsR 2017. 11. 5. 18:36
1. R Graphic DevicesWindows : Window()Mac OS : QuartzUnix/Linux : x11, X11 2. Graphic Filepdfpostscriptxfigbitmappictexcairo_pdfcairo_pssvgpngjpegbmptff 3. Low level plotspoints()lines()rect()polygon()text()title()regend()axis()etc 4. High level plotsbarplot()pie()hist()boxplot()plot()pairs()ggplot2, lattice packageetc 5. External application interfacesGoogle EarthArcGISetc 6. External graphic d..
-
그리드월드와 큐러닝Keras 2017. 10. 31. 17:31
1. Monte-Carlo Prediction다이나믹 프로그래밍에서 강화학습으로 넘어가는 가장 기본적인 아이디어는 몬테카를로 예측입니다. 몬테카를로 예측은 기댓값을 샘플링을 통한 평균으로 대체하는 기법입니다. 몬테카를로 예측에서는 에피소드를 하나 진행하고 에피소드 동안 지나온 상태의 반환값을 구합니다. 이 반환값은 하나의 샘플이 되어서 각 상태의 가치함수를 업데이트합니다. 2. Temporal-Difference Control 시간차 예측에서는 몬테카를로 예측과는 달리 타임스템마다 큐함수를 업데이트합니다. 시간차 예측에서는 벨만 기대 방정식을 이용해 큐함수를 업데이트합니다. 3. SARSA 강화학습 제어에서 행동을 선택할 때 e-탐욕 정책을 사용하는데, 가치함수를 사용하면 환경의 모델을 알아야 하기 때문..