일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- restnet
- tensorboard
- 치환 기능
- Rust설치
- #python gpu
- #enviroment variable
- 포트번호 변경
- Ubuntu 설치
- 학습성공
- Lagrange Multiplier
- Ubuntu동글
- twolay
- stepsize
- 3D convolution
- VGGNet
- 화면확대고정
- canon mf416dw
- 전체내용
- #cuda
- #cudnn
- log파일
- ubuntu 원격
- Hidden layer output
- weight histogram
- Git branch 보이기
- 리눅스 비밀번호
- 듀얼부트
- #ubuntu 14.04(LTS)
- Xpad설치
- DenseNet
Archives
- Today
- Total
save the world
3주차 본문
<2018.01.30. 화>
l5 layer output
네트워크의 마지막 layer인 l5의 출력이 어떻게 되는지 보기위해서 변수 l5를 numpy.ndarray로 나타내기 위해서 아래의 코드로 수정
_, layerOutput = sess.run([train_op, l5], feed_dict={learning_rate: stepSize, p_keep_conv: 0.8, p_keep_hidden: 0.5})
sess.run() 안에서 train_op를 수행하면서 중간에 거쳐가는 l5 ouput도 numpy.array로 볼 수 있도록 한다. (처음엔 이렇게 하면 "train_op" 와 "l5"가 독립적으로 sess.run()이 되는 줄 알았는데 그렇지 않고 한 번의 sess.run() 안에서 나오는 것 임을 알게되었다. 독립적으로 sess.run()이 되게 하려면 sess.run(train_op) 와 sess.run(l5)로 이렇게 따로 적어주면 독립적인 sess.run()이 실행 됨.)