일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 3D convolution
- log파일
- Ubuntu동글
- 리눅스 비밀번호
- 학습성공
- tensorboard
- #enviroment variable
- #cuda
- stepsize
- Rust설치
- Hidden layer output
- Git branch 보이기
- VGGNet
- 전체내용
- 듀얼부트
- Xpad설치
- ubuntu 원격
- #cudnn
- 치환 기능
- 화면확대고정
- Ubuntu 설치
- restnet
- twolay
- #ubuntu 14.04(LTS)
- weight histogram
- DenseNet
- 포트번호 변경
- #python gpu
- canon mf416dw
- Lagrange Multiplier
Archives
- Today
- Total
save the world
3주차 본문
<2018.01.30. 화>
l5 layer output
네트워크의 마지막 layer인 l5의 출력이 어떻게 되는지 보기위해서 변수 l5를 numpy.ndarray로 나타내기 위해서 아래의 코드로 수정
_, layerOutput = sess.run([train_op, l5], feed_dict={learning_rate: stepSize, p_keep_conv: 0.8, p_keep_hidden: 0.5})
sess.run() 안에서 train_op를 수행하면서 중간에 거쳐가는 l5 ouput도 numpy.array로 볼 수 있도록 한다. (처음엔 이렇게 하면 "train_op" 와 "l5"가 독립적으로 sess.run()이 되는 줄 알았는데 그렇지 않고 한 번의 sess.run() 안에서 나오는 것 임을 알게되었다. 독립적으로 sess.run()이 되게 하려면 sess.run(train_op) 와 sess.run(l5)로 이렇게 따로 적어주면 독립적인 sess.run()이 실행 됨.)