You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
-----실험 환경-----
wavelet filter = bior6.8
train시 residual은 LL에만 사용 (level1, level2 모두)
input channel 수만 바뀌고, 나머지 구조는 모두 기본 rcn 그대로
wavelet branch의 rcn_coef_4to1 및 rcn_lev2 폴더 안에 있는 코드 사용.
input channel 수 4, output channel 수 1, wavelet level 1.
나머지 LH, HL, HH가 거의 트레이닝 되지 않고, 성능에 끼치는 영향도 작음.
input channel 수는 legend에 쓰여 있는 숫자대로, output channel 수 1, wavelet level 2.
표시된 error는 모두 validation error.
LL2의 경우 LR과 HR이 매우 가깝다. (작은 error) H 정보가 L 정보를 돕고 있지만 아주 크지는 않다.
LH2 : 입력 채널에 LL2와 자기자신만 넣은 것 (12to2)가 가장 잘 나온다. 다른 H 채널(LH,HL,HH)들의 경우에도 마찬가지다. 다만 그 차이가 크지는 않다. LL2가 없더라도 어느정도는 예측된다(?)
HL2 : LH의 결과와 거의 같은 모양이다.
HH2 : LL2 없이는 아예 예측되지 않는다. 역시 입력 채널에 LL2와 자기자신만 넣은 것이 제일 좋다.
LH2와 HL2를 배울 때 HH2를 준 것과 안 준것의 비교. HH2 정보의 유무가 큰 차이를 주는 것 같지는 않다.
정리.
LL2는 {LL2,LH2,HL2,HH2} -> {LL2}
나머지는 {LL2, high} -> {high}, high = LH2, HL2, HH2
일 때 가장 잘 배운다(?).
@deruci 되는 대로 정리 해주셈~
The text was updated successfully, but these errors were encountered: