티스토리 뷰
이글은 순수하게 다크프로그래머 님의 기계학습 중
함수 최정확 기법정리 부분을 인용하여, 내용은 정리한 수준입니다.
http://darkpgmr.tistory.com/142
*residual 이 최소가 되는 일반적인 최소자승법
* parameter 에 linear 한 모델의 경우 아래와 같이 수식 유도 가능합니다. -> Ap
* 선형회귀(linear-regression) 경우 pseudo inverse 를 통해 특정해를 구할 수 있습니다.
*일반적인 해를 구하는 방식으로 아래 4가지 방식에 대해서 추가 설명 드리겠습니다.
1. Gradient Descent
2. Newton-raphson
3. Gauss-Newton
4. Levenberg_marquardt
'머신러닝 > 기초' 카테고리의 다른 글
[ 기본 ] Neural network - feed forward (0) | 2017.06.30 |
---|---|
[ 과제 2 ] Gauss-Newton Method (0) | 2017.06.24 |
함수 최적화 - Gradient Descent 에 대해서 (0) | 2017.06.18 |
[ 과제 1 ] Gradient Descent (0) | 2017.06.16 |
행렬 연산 (Matrix C) (0) | 2017.05.08 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- flask serving
- numpy
- implementation
- keras
- Residual Block
- tensorflow serving
- SvD
- dct
- gPRC
- 캡처방지
- 네이버웹툰
- backpropagation
- DWT-DCT
- DW
- Digital watermarking
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
글 보관함