| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- livoxhorizon
- 로봇이지나간경로
- softeer
- 목적함수
- 라이다
- 비용함수
- vlp16
- 자료구조
- 경사하강법
- Python
- 손실함수
- 캘리브레이션
- livox
- 알고리즘
- ROS
- 시간복잡도
- pointcloud
- 딥러닝
- 넓이우선탐색
- 공간복잡도
- deque
- 카메라
- level3
- 코딩테스트세트
- Velodyne
- 깊이우선탐색
- rviz
- 자율주행
- 머신러닝
- 정렬알고리즘
Archives
- Today
- Total
목록dl (1)
공부와 취미 사이 그 어딘가
지난 글에서 손실함수에 대해 다루며 최적화(Optimization)에 대해 잠깐 언급했었다. 이번 글에서는 최적화 알고리즘 중 많이 사용되는 경사하강법(Gradient Descent)에 대해 알아보려한다. 1. 경사하강법(Gradient Descent) 이란? : 최적화(Optimization) 알고리즘 중 하나로, 함수의 기울기(경사)를 구하고 경사의 절댓값이 낮은 쪽으로 계속 이동시켜 극값에 이를 때까지 반복시켜 최적화하는 과정을 말한다. 반대 개념으로는 경사상승법(Gradient Ascent)이 있다. 많이 드는 예시로 산에서 하산하는 예시를 든다. 산에서 하산할 때, 가장 빠른 방법은 기울기가 급한 길로 내려오는 것이다. 우리는 보통 함수의 최소값을 찾을 때, 미분 계수를 이용하는 방법을 사용하지..
스터디/머신러닝 & 딥러닝
2023. 7. 20. 01:04