머신러닝에서 convex는 매끄럽다는 것.
linear regression 오차를 구하는 수식 1 / 1 + e^-wx 에서 왜 이것을 사용하느냐,
예측값과 실제값의 오차로 사용하면 non-convex 하다.
저 수식을 사용하면 convex 하게 gradient 계산이 되기 때문이다.
그러므로 저 수식을 사용한다.
sigmoid 라고 부르는 이유는 거기에 속해있는 것 중 하나이기 때문에 그렇게 부르기도 한다. 다른 종류도 있다.
0.5가 아닌 다른 수치로도 threshold 를 조절할 수도 있다.
728x90
반응형
'개발' 카테고리의 다른 글
Random Forest (0) | 2022.11.10 |
---|---|
Decision Tree (0) | 2022.11.09 |
모델 정리할 때 (0) | 2022.11.08 |
머신러닝 성능 개선 (0) | 2022.11.08 |
How minCost W? (0) | 2022.11.08 |