Feature Scaling
데이터 변환 중 가장 중요한 변환 중 하나/ 대부분의 머신러닝 알고리즘은 입력 숫자 특성들의 스케일이 많이 다르면 잘 작동하지 않음(Decision Tree 예외)
정규화(Normalization)
- 모든 값이 0 ~ 1 사이에 들도록 범위를 조정(feature_range로 조정 가능)
- sklearn.preprocessing.MinMaxScaler
표준화(Standardization)
- 평균을 뺀 후 표준편차로 나누어 평균 0, 분산 1이 되는 분포로 전환
- 각 특성값이 0에서 표준 편차의 몇 배만큼 떨어져 있는가
- Min-max 스케일링과 달리 표준화는 범위의 상한과 하한이 없음
- 신경망의 경우 입력값의 범위를 0~1로 기대함
- 표준화는 이상치에 영향을 덜 받음(vs.min-max 스케일링)
- sklearn.preprocessing.StandardScaler
※ 타겟 스케일링은 필요하지 않음
학습률의 변화 VS 최솟값 확인
'머신러닝 및 딥러닝 > 머신러닝' 카테고리의 다른 글
머신러닝 모델 최적화 - 과적합 (0) | 2023.02.08 |
---|---|
다항회귀이론( + 사이킷런 transformer) (0) | 2023.02.08 |
경사하강법 이론 (0) | 2023.02.08 |
다중선형회귀 이론 (0) | 2023.02.07 |
선형회귀 이론 (1) | 2023.02.07 |