목적 함수(Objective Function) vs 비용 함수(Cost Function) vs 손실 함수(Loss Function)
·
Data Science/ML & DL
목적 함수 (Objective Function) 가장 큰 범위의 개념, 모델이 최적화하고자 하는 함수머신러닝 모델의 목표는 목적함수를 최소화 or 최대화 하는 것일반적으로 손실 함수(Loss Function)이나 비용 함수(Cost Function)을 포함Example)선형 회귀에서 잔차 제곱합(SSE: Sum of Squared Errors)을 최소화 하는 것분류 문제에서 로그 손실(Log Loss)을 최소화 하는 것 비용 함수 (Cost Function) 전체 데이터셋에 대해 모델의 성능을 평가하는 함수모델이 전체 데이터셋에 대해 얼마나 잘 수행하는지를 측정일반적으로 여러 손실 함수(Loss Function)의 평균 또는 합모델 학습 과정에서 최소화 하려는 대상Example)평균 제곱 오차 (MSE:..
확률적 경사 하강법(SGD)이란? 배치 학습 (Batch learning) vs 점진적 학습 (Incremental learning)
·
Data Science/ML & DL
배치 학습 (Batch learning) 한 번에 모든 훈련 데이터를 학습시키는 방법새로운 데이터를 추가해 재학습 시키려면, 시간과 자원을 많이 소모일반적으로 오프라인 환경에서 수행되므로, 오프라인 학습(Offline leanring)이라고 부름  점진적 학습 (Incremental learning) 일반적으로 학습이 끝난 모델에 대해, 미니배치(Mini-batch) 라 부르는 작은 묶음 단위의 데이터를 주입하여 학습매 학습 단계가 빠르고 비용이 적게 들어, 시스템은 데이터가 도착하는대로 즉시 학습 가능연속적으로 데이터를 받고 빠른 변화에 스스로 적응해야 하는 시스템에 적합. ex)주가 예측자원이 한정된 환경에 적합이미 학습된 데이터는 필요하지 않아, 저장공간 절약 가능일반적으로 온라인 환경에 수행되므로..
HaSeon9
'Data Science/ML & DL' 카테고리의 글 목록 (3 Page)