확률적 경사 하강법(SGD)이란? 배치 학습 (Batch learning) vs 점진적 학습 (Incremental learning)
·
Data Science/ML & DL
배치 학습 (Batch learning) 한 번에 모든 훈련 데이터를 학습시키는 방법새로운 데이터를 추가해 재학습 시키려면, 시간과 자원을 많이 소모일반적으로 오프라인 환경에서 수행되므로, 오프라인 학습(Offline leanring)이라고 부름  점진적 학습 (Incremental learning) 일반적으로 학습이 끝난 모델에 대해, 미니배치(Mini-batch) 라 부르는 작은 묶음 단위의 데이터를 주입하여 학습매 학습 단계가 빠르고 비용이 적게 들어, 시스템은 데이터가 도착하는대로 즉시 학습 가능연속적으로 데이터를 받고 빠른 변화에 스스로 적응해야 하는 시스템에 적합. ex)주가 예측자원이 한정된 환경에 적합이미 학습된 데이터는 필요하지 않아, 저장공간 절약 가능일반적으로 온라인 환경에 수행되므로..
[혼공머] Chapter 03-2. 선형 회귀
·
Data Science/혼자 공부하는 머신러닝
K-Neighbors Regressor을 이용해 학습시킨 모델에 문제가 발생했다!데이터셋 perch_length = np.array([8.4, 13.7, 15.0, 16.2, 17.4, 18.0, 18.7, 19.0, 19.6, 20.0, 21.0, 21.0, 21.0, 21.3, 22.0, 22.0, 22.0, 22.0, 22.0, 22.5, 22.5, 22.7, 23.0, 23.5, 24.0, 24.0, 24.6, 25.0, 25.6, 26.5, 27.3, 27.5, 27.5, 27.5, 28.0, 28.7, 30.0, 32.8, 34.5, 35.0, 36.5, 36.0, 37.0, 37.0, 39.0, 39.0, 39.0, 40.0, 40.0, 40.0, ..
[혼공머] Chapter 03-01. 회귀 알고리즘과 모델 규제
·
Data Science/혼자 공부하는 머신러닝
K-최근접 이웃 회귀 (K-Neighbors Regression)K-최근접 이웃 분류와 같이 예측하려는 샘플에 가장 가까운 샘플 K개를 선택선택한 샘플들의 값의 평균을 구함데이터 준비 import numpy as npperch_length = np.array([8.4, 13.7, 15.0, 16.2, 17.4, 18.0, 18.7, 19.0, 19.6, 20.0, 21.0, 21.0, 21.0, 21.3, 22.0, 22.0, 22.0, 22.0, 22.0, 22.5, 22.5, 22.7, 23.0, 23.5, 24.0, 24.0, 24.6, 25.0, 25.6, 26.5, 27.3, 27.5, 27.5, 27.5, 28.0, 28.7, 30.0, 32.8, 34.5, 3..
[NLP] 토큰화 및 형태소 분석, Mecab 윈도우에서 사용하기(사용자 사전 추가, 우선순위 변경)
·
Data Science/NLP
토큰화란? 형태소 분석이란? 자연어처리 과정 중에는 토큰화(Tokenize) 과정이 있다.한국어 토큰화를 진행할 때에는 형태소(morpheme)란 기준으로 토큰화 하기 때문에 '형태소 분석'이라고도 불린다. 한국어 토크나이저 및 형태소 분석기는 Mecab, Okt, Komoran, Kkma, Hannanum 등 여러가지가 있다.그 중 오늘은 Mecab을 사용해서 토큰화 및 형태소분석을 해보려고 한다. Mecab Mecab은 원래 일본어 형태소 분석기로 개발되었다. 일본어와 문법 체계가 비슷한 한국어를 위해 '은전한닢'이라는 한국어로 포팅하는 프로젝트를 통해 한국어 자연어 처리에 크게 기여한 형태소 분석기라고 한다. 위에서 말한 여러 형태소 분석기들이 있지만, 일반적으로 그 중 가장 뛰어난 성능을 보인다고..
HaSeon9
'분류 전체보기' 카테고리의 글 목록 (5 Page)