[딥러닝 논문리뷰] An overview of gradient descent optimization algorithms
·
Data Science/딥러닝 논문 리뷰
AbstractGradient Descent(경사하강법)은 널리 사용됨하지만 직관적인 설명이 부족해 블랙박스로 활용됨이 글은 다양한 Gradient Descent기법과 최적화 기법들을 소개함병렬·분산 학습 환경에서의 알고리즘 및 추가 학습 전략을 다룸상황에 맞는 옵티마이저를 선택할 수 있도록 도움1. Introduction신경망 최적화에 가장 많이 사용되고, 대부분의 딥러닝 라이브러리에서 제공하지만 블랙박스로 사용됨GD(경사하강법) 최적화를 위한 알고리즘을 소개하고 활용에 도움을 주는 것을 목표로 함Sector별 소개2장: 다양한 경사하강법 변형 기법 소개3장: 학습과정에서 발생하는 난제 요약4장: 가장 일반적인 최적화 알고리즘들 소개 및 학습과정에서 발생하는 난제 해결 방법5장: 병렬 및 분산 환경에서..
[핸즈온 머신러닝] 훈련 데이터의 중요성: 데이터 전처리, 특성 공학
·
Data Science/핸즈온 머신러닝
데이터의 양충분하지 않은 양의 훈련 데이터로 모델을 학습할 경우, 일반적으로 성능이 떨어진다.Example그 예시로 아주 복잡한 음성 인식 태스크의 경우를 보면 아래와 같다. Microsoft 연구자 Michele Banko와 Eric Brill은 2001년 한 논문에서 충분한 데이터가 주어지면 아주 간단한 모델을 포함한 머신러닝 알고리즘이 복잡한 자연어 중의성 해소 문제를 거의 비슷하게 잘 처리한다는 사실을 보여주었다.시간과 돈이 소요되는 알고리즘 개발과 말뭉치(copus) 개발 사이의 trade-off, 알고리즘 대비 데이터의 중요성을 시사한다.  데이터의 대표성 어떠한 태스크를 수행하기 위해 머신러닝 모델을 학습 할 때에는 그 태스크에 대한 데이터를 대표할 수 있는 데이터로 학습해야 한다.대표성이 ..
[핸즈온 머신러닝] 학습 방식에 따른 머신러닝: 지도 학습, 비지도 학습, 준지도 학습, 자기지도 학습, 강화 학습
·
Data Science/핸즈온 머신러닝
지도 학습 (Supervised learning)훈련 데이터에 Label을 포함하여 학습시키는 방식-> 정답을 같이 제공하여 모델이 학습 Example분류(Classification)회귀(Regression)비지도 학습 (Unsupervised learning)훈련 데이터에 Label을 포함하지 않고 학습하는 방식-> 알고리즘이 스스로 패턴 탐지 및 학습 Example군집화(Clustering)차원 축소(Dimensionality Reduction)이상치 탐지(Outlier Detection)준지도 학습 (Semi-supervised learning)학습 데이터에 label이 일부분만 있는 데이터로 학습하는 방식 ExampleGoogle photo: 가족 사진을 모두 올리고 사람마다 label을 하나만 ..
[딥러닝 논문 리뷰]Attention Is All You Need 논문 리뷰 (Transformer)
·
Data Science/딥러닝 논문 리뷰
Abstact 기존의 주요 시퀀스 변환 모델들은 복잡한 RNN(순환 신경망)이나 CNN(합성곱 신경망)을 기반으로 하며, 인코더와 디코더를 포함.기존의 가장 성능이 좋은 시퀀스 변환 모델들 또한 인코더와 디코더를 Attention 메커니즘을 통해 연결하는 구조.이 저자들은 RNN, CNN을 완전히 배제하고 Attention을 기반으로 한 Transformer모델을 제안.Transformer 모델은 더 좋은 품질, 더 좋은 병렬성, 더 짧은 학습시간을 자랑하며 SOTA (State Of The Art)모델에 등극. (WMT 2014 Englishto-German translation, WMT 2014 English-to-French translation)1. Introduction 기존 RNN계열 모델들의..
HaSeon9
'Data Science' 카테고리의 글 목록