본문 바로가기

분류 전체보기465

Seaborn tutorial (1-1) : relplot() - scatter plot * v0.11.0 기준으로 작성되었습니다. Seaborn seaborn은 data visualization(데이터 시각화)을 위한 파이썬 라이브러리입니다. seaborn은 matplotlib이라는 파이썬 시각화 라이브러리를 기반으로 구성되어 있으며, 쉽고 편리하게 그래프를 그리도록 high-level의 인터페이스를 제공하고 있습니다. 예를 들면, 아래와 같이 그래프를 그릴 수 있죠. # Import seaborn import seaborn as sns # Apply the default theme sns.set_theme() # Load an example dataset tips = sns.load_dataset("tips") # Create a visualization sns.relplot( data=.. 2020. 11. 4.
ML Strategy 2-2 (Transfer learning, Multi-task learning, End-to-end learning) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 세 번째 강의 Structuring Machine Learning Projects를 듣고 정리한 내용입니다. (Week 2) - Learning from multiple tasks [Transfer learning] 딥러닝의 강력함은 한 가지 Task에서 학습한 내용은 다른 Task에 적용을 할 수 있다는 것이다. 예를 들어서, Neural Network(NN)이 고양이와 같은 사진을 인식하도록 학습했을 때, 여기서 학습한 것을 가지고 부분적으로 X-ray 이미지를 인식하는데 도움이 되도록 할 수 있다. 이것이 바로 Transfer Learning이라고 한다. 이미지 인식 기능을 NN으로 학습을 했다고 .. 2020. 10. 30.
ML Strategy 2-1 (Error Analysis, Data mismatched) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 세 번째 강의 Structuring Machine Learning Projects를 듣고 정리한 내용입니다. (Week 2) - Error Analysis [Carrying out error analysis] 학습 알고리즘을 개발하면서 아직 학습 알고리즘이 인간레벨 수준의 성능에 미치지 못한다면, 수작업으로 알고리즘의 error들을 점검하는 것이 도움이 될 수 있다. 이런 프로세스를 Error Analysis라고 한다. 고양이 판별기를 예제로 살펴보도록 하자. 고양이를 분류하기 위한 학습 알고리즘을 개발하고 있고, 그 결과 90%의 정확도에 도달했다고 가정한다면, dev set에서 10%의 error를 .. 2020. 10. 28.
ML Strategy 1(orthogonalization, evaluation metric, human-level performance) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 세 번째 강의 Structuring Machine Learning Projects를 듣고 정리한 내용입니다. (Week 1) 이번 강의의 목표는 다음과 같다. Explain why Machine Learning strategy is important Apply satisficing and optimizing metrics to set up your goal for ML projects Choose a correct train/dev/test split of your dataset Define human-level performance Use human-level performance to define k.. 2020. 10. 25.
Multi-class classification(Softmax regression) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 3) - Multi-class classification [Softmax Regression] Softmax Regression이란 Logistic Regression의 일반화된 버전으로, 이진분류가 아닌 클래스가 여러개인 경우에 예측이 가능할 수 있도록 하는 모델이다. 고양이만 인식하는 것이 아니라, 강아지, 그리고 병아리를 인식하고 싶을 때 사용이 가능할 것이다. 고양이를 class 1, 강아지를.. 2020. 10. 11.
Hyperparameter tuning / Batch Normalization 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 3) - Hyperparameter tuning [Tuning process] 이전 강의에서 NN을 적용하는데 다양한 Hyperparameter를 세팅하는 것을 알아보았고, 이번 강의에서는 최적의 Hyperparameter를 찾는 방법에 대해서 알아보도록 하겠다. Hyperparameter는 위와 같이 다양하게 있으며, 각 Hyperparameter의 중요성은 다르다고 할 수 있다. 예를 들어, Ad.. 2020. 10. 10.
[실습] Optimization Methods(Mini-batch, Momentum, Adam Algorithm) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 2) 2주차는 학습 알고리즘을 더 빠르게 학습시킬 수 있는 최적화 알고리즘에 대해서 실습을 진행할 예정입니다. 좋은 최적화 알고리즘은 좋은 결과를 얻기 위해서 몇 일이 걸리는 작업을 몇 시간으로 줄일 정도로 유용한 알고리즘입니다. 우선 이번 실습에 사용되는 패키지입니다. import numpy as np import matplotlib.pyplot as plt import scipy.io import.. 2020. 10. 2.
Optimization(최적화 알고리즘) : Mini-batch/Momentum/RMSprop/Adam 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 2) 이번 주 학습내용은 다음과 같다. 1. Stochastic Gradient Descent(Mini-batch GD), Momentum, RMSProp, Adam과 같은 다양한 최적화 알고리즘에 대해서 알아본다. 2. Random Mini-batch는 더 빠르게 수렴하도록 하고, 최적화를 향상시킨다. 3. Learning Rate를 감소시키면서 학습하는 것에 대해서 알아본다. - Optimizat.. 2020. 10. 2.
[실습] Gradient Checking 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 1) 1주차 마지막 실습은 Gradient Checking 입니다. 사용되는 패키지는 다음과 같습니다. # Packages import numpy as np from testCases import * from gc_utils import sigmoid, relu, dictionary_to_vector, vector_to_dictionary, gradients_to_vector Gradient Chec.. 2020. 9. 26.
[실습] Regularization(L2 Regularization, Dropout) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 1)1주차 두 번째 실습은 Regularization 입니다.딥러닝 모델은 매우 높은 flexibility와 capacity를 가지고 있어서, dataset이 충분히 크기 않다면 overfitting하는 심각한 문제를 일으킬 수 있습니다. overfitting은 training set에는 잘 맞지만, 새로운 sample에 대해서는 일반화되지 않는 문제를 일으킵니다. 이번 실습에서 regularizat.. 2020. 9. 26.