본문 바로가기

분류 전체보기465

[실습] Initialization 초기화 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 1) 1주차 첫 번째 실습은 초기화(Initialization)입니다. 잘 선택된 초기화를 학습의 성능을 높일 수 있습니다. - Gradient Descent의 수렴 속도 상승 - Gradient Descent가 더 낮은 training error에 수렴하는 확률을 증가시킴 우선 이번 실습에서 분류해야될 planar dataset을 읽어봅시다. import numpy as np import matpl.. 2020. 9. 26.
[실습] Deep Neural Network for Image Classification(cat vs non-cat) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 첫 번째 강의 Neural Networks and Deep Learning을 듣고 정리한 내용입니다. (Week 4) 4주차 두 번째 실습은 이전 실습에서 구현한 NN의 step by step 함수들을 사용해서 첫 번째 실습에서 Logistic Regression으로 구현한 cat vs non-cat 분류기를 NN으로 구현해볼 것입니다. 1. Packages 사용되는 패키지는 다음과 같습니다. numpy is the fundamental package for scientific computing with Python. matplotlib is a library to plot graphs in Python.. 2020. 9. 26.
[실습] Building Deep Neural Network : Step by Step 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 첫 번째 강의 Neural Networks and Deep Learning를 듣고 정리한 내용입니다. (Week 4) 4주차 첫 번째 실습은 딥러닝을 순서대로 구현해보는 것입니다. 여기서 ouput layer를 제외한 layer에서 activation function을 ReLU함수를 사용하고, output layer에서만 sigmoid 함수를 사용할 것이고, 이번 실습에서는 2-layer와 L-layer를 위한 함수를 각각 구현할 것입니다. 시작하기에 앞서 표기법을 정리하겠습니다. - 위첨자 \([l]\)은 \(l^{th}\) layer를 의미합니다. \(a^{[L]}\)은 L번째 layer의 activ.. 2020. 9. 25.
[실습] Planar data classification with a hidden layer 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 첫 번째 강의 Neural Networks and Deep Learning를 듣고 정리한 내용입니다. (Week 3) 3주차에서는 Planar data 분류기를 구현하는데, 1개의 hidden layer를 가진 neural network를 구현할 것입니다. 이 실습을 통해서 다음의 내용을 확인할 수 있습니다. Implement a 2-class classification neural network with a single hidden layer Use units with a non-linear activation function, such as tanh Compute the cross entropy lo.. 2020. 9. 25.
[실습] Logistic Regression with a Neural Network(can / non-cat classifier) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 첫 번째 강의 Neural Networks and Deep Learning를 듣고 정리한 내용입니다. (Week 2) 딥러닝 특화과정 첫 번째 강의 2주차 실습을 진행하면서 복습해보려고 합니다. 목표는 Logistic Regression을 사용해서 고양이를 인식하는 분류기를 만드는 것입니다. 진행 순서는 다음과 같습니다. 1. 파라미터 초기화 2. Cost Function과 Gradient 계산 3. Gradient Descent를 통해서 최적화 우리는 이 3가지의 동작을 하는 함수를 각각 만들고, 마지막에 위 함수들을 main model에서 사용할 것입니다. 1. Packages 이 분류기에서 사용되는.. 2020. 9. 24.
Practical aspects of Deep Learning 2 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 1) 이어서 optimization problem을 설정하는 것에 대해서 알아보자. - Setting up your optimization problem [Normalizing inputs] 학습속도를 높일 수 있는 방법 중 하나가 입력을 표준화(Normalization)하는 것이다. 두 개의 input이 있는 경우를 살펴보도록하자. 입력을 normalization 하는 방법은 다음과 같이 두 단계로.. 2020. 9. 23.
Practical aspects of Deep Learning 1 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 두 번째 강의 Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization를 듣고 정리한 내용입니다. (Week 1) 두 번째 강의에서는 어떻게 Neural Network(NN)이 잘 동작하게 할 수 있는 방법에 대해서 알아볼 것이다. Hyper Parameter 튜닝과 Data 세팅까지 다루면서, 학습 알고리즘이 적절한 시간내에 학습이 될 수 있도록 해보자. 1주차에서는 NN을 만드는 것과 Regularization(정규화), 그리고 몇 가지 방법으로 NN이 제대로 구현되었는지 확인하는 방법에 대해서 알아볼 .. 2020. 9. 23.
투 포인터(Two Pointer), 슬라이딩 윈도우(Sliding Window) 이번 게시글에서 정리할 기법은 투포인터와 슬라이딩 윈도우 입니다. 두 기법은 유사해서 하나로 묶었는데, 우선 투 포인터를 살펴보겠습니다. 투포인터는 1차원 배열에서 배열 원소를 가리키는 두 개의 포인터를 조절해가면서 원하는 답을 찾는 기법입니다. 문제를 보면서 살펴보겠습니다. www.acmicpc.net/problem/2003 2003번: 수들의 합 2 첫째 줄에 N(1≤N≤10,000), M(1≤M≤300,000,000)이 주어진다. 다음 줄에는 A[1], A[2], …, A[N]이 공백으로 분리되어 주어진다. 각각의 A[x]는 30,000을 넘지 않는 자연수이다. www.acmicpc.net 2003번 문제는 N개의 수로 이루어진 배열이 있을 때, 연속된 부분 수열의 합이 M을 만족하는 경우의 수를 .. 2020. 9. 20.
Deep Neural Network(DNN) 해당 내용은 Coursera의 딥러닝 특화과정(Deep Learning Specialization)의 첫 번째 강의 Neural Networks and Deep Learning를 듣고 정리한 내용입니다. (Week 4) - Deep L-layer neural network Deep Learning, Deep Neural Network(DNN)을 알아보기 위해서 위의 사진을 살펴보자. 왼쪽 위는 Logistic Regression이고 오른쪽 위는 1개의 Hidden Layer로 이루어진 NN이다. 이러한 모델을 'Shallow'한 모델이라고 표현한다. 반면에 오른쪽 아래와 같이 5개의 Hidden Layer로 이루어진 NN을 'Deep'한 모델이라고 표현한다. 차이는 Hidden Layer의 차이밖에 없다.. 2020. 9. 20.
[Coursera] Andrew Ng - Machine Learning 강의 요약 및 정리 Coursera에 있는 Andrew Ng 교수님의 Machine Learning 강의를 요약/정리한 것을 주차별로 모아두었습니다.11주차는 따로 정리는 하지 않았고, 1 ~ 10주차까지의 강의 내용을 정리하였습니다. Week 1:2020/08/02 - [Coursera 강의/Machine Learning] - [Machine Learning] Intro / 머신러닝이란 ?2020/08/02 - [Coursera 강의/Machine Learning] - [Machine Learning] Supervised Learning/Unsupervised Learning2020/08/04 - [Coursera 강의/Machine Learning] - [Machine Learning] Model and Cost Fun.. 2020. 9. 16.