목록edwith (38)
개발자가 될래요

https://www.edwith.org/deeplearningai1/lecture/34827/ [LECTURE] 신경망 네트워크와 경사 하강법 : edwith 학습목표 경사 하강법 구현 방법을 알 수 있다. 핵심키워드 경사 하강법 - 커넥트재단 www.edwith.org - 정방향 전파에는 네 개의 식, 역전파에는 여섯 개의 식

https://www.edwith.org/deeplearningai1/lecture/34826/ [LECTURE] 활성화 함수의 미분 : edwith 학습목표 활성화 함수를 미분할 수 있다. 핵심키워드 미분(Derivatives) - 커넥트재단 www.edwith.org - 신경망의 역방향 전파를 구현하려면 활성화 함수의 도함수를 구해야 함

https://www.edwith.org/deeplearningai1/lecture/34825/ [LECTURE] 왜 비선형 활성화 함수를 써야할까요? : edwith 학습목표 비선형 활성화 함수를 사용하는 이유를 알 수 있다. 핵심키워드 비선형 활성화 함수 - 커넥트재단 www.edwith.org - 선형 활성화 함수나 항등 활성화 함수를 쓴다면 신경망은 입력의 선형식만을 출력 - 층이 얼마나 많든 간에 신경망은 선형 활성화 함수만 계산하기 때문에 은닉층이 없는 것과 다름 없음 - 두 선형 함수의 조합은 하나의 선형 함수가 됨 - 선형 활성화 함수를 사용할 수 있는 건 대부분 출력층 선형 활성화 함수로 이루어진 노드와 레이어를 여러개 쌓더라도 하나의 레이어와 하나의 노드로 이루어진 신경망을 구성한 것과..

https://www.edwith.org/deeplearningai1/lecture/34824/ [LECTURE] 활성화 함수 : edwith 학습목표 활성화 함수의 종류에 대해 알 수 있다. 핵심키워드 활성화 함수(Activation Function) Sigmoid Tanh ReLU leakyReLU - 커넥트재단 www.edwith.org - 은닉층과 출력층에서 어떤 활성화 함수를 쓸지 선택 - sigmoid - tanh : 쌍곡 탄젠트 함수, sigmoid 함수와 비슷하지만 원점을 지나고 비율이 달라짐 - 은닉 유닛에 대해 g(z^[1])을 tanh(z)로 놓는다면 거의 항상 sigmoid 함수보다 좋음(값이 +1과 -1 사이이기 때문에 평균값이 0에 더 가깝기 때문)(출력층은 예외) - sigmo..

https://www.edwith.org/deeplearningai1/lecture/34823/ [LECTURE] 벡터화 구현에 대한 설명 : edwith 학습목표 신경망에서 다중 샘플에 대한 벡터화를 설명한다. 핵심키워드 벡터화(Vectorization) - 커넥트재단 www.edwith.org - 훈련 샘플을 행렬 X에 가로(열)로 쌓아서 신경망의 정방향 전파를 벡터화 - X = A^[0] (입력 특성 벡터 x는 a^[0]와 같았기 때문) - 따라서 x^(i) = a^[0](i)

https://www.edwith.org/deeplearningai1/lecture/34822/ [LECTURE] 많은 샘플에 대한 벡터화 : edwith 학습목표 신경망에서 다중 샘플에 대한 벡터화를 배울 수 있다. 핵심키워드 벡터화(Vectorization) - 커넥트재단 www.edwith.org - 입력 특성 벡터인 x가 주어졌을 때 한 훈련 샘플에 대해 y^인 a^[2]를 계산해줌 - 모든 훈련 샘플의 예측값을 벡터화되지 않은 방법으로 계산한다면 for문 사용 - for문을 없애기 위해 벡터화 - X는 훈련 샘플을 열로 쌓은 행렬 - 벡터였던 소문자 x를 열로 쌓아 행렬인 대문자 X를 얻음 - 열 벡터인 z^[1](1), z^[1](2)부터 z^[1](m)까지 전체 m개를 열로(가로로) 쌓아 행..

https://www.edwith.org/deeplearningai1/lecture/34821/ [LECTURE] 신경망 네트워크 출력의 계산 : edwith 학습목표 신경망의 출력값이 도출 되는 과정을 알 수 있다. 핵심키워드 층(Layer) 노드(node) - 커넥트재단 www.edwith.org - 로지스틱 회귀와 비슷하지만 여러 번 반복 - 신경망을 for문을 써서 구현하면 매우 비효율적 따라서 벡터화 해야 함 - 한 층에 노드가 여러 개이면 세로로 쌓음 - a^[0]는 입력 특성 벡터인 x의 가명이라 할 수 있음 - 신경망의 출력값을 계산하는 데엔 코드 네 줄만이 필요

https://www.edwith.org/deeplearningai1/lecture/34820/ [LECTURE] 신경망 네트워크의 구성 알아보기 : edwith 학습목표 신경망의 표현방법을 알 수 있다 핵심키워드 입력층 (input layer) 은닉층 (hidden layer) 출력층 (output layer) - 커넥트재단 www.edwith.org - 입력층, 은닉층, 출력층 - 은닉층의 실제값은 훈련 세트에 기록되어 있지 않음(입력값과 출력값만) - 은닉의 의미는 훈련 세트에서 볼 수 없다는 것 - a는 활성값을 의미하고 신경망의 층들이 다음 층으로 전달해주는 값을 의미 - 입력층은 X를 은닉층으로 전달 - a^[0]은 입력층의 활성값 - 은닉층은 활성값 a^[1]을 만듦(첫 번째 노드는 a_1^..