목록은닉층 (3)
개발자가 될래요

https://www.edwith.org/deeplearningai1/lecture/34825/ [LECTURE] 왜 비선형 활성화 함수를 써야할까요? : edwith 학습목표 비선형 활성화 함수를 사용하는 이유를 알 수 있다. 핵심키워드 비선형 활성화 함수 - 커넥트재단 www.edwith.org - 선형 활성화 함수나 항등 활성화 함수를 쓴다면 신경망은 입력의 선형식만을 출력 - 층이 얼마나 많든 간에 신경망은 선형 활성화 함수만 계산하기 때문에 은닉층이 없는 것과 다름 없음 - 두 선형 함수의 조합은 하나의 선형 함수가 됨 - 선형 활성화 함수를 사용할 수 있는 건 대부분 출력층 선형 활성화 함수로 이루어진 노드와 레이어를 여러개 쌓더라도 하나의 레이어와 하나의 노드로 이루어진 신경망을 구성한 것과..

https://www.edwith.org/deeplearningai1/lecture/34821/ [LECTURE] 신경망 네트워크 출력의 계산 : edwith 학습목표 신경망의 출력값이 도출 되는 과정을 알 수 있다. 핵심키워드 층(Layer) 노드(node) - 커넥트재단 www.edwith.org - 로지스틱 회귀와 비슷하지만 여러 번 반복 - 신경망을 for문을 써서 구현하면 매우 비효율적 따라서 벡터화 해야 함 - 한 층에 노드가 여러 개이면 세로로 쌓음 - a^[0]는 입력 특성 벡터인 x의 가명이라 할 수 있음 - 신경망의 출력값을 계산하는 데엔 코드 네 줄만이 필요

https://www.edwith.org/deeplearningai1/lecture/34820/ [LECTURE] 신경망 네트워크의 구성 알아보기 : edwith 학습목표 신경망의 표현방법을 알 수 있다 핵심키워드 입력층 (input layer) 은닉층 (hidden layer) 출력층 (output layer) - 커넥트재단 www.edwith.org - 입력층, 은닉층, 출력층 - 은닉층의 실제값은 훈련 세트에 기록되어 있지 않음(입력값과 출력값만) - 은닉의 의미는 훈련 세트에서 볼 수 없다는 것 - a는 활성값을 의미하고 신경망의 층들이 다음 층으로 전달해주는 값을 의미 - 입력층은 X를 은닉층으로 전달 - a^[0]은 입력층의 활성값 - 은닉층은 활성값 a^[1]을 만듦(첫 번째 노드는 a_1^..