목록분류 전체보기 (40)
개발자가 될래요

https://www.edwith.org/deeplearningai2/lecture/34863/ [LECTURE] 하이퍼파라미터 튜닝 실전 : edwith 학습목표 하이퍼파라미터 튜닝 방법을 배운다. 핵심키워드 하이퍼파라미터(hyperparameter) - 커넥트재단 www.edwith.org - 한 어플리케이션에서 얻은 하이퍼파라미터에 대한 직관이 다른 영역에서 쓰일 수도, 아닐 수도 있다. - 서로 다른 어플리케이션 영역 간에 공유되는 것들이 있다, - 예를 들면 컴퓨터 비전 커뮤니티에서 발전된 컨브넷이나 레스넷 -> 음성에 적용 -> 그리고 이 음성에서 발전된 아이디어들이 자연어 처리에서도 잘 적용되고 있다. - 로지스틱 문제 하나만 보더라도 좋은 하이퍼파라미터를 찾았다고 할 때 알고리즘을 계속 발..

https://www.edwith.org/deeplearningai2/lecture/34862/ [LECTURE] 적절한 척도 선택하기 : edwith 학습목표 하이퍼파라미터 선택에 적절한 척도를 정하는 방법을 배운다. 핵심키워드 하이퍼파라미터(hyperparameter) 학습률(learning rate) - 커넥트재단 www.edwith.org - 무작위로 하이퍼파라미터를 찾는 것이 더 효율적인 탐색이다. - 하지만 여기서 무작위라는 것이 가능한 값들 중 공편하기 뽑는 것이라고 할 수는 없다. - 대신 적절한 척도를 정하는 것이 중요하다. - 어떤 레이어 l에 대하여 은닉 유닛의 수 n^l을 정한다고 하자. - 그리고 값의 범위로 50부터 100을 생각해보자. - 이런 경우 50부터 100까지의 수직선..

https://www.edwith.org/deeplearningai2/lecture/34861/ [LECTURE] 튜닝 프로세스 : edwith 학습목표 하이퍼파라미터의 튜닝 과정을 배운다. 핵심키워드 하이퍼파라미터(hyperparameter) 튜닝(tuning) 학습률(learning rate) - 커넥트재단 www.edwith.org - 신경망을 학습시킬 때는 여러 하이퍼파라미터들이 관여한다. - 심층신경망을 학습시킬 떄 가장 어려운 일은 다뤄야 할 하이퍼파라미터가 많다는 것이다. - 딥러닝에는 다양한 하이퍼파라미터가 존재한다. 상황에 따라 다를 수도 있지만, 보통 우선 조정하는 순서로 나열. 학습률 α(alpha) : 튜닝해야 할 가장 중요한 하이퍼파라미터 모멘텀(Momentum) 알고리즘의 β(b..

https://www.edwith.org/deeplearningai2/lecture/34841/ [LECTURE] 정규화 : edwith 학습목표 정규화를 이용해 과대적합 문제를 해결할 수 있다. 핵심키워드 정규화 (regularization) 정규화 매개변수 \lambda L1 노름 (L1 norm) L2 노름 (... - 커넥트재단 www.edwith.org - 높은 분산으로 신경망이 데이터를 과대적합하는 문제가 의심된다면 가장 처음으로 시도해야 할 것은 정규화이다. - 높은 분산을 해결하는 다른 방법은 더 많은 훈련 데이터를 얻는 것이다. - 꽤 믿을만한 방법이지만 더 많은 훈련 데이터를 얻는 것은 비용이 많이 들어간다. - 그러나 정규화를 추가하는 것은 과대적합을 막고 신경망의 분산을 줄이는데 도..

https://www.edwith.org/deeplearningai2/lecture/34840/ [LECTURE] 머신러닝을 위한 기본 레시피 : edwith 학습목표 머신러닝에서의 “기본 레시피” 의 사용법을 배운다 핵심키워드 편향(Bias) 분산(Variance) - 커넥트재단 www.edwith.org - 이전 비디오에서 훈련 오차와 개발 오차가 알고리즘 편향 혹은 분산 문제, 혹은 둘 다를 가지는지 진단하는데 어떻게 도움이 되는지 살펴보았다. - 이 정보는 자신만의 머신러닝 레시피를 훨씬 더 체계적으로 사용할 수 있도록 한다. - 알고리즘의 성능을 훨씬 더 체계적으로 개선하도록 도와준다. - 최초의 모델을 훈련하고 난 뒤 처음으로 질문하는 것은 알고리즘이 높은 편향을 가지는지, 높은 편향을 평가하..

https://www.edwith.org/deeplearningai2/lecture/34839/ [LECTURE] 편향/분산 : edwith 학습목표 편향-분산 트레이드오프에 대해 배웁니다. 핵심키워드 편향(Bias) 분산(Variance) 편향-분산 트레이드오프(Bias-Variance trade-off) - 커넥트재단 www.edwith.org - 딥러닝 시대의 또 다른 트렌드로는 편향-분산 트레이드오프에 관한 더 적은 논의이다. - 딥러닝 시대에 여전히 편향과 분산에 관한 이야기는 하지만 편향-분산 트레이드오프에 관한 이야기는 더 적어졌다. - 이런 데이터가 있다고 했을 때 데이터에 맞는 직선을 넣는다. 1) - 로지스틱 회귀라고 했을 때 데이터에 잘 맞는 형대는 아니다. - 높은 편향의 클래스이므..

https://www.edwith.org/deeplearningai2/lecture/34838/ [LECTURE] Train/Dev/Test 세트 : edwith 학습목표 훈련, 개발, 테스트 세트를 설정할 수 있다. 핵심키워드 훈련 세트 (train set) 개발 세트 (dev set) 테스트 세트 (test set) - 커넥트재단 www.edwith.org - 데이터 설정을 위한 하이퍼 파라미터 튜닝부터 최적화 알고리즘의 속도를 높여 적당한 시간 안에 학습 알고리즘이 학습할 수 있도록 하는 방법까지 배워볼 것 - 머신러닝 문제를 어떻게 해결하는지 (정규화에 대해 다루고 신경망 구현이 맞게 되었는지 확인) - 훈련, 개발, 테스트 세트를 어떻게 설정할지에 관한 좋은 선택을 내리는 것은 좋은 성능을 내는..

https://www.edwith.org/deeplearningai1/lecture/34833/ [LECTURE] 행력의 차원을 알맞게 만들기 : edwith 학습목표 행렬의 차원을 확인하는 방법을 터득한다. 핵심키워드 행렬(Matrix) 차원(Dimensions) - 커넥트재단 www.edwith.org - 벡터화된 구현에서도 w, b, dw, db의 차원은 같음 그러나 z, a, x의 차원은 달라짐 - 심층 신경망의 역전파를 구할 때 코드를 쭉 보면서 모든 행렬의 차원이 일치하는지 잘 확인