분류 전체보기157 [Deep Learning] 08 계산 그래프로 미분하기 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/nJyUyKN-XBQ?feature=shared 지난 동영상의 예제에서는 계산 그래프를 사용해 함수 $\mathcal{J}$를 계산해 보았습니다. 그 그래프를 다시 정리해서 그려 놓았는데, 어떻게 이를 이용해 함수 $\mathcal{J}$의 도함수를 계산하는지 알아봅시다. 계산 그래프입니다. $v$에 대한 $\mathcal{J}$의 도함수를 구해 봅시다. 무슨 뜻일까요? $v$의 값을 아주 조금 바꾸면 $\mathcal{J}$의 값이 어떻게 바뀌는지 묻는 것이죠. $\mathcal{J}=3v$라고 정의되어 있습니다. $v$는 11입니다. 따라서 11을 조금 증가시켜 11.001로 만들면, $\mathcal{J}=3v$이고 현재 33이므로 33.003으로 증가됩니다. $v$.. 2025. 8. 5. [Deep Learning] 07 계산 그래프 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/hCP1vGoCdYU?feature=shared 전에 신경망의 계산은 이렇게 나눌 수 있다고 했었습니다. 정방향 패스, 정방향 전파는 신경망의 출력값을 계산하고, 이는 역방향 패스, 역방향 전파로 이어져 경사나 도함수를 계산합니다. 계산 그래프를 보면 왜 이렇게 나누는지 알 수 있는데, 이번 동영상에서는 그 예제를 살펴보도록 하겠습니다. 계산 그래프에 대해 설명하기 위해 로지스틱 회귀나 완성된 신경망보다 더 쉬운 것을 예로 들어 봅시다. 함수 $\mathcal{J}$를 계산한다고 해 보죠. 이 함수는 변수 세 개 $a$, $b$, $c$를 가지고 있습니다. 이 함수는 $3(a + bc)$입니다. $\mathcal{J}=3(a+bc)$ 이 함수를 계산하는 데에는 서로 다른 세.. 2025. 8. 5. [Deep Learning] 06 더 많은 미분 예제 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/5H7M5Vd3-pk?feature=shared 이번 동영상에서는 조금 더 복잡한 예로 함수의 다른 부분이 다른 기울기를 가지는 경우를 살펴봅시다. $f(a) = a^2$의 그래프입니다. 여기에서도 $a = 2$인 경우를 살펴봅시다. 그러면 $a^2$, $f(a)$는 4입니다. $a$를 오른쪽으로 밀어서 $a$가 2.001이 되도록 하면 $f(a)$는 $a^2$이니까 약 4.004입니다. 사실 계산기로 계산해 보면 4.004001이지만, 4.004도 충분히 가까우니까 이렇게 하겠습니다. $a$가 2일 때 $f(a)$는 4이고, $x$와 $y$축의 비율은 신경 쓰지 않겠습니다. 실제로는 세로 높이가 가로 길이보다 훨씬 길어야 합니다. 이제 $a$를 2.001까지 밀면 $f(.. 2025. 7. 31. [Deep Learning] 05 미분 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/GzphoJOVEcE?feature=shared 이 동영상에서는 미적분과 도함수에 대한 직관을 얻을 수 있도록 해 보겠습니다. 대학교 때 이후로 미적분을 본 적이 없다면, 언제 졸업했는지에 따라 꽤 오래전이었을 수도 있겠지만 그래도 걱정할 필요는 없습니다. 미적분에 대한 깊은 이해 없이도 딥러닝과 신경망을 효율적으로 만들 수 있습니다. 이 동영상이나 이후 동영상에서 나오는 미적분이 복잡해서 이 강좌를 듣는 것이 맞는 것인지 생각이 들 수도 있습니다. 제 생각에는 동영상을 보고 프로그래밍 숙제나 다른 숙제를 잘 완료할 수 있다면 딥러닝도 할 수 있다고 생각합니다.4주차에서는 몇 가지의 함수를 정의해 볼 텐데, 미적분에 필요한 모든 것을 그 안에 담을 수 있습니다. 이것을 정방.. 2025. 7. 30. [Deep Learning] 04 경사하강법 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/uJryes5Vk1o?si=H8dxie1J-nK_tLv- 로지스틱 회귀 모델과 단일 훈련 샘플이 얼마나 잘 작동하는지 측정하는 손실 함수, 그리고 매개변수 $w$, $b$가 훈련 세트 전체를 얼마나 잘 예측하는지 측정하는 비용 함수에 대해서 알아보았습니다. 그러면 이제 경사 하강법 알고리즘을 사용해 매개변수 $w$와 $b$를 훈련 세트에 학습시키는 방법을 알아봅시다. $\hat{y} = \sigma(w^Tx+b), \quad\sigma(z)=\frac{1}{1+e^{-z}}$$\mathcal{J}(w,b)=\frac{1}{m}\sum^{m}{i=1}\mathcal{L}(\hat{y}^{(i)},y^{(i)})=-\frac{1}{m}\sum^{m}{i=1}y^{(i)}\lo.. 2025. 7. 30. [Deep Learning] 03 로지스틱 회귀의 비용함수 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://youtu.be/SHEPb1JHw5o?si=TFQH2yxCxw4X8XKc 저번 강의에서 로지스틱 회귀 모델에 대해 알아봤습니다. 매개 변수들 $w$와 $b$를 학습하려면 비용함수를 정의해야 합니다. 로지스틱 회귀를 학습할 수 있는 비용함수에 대해 알아봅시다. $\hat{y}=\sigma(w^Tx+b)\text{, where }\sigma(z)=\frac{1}{1+e^{-z}}$ 지난번에 정의한 것을 요약하자면 $y$의 예측값은 $w^T \times x + b$의 시그모이드이며, 이때 시그모이드 함수 $σ(z)$는 상단 가운데 수식처럼 정의됩니다. $\text{Given }\{(x^{(1)},y^{(1)})\text{, ... , }(x^{(m)},y^{(m)})\}\text{, want .. 2025. 7. 28. [Deep Learning] 02 로지스틱 회귀 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://www.youtube.com/watch?v=hjrYrynGWGA 이번 주에 배울 것은 바로 로지스틱 회귀입니다. 이 학습 알고리즘은 지도 학습 문제에서 출력될 레이블 y가 0이나 1일 경우, 다시 말해 이진 분류 문제들에서 쓰입니다. $\text{Given }x\text{, want }\hat{y}=P(y=1\mid x)$ 입력될 특성 벡터 $x$가 있다고 해봅시다. 예를 들어 고양이 사진인지 아닌지 구분하고 싶은 사진이 주어졌을 때 $y$의 예측값을 출력하는 알고리즘을 원합니다. 더 자세히는 $\hat{y}$은 입력 특성 $x$가 주어졌을 때 $y$가 1일 확률을 뜻합니다. 다른 말로 $x$가 지난 시간에 본 사진이라면 $\hat{y}$은 이 사진이 고양이 사진일 확률을 알려줍니다. $.. 2025. 7. 20. [Deep Learning] 01 이진 분류 | W2 신경망과 로지스틱 회귀 | C1 신경망과 딥러닝 | Andrew Ng https://www.youtube.com/watch?v=eqEc66RFY0I 돌아온 것을 환영합니다. 이번 주에는 신경망 프로그래밍의 기초를 살펴보겠습니다. 신경망을 구현할 때에 정말 중요한 몇몇 구현 기법들이 있습니다. 예를 들면 $m$개의 훈련 샘플의 훈련 세트가 있을 때 훈련 세트를 처리하는 익숙한 방법은 아마 for 문을 이용해 $m$개의 데이터를 일일이 보는 것입니다. 사실은 훈련 세트를 처리할 때 보통 for 문을 굳이 사용하지 않고 처리하길 원할 것입니다. 어떻게 하는지는 이번 주 수업을 통해 배우겠습니다. 하나 더 예를 들면 보통 신경망의 계산 과정을 살펴볼 때 정방향 패스 또는 정방향 전파라는 단계 뒤에 역방향 패스 또는 역방향 전파라는 단계가 있습니다. 그래서 이번 주 수업을 통해 신.. 2025. 7. 11. [Deep Learning] 04 왜 딥러닝이 뜨고 있을까요? | W1 딥러닝 소개 | C1 신경망과 딥러닝 | Andrew Ng https://www.youtube.com/watch?v=xflCLdJh0n0 딥러닝과 신경망에 대한 기본적인 이론이 이미 오랫동안 존재했다면, 왜 이제서야 뜨고 있는 것일까요? 이 동영상에서는 딥러닝의 주요 성장 동력에 대해 알아보겠습니다. 그 이해가 조직 안에서 더 나은 위치와 기회를 가져다 줄 것입니다. 지난 몇 년간 많은 사람들이 제게 물었습니다. 딥러닝이 왜 갑자기 잘 되고 있는 것인지 말입니다. 그러면 보통 이것을 보여 줍니다. 그래프를 그려 봅시다. 가로축은 어떤 태스크에 대한 데이터의 양을 세로축은 학습 알고리즘의 성능을 나타냅니다. 스팸 메일 분류기, 광고 클릭 수 예상의 정확도나, 자율 주행 자동차가 다른 차량의 위치를 파악할 때 사용하는 신경망의 정확도 같은 것들 말이죠. 전통적인.. 2025. 7. 11. 이전 1 2 3 4 ··· 18 다음