Lecture12 CS231n 4강 아래의 내용은 cs231n 4장 강의 슬라이드와 일치하지 않고, 역전파에 대한 내용을 나만의 방식으로 정리 진행 신경망 우리는 이전 강의까지 선형 함수인 Linear score function = Wx에 대해서 배웠다. 앞으로는 위와같은 Linear fuction과 같은 함수를 계층적으로 쌓으면서 여러 개 사용할 것이고, 이를 신경망이라 부를 것이다. 그렇다면 계층적으로 쌓는다는 것이 무슨 의미인지 알아보자. 위의 슬라이드를 보면 2-layer Neural Network의 함수는 f = W2 max(0,W1x) 형태를 갖는다. 이 함수는 W2x와 max(0,W1x)인 2개의 합수의 곱으로 이루어져 있고, 이처럼 두 함수의 곱을 이용하여 계층적으로 함수를 쌓아서 사용한다. max(0, W1x)는 비선형 함.. 2024. 1. 22. CS231n 3강 지난 강의에서는 선형 분류기의 이미지 분류 방법에 대하여 알아보았습니다. 선형 분류기는 이미지 x에 대해 가중치 w를 곱하여 class에 대한 점수를 반환하는 방법을 사용하였습니다. 이번 강의에서는 예측을 잘 수행하는 가중치 w를 판단하는 방법에 대하여 알아보겠습니다. w의 좋고 나쁨을 판단할 수 있게 정량화할 방법이 필요하고, 이를 함수로 정의합니다. 우리는 이 함수를 손실함수라고 정의하였습니다. 손실함수는 가중치 w가 얼마나 나쁜지를 의미하기에 0에 가까울수록 좋습니다. 그렇다면 이미지 분류에 사용되는 몇 개의 손실함수에 대해서 알아보겠습니다. 손실함수는 위의 그림에서 식 L을 의미합니다. N개의 데이터에 대해 입력 이미지 x와 가중치 w로부터 나온 예측값과 정답값 y를 이용하여 손실값을 계산합니다... 2024. 1. 22. CS231n 2강 CS231n 강의를 수강하고 정리한 내용입니다. 컴퓨터 비전의 핵심 task입니다. '어떻게 이미지를 분류할까?'에 대해서 고민합니다. 인간에게 이미지를 보여주고 물체가 무엇인지 맞추는것은 쉽지만, 컴퓨터에게는 어려운 일입니다. 컴퓨터가 이미지를 볼 때는 오른쪽 그림과 같이 숫자격자일 뿐 그 이상의 의미는 없습니다. 여기서 Semantic gap이 발생합니다. 위에서 말한 Semantic gap을 해결하기 위한 접근 방법은 Data-Driven 접근법입니다. 큰 데이터 셋을 수집하여 다양한 카테고리에 대한 이미지 데이터를 머신러닝 분류기에 훈련을 시킵니다. 이후 새로운 이미지를 적용하여 예측 결과를 확인합니다. 이것이 Semantic gap을 해결한 Incite입니다. 첫번째 분류기인 Nearest-Ne.. 2024. 1. 21. 이전 1 2 다음