반응형
[Stanford University CS231n, Spring 2017] Lecture 6 | Training Neural Networks I
컴퓨터비전2020. 1. 9. 02:49[Stanford University CS231n, Spring 2017] Lecture 6 | Training Neural Networks I

오늘은 6강입니다. 6강 또한 제 소신껏 정리해 보겠습니다. 많이 어려워 지는 부분인데요. 그래도 다들 힘내서 같이 공부해 봅시다. 앞전에 우리는 위 그림처럼 computational graphs에 대해서 알아 보았습니다. 말 그대로 f = Wx + regularization 이다를 배웠습니다. 위 그림을 보겠습니다. F = Wx 는 아주 기본적인 식입니다. 뉴럴네트워크에서는 hidden layer가 쌓이게 되는데요. 위의 기본적인 식인 F = Wx의 기본적인 식에서 층이 생기게 됩니다. F = W2max(0,w1x) 이런식으로 층을 쌓는 것입니다. 위 그림들 처럼 우리는 CNN에 대해서 알아 보았습니다. CNN은 큰 input에서 세부적으로 들어가면서 보는 것입니다. 그래서 CNN에서 사용하는 Filt..

[Stanford University CS231n, Spring 2017] Lecture 5 | Convolutional Neural Networks
컴퓨터비전2020. 1. 3. 17:17[Stanford University CS231n, Spring 2017] Lecture 5 | Convolutional Neural Networks

오늘은 cs231n 5강을 제 소신껏 정리를 해 보겠습니다. 저희는 저번 시간에 단순한 linear score를 배웠습니다. 기억이 나시나요..?? f = Wx 였습니다. 2-layer 가 된다면 W2max(0,W1x) 이런식으로 된다고 하였습니다. 이렇게 하면 hidden layer가 추가된다고 하였습니다. 이제 우리는 컨볼루션 뉴런 네트워크에 대해서 배우게 될 것입니다. convolutional nerual network ( CNN ) 은 이미지 인식에서 정말 많이 사용합니다. 들어가기 전에 앞서 CNN의 역사에 대해서 간단하게 알고 넘어가겠습니다. 처음 시작은 mark 1 perceptron 이라는 것 이였습니다. 단순히 기계로 동작했고 일반적인 단층 퍼셉트론 방식이었습니다. w값들을 조절해가면서 ..

[Stanford University CS231n, Spring 2017] Lecture 4 | Introduction to Neural Networks
컴퓨터비전2019. 12. 30. 21:33[Stanford University CS231n, Spring 2017] Lecture 4 | Introduction to Neural Networks

오늘은 cs231n 4강을 제 소신껏 정리해 보도록 하겠습니다. 우리는 저번 3강 때 score function , SVM의 loss인 hinge loss, softmax loss ( cross entropy loss ) , 규제 ( regularization ) 등 배웠습니다. Optimization에 대해서도 알아보았습니다. 여기서 경사하강법을 배웠습니다. 일반적으로 계산하는 방법은 numerical 방법입니다. 근데 이거는 속도가 느리고 정확하지 않다는 단점이 있습니다. 그래서 우리는 해석적 방법인 analytic 방법을 많이 사용하고 보통 gradient check를 할 때 numerical gradient를 사용한다고 배웠습니다. 앞서 배웠던 내용을 그림으로 표현하면 위와 같은 그림이 될 것입니..

[Stanford University CS231n, Spring 2017] Lecture 3 | Loss Functions and Optimization
컴퓨터비전2019. 12. 24. 02:44[Stanford University CS231n, Spring 2017] Lecture 3 | Loss Functions and Optimization

오늘은 cs231n 3강을 제 소신껏 정리를 해보겠습니다. 저번 시간에는 이미지 분류에 대해서 알아 보았습니다. 조명과 변형 은닉 등의 문제 때문에 이미지분류가 힘들고 쉽지 않은 일인지 알아 보았습니다 CIFAR-10 데이터셋에 대해서도 알아보았고 , KNN에 대해서도 알아보았습니다. 또한 data-driven방식을 알아보았었는데 데이터를 훈련시킬 때는 train,test이 2개로만 나누면 좋지 않았다고 배웠습니다. train,validation,test 3개로 나눠서 test셋은 마지막에 평가할 때 딱 1번만 사용된다고 배웠습니다. Linear Classifier에 대해서도 배웠었는데요. x는 이미지, w는 가중치(weight)를 줘서 score를 뽑아냈었습니다. score에 따라 이미지 분류기에 들어..

[Stanford University CS231n, Spring 2017] Lecture 2 | Image Classification
컴퓨터비전2019. 12. 4. 18:05[Stanford University CS231n, Spring 2017] Lecture 2 | Image Classification

오늘은 cs231n 2강을 제 소신껏 정리를 해보겠습니다 2강의 시작은 이미지 분류가 무엇인지에 대해서 설명하고 시작합니다. 위 사진을 보았을 때 , 저희는 고양이라고 이미지를 보고 판단하게 됩니다. 그러나 컴퓨가 이 이미지를 보고 고양이라고 생각할 수 있을까요!? 컴퓨가 이미지를 보고 이 이미지는 고양이라고 판단할 수 없습니다. 그 이유는 다음 이미지를 통해 설명해 보겠습니다. 컴퓨터는 이미지를 바라 볼 때 RGB값인 수많은 숫자로 인식을 하게 됩니다. 그렇기 때문에 컴퓨터가 이미지를 한번에 알아 보기는 당연히 힘든일입니다. 거꾸로 생각해 보면 쉬울것 같습니다 만약 우리가 숫자로 된 화면을 보고 있다고 하면 우리 또한 이미지를 한번에 알아차리기는 힘들 것 입니다. 그 외에도 이미지 분류를 할 때 몇가지..

[Stanford University CS231n, Spring 2017] Lecture 1 | Introduction to Convolutional Neural Networks for Visual Recognition
컴퓨터비전2019. 12. 2. 00:10[Stanford University CS231n, Spring 2017] Lecture 1 | Introduction to Convolutional Neural Networks for Visual Recognition

구글링 중 cs231n 이라는 강좌를 우연히 알게 되었다. 컴퓨터 비전과 인공 신경망에 대해서 겉핥기 식으로 대충 감만 잡다보니 영... 감이 안왔다. 그래서 cs231n 강좌를 들어보고 공부를 해보고자 한다. 유투브 링크는 다음과 같다. https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=1 유투브에 보면 강의에서 사용하는 교육자료를 ppt로 다운받을 수 있었다. 1강이라 특별한 내용은 별로 없었다. 컴퓨터 비전과 관련된 용어들과 분야를 알려 주었다. 1970년 대의 논문인데 , 컴퓨터가 이미지를 시작적으로 어떻게 처리를 하는지에 대해서 연구한 논문을 보여줌으로써 컴퓨터 비전은 이미 옛날부터 연..

반응형
image