![[Stanford University CS231n, Spring 2017] Lecture 3 | Loss Functions and Optimization](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FALLME%2FbtqAErDdTDo%2FAAAAAAAAAAAAAAAAAAAAABVw-QSgd6n4PNIBBnCs8j-F5POmKiEZXhUrPUCMVSvH%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1751295599%26allow_ip%3D%26allow_referer%3D%26signature%3DZgAyp6KiNThWxLDjUiJPF33mV5A%253D)
컴퓨터비전2019. 12. 24. 02:44[Stanford University CS231n, Spring 2017] Lecture 3 | Loss Functions and Optimization
오늘은 cs231n 3강을 제 소신껏 정리를 해보겠습니다. 저번 시간에는 이미지 분류에 대해서 알아 보았습니다. 조명과 변형 은닉 등의 문제 때문에 이미지분류가 힘들고 쉽지 않은 일인지 알아 보았습니다 CIFAR-10 데이터셋에 대해서도 알아보았고 , KNN에 대해서도 알아보았습니다. 또한 data-driven방식을 알아보았었는데 데이터를 훈련시킬 때는 train,test이 2개로만 나누면 좋지 않았다고 배웠습니다. train,validation,test 3개로 나눠서 test셋은 마지막에 평가할 때 딱 1번만 사용된다고 배웠습니다. Linear Classifier에 대해서도 배웠었는데요. x는 이미지, w는 가중치(weight)를 줘서 score를 뽑아냈었습니다. score에 따라 이미지 분류기에 들어..