ComputerVision

🎀 해당 게시물은 국민대학교 김장호 교수님의 '컴퓨터비전' 강의를 수강하며 정리한 글입니다. 🎀 문제점: 공간적 구조를 무시고양이 Input image를 처리할 때, 픽셀 데이터를 벡터(1차원 배열)로 펼쳐 사용한다.이 과정에서 이미지의 공간적 구조(픽셀 간의 위치 관계) 정보가 손실된다.즉, 기존 신경망은 이미지의 공간적 특성을 학습하지 못하며 성능이 저하된다.+) Fully-Connection Layer의 한계: 많은 계산량을 필요로함 해결책: 새로운 계산 노드(CNN) 도입공간적 구조를 보존하는 새로운 계산 방식인, 합성곱 계층(Convolution Layer)가 등장!CNN은 이미지 데이터의 공간적 관계를 학습하고, 중요한 특징(가장자리, 텍스처 등)을 추출할 수 있다!CNN의 효과공간적 구조..
🎀 해당 게시물은 국민대학교 김장호 교수님의 '컴퓨터비전' 강의를 수강하며 정리한 글입니다. 🎀 벡터 미분의 개념Regular Derivative: 스칼라 입력 x가 변화하면 출력 y가 얼마나 변화하는지.Gradient: 벡터 x의 각 요소가 변할 때 y가 얼마나 변화하는지.Jacobian: x의 각 요소 변화가 y의 모든 요소에 어떤 영향을 미치는지 나타내는 행렬. Jacobian 행렬Jacobian 행렬은 벡터 함수의 각 구성 요소에 대해 모든 입력 변수에 대한 편미분을 포함하는 행렬이다. 벡터 기반 역전파이전 글에서 봣던 거랑 똑같음!Upstream Gradient * Local Gradient = Downsteam Gradient 벡터화된 역전파문제를 풀게 될 경우, 업스트림 그래디언트는 주어..
🎀 해당 게시물은 국민대학교 김장호 교수님의 '컴퓨터비전' 강의를 수강하며 정리한 글입니다. 🎀 Gradients를 어떻게 계산할까?경사하강법을 사용한 가중치 학습 과정을 설명하고 있다손실 함수의 각 가중치 w_1, w_2에 대한 편미분을 계산하여 가중치를 업데이트할 것이다!! 나쁜 생각: 수작업으로 구해버려이렇게 수작업으로 그라디언트를 계산하면?행렬 미분 및 계산이 많아 수작업으로 수행하려면 상당한 시간이 소요된다손실 함수를 바꾸고 싶을 때 처음부터 새로 유도해야한다.DNN이나 매우 복잡한 모델에서는 계산이 사실상 불가능하다고 한다..! 조은 생각: 계산 그래프를 사용해요!계산 그래프는 복잡한 함수를 구성하는 모든 연산 단계를 그래프로 나타낸다.계산 흐름x와 W가 입력되고, 이들을 곱하여 점수 s를..
🎀 해당 게시물은 국민대학교 김장호 교수님의 '컴퓨터비전' 강의를 수강하며 정리한 글입니다. 🎀  이전 선형 모델에서 2층 신경망으로 바뀌면서 복잡한 데이터 패턴을 학습할 수 있도록 하였음이전에는 직선으로 반반 나누는 것들 밖에 못했는데 이제는 XOR 연산을 할 수 있게 된 것!Width: 각 층에 있는 뉴런의 개수Depth: 깊이 = 은닉층 + 출력층 = 6+1 = 7Loss Functionloss function은 현재 모델이 얼마나 잘 작동하는지 평가하는 기준임대표적인 손실함수에는 MSE와 cross-entropy loss 가 있음오버피팅새로운 데이터에 대한 일반화(generalize) 성능이 낮아지는 것을 의미한다.학습데이터의 패턴뿐만 아니라 노이즈까지 학습하여 모델이 학습데이터에 대해 지나치..
🎀 해당 게시물은 국민대학교 김장호 교수님의 '컴퓨터비전' 강의를 수강하며 정리한 글입니다. 🎀 Image Classification이미지 분류(image Classification)은 고정된 카테고리 중 하나로 이미지를 분류하는 문제이다. CIFAR-10CIFAR-10은 이미지 분류를 위한 데이터셋이며, 다음과 같은 10개의 카테고리를 포함하고 있다.각 이미지의 크기는 32*32*3이다. -> 3인걸 보니 RGB 채널인 것을 알 수 있다!50,000장의 학습 데이터와 10,000장의 테스트 데이터로 분할되어있다! Parametric Approach선형 분류기는 학습 가능한 파라미터(가중치 W, 바이어스 b)를 사용한다.입력이미지 x를 기반으로 클래스 점수 f(x, W)를 계산한다. (출력은 10개의..
현진탱구링
'ComputerVision' 태그의 글 목록