일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Ground Truth
- 코딩테스트
- Tensorflow 2.0
- 오픈소스해커톤
- API
- re:Invent
- Community Day
- aws
- OPENHACK
- entity
- 스터디 잼
- Conference
- Open Hack
- Qwik Start
- GDG Campus
- SageMaker
- 해커톤
- seq2seq
- 구글스타트업캠퍼스
- Backend.AI
- 뉴비톤
- Speech
- BOAZ
- CSIP
- SW중심대학
- kakao
- rl
- ainize
- gcp
- 머신러닝
- Today
- Total
pizzaplanet
How PR(Pattern Recognition) works? 본문
Pattern Recognition System
Data Acquisition and Sensing
- 물리적인 변수를 측정(거리 측정, 음성 데이터 감지 등)
- 해상도, 감도, 왜곡, 노이즈 등의 이슈 존재
Pre-processing
- 전체 데이터에서 노이즈(이상치 등) 제거
Feature Extraction
- 전처리(Pre-processing)한 데이터에서 feature 추출
Model Learning
- AI Model(seq2seq, tree boosting, etc)에 feature 집어넣어 input(feature)와 outcome(classes 혹은 categories)간의 맵핑을 학습
Classification
- 학습된 model을 사용하여 input 된 feature를 특정 class로 지정.
- 예> 생선 길이를 이용하여 생선종류 구분하는 경우
생선의 길이 X= feature
생선종류 = 클래스(농어 혹은 연어)
X feature를 받아 학습된 model로 Classification 하면 농어 혹은 연어 class로 지정해준다.
Post-processing
- 결정에 대한 신뢰도 평가
- 시스템 성능 향상을 위한 context 활용
Design Cycle
Collect Data
- training, test data 수집
- 데이터 수집에 많은 비용이 들 수 있다.
- 수집한 데이터의 양이 충분한지 어떠한 기준으로 판단할 것인가?
Choose Features
- 도메인 지식에 의존적일 수 있다. feature를 선택하는 사람의 주관적인 생각이 들어간다.
- Model에 집어 넣을 feature들을 선택, 추출한다.
- Discriminative features
- 비슷한 패턴들은 비슷한 벨류를 가진다.
- 서로 다른 패턴들은 서로 다른 벨류를 가진다.
- Feature는 translation, rotation, scale 변환에서 과정에서 불변해야 한다.
- Feature는 occlusion, distortion, deformation, and variations의 환경에서 불변해야한다.
Choose Model
- 도메인 지식에 의존적일 수 있다. model를 선택하는 사람의 주관적인 생각으로 선택하기 때문
- 어떤 종류의 classifier을 사용할 것인가?
- 직면한 문제에 대한 가장 좋은 해결책은 무엇인가?
- 만약 선택한 모델이 적합하지 않다면 교체시기를 어떻게 결정할 것인가.
Train Classifier
- 데이터에서 규칙을 어떻게 학습할 수 있는가?
- classifier의 파라미터들을 학습시켜 클래스에 피팅 과정
- 많은 방법들이 있다. 예로 지도학습, 비지도학습
Evaluate Classifier
- 시스템의 성능을 어떻게 추정할 수 있는가?
- 시스템 개선의 필요성 확인
- 오버피팅 및 일반화.
오버피팅 - 주어진 데이터에 너무 맞춤형으로 학습이 되어 주어진 데이터에서는 굉장히 높은 정확도를 보이지만 다른 데이터에서는 굉장히 낮은 정확도를 불러 일으킨다.
일반화 - 특정 데이터 셋에만이 아닌 일반적으로도 다른 데이터 셋에 잘 맞아 떨어지도록 만드는 것
'Univ. > Pattern Recognition lecture' 카테고리의 다른 글
사후확률 예제 풀어보기 (0) | 2018.04.24 |
---|---|
확률에 대한 기본 정리 (0) | 2018.04.24 |
Orthogonal / Orthonormal vectors (0) | 2018.04.23 |
N차원 벡터의 곱셈 (0) | 2018.04.21 |
Pattern Recognition Fundamentals (0) | 2018.03.31 |