
Finally..!
아기다리 고기다리던 부트캠프의 머신러닝 수업이 시작되었다.
머신러닝 모델들의 이론적인 백그라운드에 대해 관심이 많아 수업을 들으면서 정리해보고자 모델에 관련된 포스팅을 시리즈로 연재하고자 한다.
머신러닝을 하는 가장 큰 이유는 뭐니뭐니해도 분류와 예측이 아닐까 싶다.
딥러닝에서는 여러가지 것들을 할 수 있지만, 머신러닝은 우리가 연역적으로 감당하기 힘든 수준의 양 또는 차원의 데이터를 다루기 위해 활용하는 보조 툴이기 때문에 분류와 예측이 메인이 되는 것은 어찌보면 당연해보인다.
그렇기에 이번시리즈의 앞부분은 분류모델들에 대해서 알아보는 시간을 가져보도록 하겠다.
오늘은 가장 기본적인 분류모델인 Linear Classifier에 대해서 알아보도록 하자.
Linear Classifier
선형분류기로 불리는 Linear Classifier는 두 집단을 구분짓는 직선 형태의 경계면(선, 평면)을 찾는 것을 말한다.
하나의 선형식으로 위/아래로 공간이 나뉘기 때문에, 위는 1로 아래는 0으로 나누면 두 가지의 케이스로 데이터를 분류할 수 있다.
이때 이 경계면을 Decision Boundary라고도 부른다.
수학에서 Linear 하다는 것은 정말 할 수 있는 것들이 많고, 관련 정리들도 많기 때문에 논리적인 설명을 하기 정말 좋다.
선형대수학이 바로 그것이다.
그렇기 때문에 분류 성능이 좋지 않더라도 선형분류기를 사용하는 이유는 선형대수학이라는 도구를 활용하여 논지전개를 하기 위함이다.
티스토리가 안타깝게도 수식입력기가 지원이 안되어서 수식은 활용하지 못했지만, 이해를 돕는 정도의 설명임을 알아주길 바란다.
Adios!
'Data Science > Machin Learning' 카테고리의 다른 글
[ML] Model Evaluation (0) | 2022.11.10 |
---|---|
[ML] Feature Engineering (0) | 2022.11.09 |
[ML] (Clustering)K-means Clustering (0) | 2022.11.07 |
AI, 그게 뭔데? (0) | 2022.09.12 |
Macbook M1 Tensorflow 설치하기(for jupyter notebook) (0) | 2022.09.12 |