머신러닝3 로지스틱 회귀(Logistic Regression) 오늘은 로지스틱 회귀에 대해서 설명을 드리겠습니다! 얘는 아주 큰 함정이 있는 친구입니다. 로지스틱 '회귀' 지만 정작 이 친구는 분류 모델입니다! 이진 분류에서 사용하는 알고리즘입니다. 1. 이진 분류이진 분류는 결과를 특정된 두 가지 클래스(0과 1, Yes or No 같은 형식)를 나누어 주는 모델입니다. 즉, 로지스틱 회귀를 사용하고 해석을 하게 되면 위와 같이 결과를 분류할 수 있습니다. 2. 시그모이드 함수$$ Sigmoid(x) = \frac{1}{1 + e^{-x}} $$ 이것을 그래프로 표현하면 아래와 같습니다. x가 0일 때, 시그모이드 함수의 값은 0.5입니다.x가 작아지면 작아질수록, 0에 가까워 집니다.x가 커지면 커질수록, 1에 가까워 집니다.3. 로지스틱 회귀의 손실 함수아래의.. 2025. 1. 23. 서포트 벡터 머신 (Support Vector Machine) 서포트 벡터 머신은 머신러닝의 지도 학습 모델 알고리즘 입니다! 분류와 회귀 두 종류 모두 사용을 할 수 있으나, 서포트 벡터 머신을 사용하라고 하면 분류에서 사용을 많이 한 것 같아요. 이 모델은 주어진 데이터를 기반으로 최적의 결정 경계를 찾아 분류하거나 예측하는 모델 입니다. 결정 경계는 분리 마진을 최대화 하도록 설정이 되어있습니다! 이렇게만 설명하면 헷갈리실 것 같아서 결정경계와 마진에 대한 이야기를 적겠습니다. 결정경계결정 경계는 말그대로 경계입니다. 데이터를 분류하는 선 또는 초평면(Hyperplane)입니다. 마진은 결정경계와 가장 가까운 데이터 포인트와의 거리로 정의됩니다. 해당 모델은 마진을 최대화하여 구분을 하는 것을 목표로 합니다. 결정 경계는 분류모델에서 사용됩니다. (회귀는 튜브.. 2025. 1. 22. 선형 회귀(단순 선형/다중 선형) 1. 단순 선형 회귀단순 선형회귀는 학창시절 배웠던 1차 함수와 비슷하다고 생각하시면 됩니다.$$ Y = \beta_1 x_1 + \beta_0 $$$$ Y = ax + b $$둘을 비교해보면 간단합니다. 앞으로는 기호들을 아래와 같이 부를 예정입니다.$$ \cdot\, \beta_0 : 절편(intercept) $$$$ \cdot\, \beta_1 : 기울기(coefficient)$$ 단순 선형 회귀는 독립 변수(x)가 1개, 종속 변수(y)도 1개 입니다. 2. 다중 선형 회귀다중 선형 회귀는 독립 변수(x)가 여러(n)개, 종속 변수(y)는 1개 입니다. $$ Y = \beta_n x_n + \cdots + \beta_1 x_1 + \beta_0 $$ 위와 같은 모양으로 생겼습니다! 0을 제외한 나.. 2025. 1. 20. 이전 1 다음