Notice
Recent Posts
Recent Comments
Link
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴

HJunS

[혼공족] 혼자 공부하는 머신러닝 + 딥러닝 3주차 Ch04 본문

혼공단

[혼공족] 혼자 공부하는 머신러닝 + 딥러닝 3주차 Ch04

HJunS 2024. 1. 21. 02:20

기본 미션

2. 로지스틱 회귀가 이진 분류에서 확률을 출력하기 위해 사용하는 함수는 무엇인가요?

1. 시그모이드

시그모이드 함수는 선형 방정식의 출력을 0과 1사이의 값으로 압축하여 이진 분류를 위해 사용한다.

04-1 로지스틱 회귀

데이터 준비

 

k-최근접 이웃 분류기의 확률 예측

  • 7개의 생선 종류를 맞추는 문제
  • 다중분류: 2개 이상의 클래스가 포함된 문제
  • 3개의 최근접 이웃을 사용하기 때문에 확률이 0, 1/3, 2/3, 1으로 모두 같다.

 

로지스틱 회귀

  • 로지스틱 회귀: 회귀이지만 분류 모델로 선형 회귀처럼 선형 방정식을 학습
  • 시그모이드: 0~1 사이의 값으로 바꾸는 함수

로지스틱 회귀로 이진 분류 수행하기

 

 

로지스틱 회귀로 다중분류 수행하기

z값에 소프트맥스로 확률을 구한 것과 같은 결과

 

04-2 확률적 경사 하강법

  • 확률적 경사 하강법:  훈련 세트에서 샘플을 하나씩 꺼내 손실함수의 경사를 따라 최적의 모델을 찾는 알고리즘
  • 손실함수:  확률적 경사 하강법이 최적화할 대상
    ex) 이진 분류(로지스틱 회귀, 이진 크로스엔트로피), 다중 분류(크로스엔트로피), 회귀(평균제곱오차)
  • 에포크: 전체 샘플을 모두 사용하는 한 번 반복, SGD는 일반적으로 수십 수백번 반복

SGD Classifier

데이터 준비

모델

partial_fit으로 1에포크 추가 학습

 

에포크와 과대/과소적합

  • 300 에폭 후 그래프

  • log_loss

  • hinge loss