LightGBM
Gradient Boosting Decision Tree (GBDT) 알고리즘을 기반으로 하는 머신러닝 프레임워크
XGBoost보다 빠르고 메모리 효율적
모델링
#분류
from lightgbm import LGBMClassifier
#회귀
from lightgbm import LGBMRegressor
코드로 임포트 한 다음
#분류
model = LGBMClassifier(n_estimators= , max_depth= , random_state = , verbose= )
#회귀
model = LGBMRegressor(n_estimators= , max_depth= , random_state = , verbose= )
로 모델을 선언한다
각각 파라미터는
- max_depth: 트리의 최대 깊이를 지정 (기본값 = -1)
- n_estimators : 만들어질 decision tree의 수 , (기본값=100)
- radom _state : 난수의 시드
- verbose : 1= 학습정보 출력, 0 =아무런 메세지도 출력하지 않음, -1 =경고와 에러만 출력
이다 만약 기본 설정을 그대로 쓸 생각이라면 그냥 함수명()으로 선언해도 된다
학습 및 예측
model.fit(x_train, y_train)
fit매소드로 학습을 시킬 수 있다
이후
y_pred = model.predict(x_test)
코드를 사용하여 완성된 모델에 x_test를 넣어 예측값을 생성 할 수 있다
평가
from sklearn.metrics import *
코드로 평가 함수들을 임포트 한 다음
https://bigcat5312.tistory.com/77
머신러닝 지도학습 - 회귀와 분류, 분석도구
회귀(Regression) 이미 결과값이 있는 데이터를 사용하여 연관성을 찾아 연속적인 숫자를 예측해 내는 것 ex) 집값 분석도구 평가도구 LinearRegression KNeighborsRegressor DecisionTreeRegressor RandomForestRegressor XG
bigcat5312.tistory.com
게시글을 참고하여 원하는 평가함수(y_test , y_pred)를 사용해 평가 할 수 있다