预期机器学习基础课程的开始,我们为您准备了有趣的翻译,我们还为您提供免费的演示课程,主题为:“如何通过NLP使世界变得更美好”。
介绍
如果您至少完成了几个自己的数据科学项目,那么您可能已经发现80%的准确性还不错。但是对于现实世界,80%不再合适。实际上,我工作过的大多数公司都期望最低准确度(或他们看的任何度量标准)至少达到90%。
因此,我将讨论可以显着提高准确性的五件事。我强烈建议您阅读所有五点内容,因为许多内容对于初学者来说可能是未知的。
到本文结束时,您应该已经意识到,比您想象的更多的变量在机器学习模型的运行中起着重要的作用。
话虽如此,您可以做以下五件事来改善您的机器学习模型!
1.
, , , , . , /, , .
, , , , , . 15 80 , 80 , .
, , « »?
, / :
: , , . , , ANOVA .
K- : K- , , , K- (.. ).
: , . , , .
2.
– . – , , . , Data Science – , . , , :
DateTime , , ..
(, 100–149, 150–199, 200–249 ..)
/ . , «Iswomenor_child», True, , False .
3.
– , / . , , , .
, :
: , XGBoost, , «» . , , .
: – (PCA). .
4. Ensemble Learning
– . , .
(Ensemble Learning) – , . , , - .
- , XGBoost, AdaBoost. , , :
. () . ? « , », .
, , , 0. 4 , 1. !
5.
, , , – . , , , , .
:
class sklearn.ensemble.RandomForestClassifier(n_estimators=100, *, criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None, ccp_alpha=0.0, max_samples=None
, , minimpuritydecrease, , «», ! ;)
!
, 80% 90+%. . Data Science.
, , .