我如何定期将训练模型的准确性从80%提高到90 +%

预期机器学习基础课程的开始,我们为您准备了有趣的翻译,我们还为您提供免费的演示课程,主题为:“如何通过NLP使世界变得更美好”


介绍

如果您至少完成了几个自己的数据科学项目,那么您可能已经发现80%的准确性还不错。但是对于现实世界,80%不再合适。实际上,我工作过的大多数公司都期望最低准确度(或他们看的任何度量标准)至少达到90%。

因此,我将讨论可以显着提高准确性的五件事。我强烈建议您阅读所有五点内容,因为许多内容对于初学者来说可能是未知的。

到本文结束时,您应该已经意识到,比您想象的更多的变量在机器学习模型的运行中起着重要的作用。

话虽如此,您可以做以下五件事来改善您的机器学习模型!

1.

, , , , . , /, , .

, , , , , . 15 80 , 80 , .

, , « »?

, / :

  • : , , . , , ANOVA .

  • K- : K- , , , K- (.. ).

  • : , . , , .

2.

– . – , , . , Data Science – , . , , :

  • DateTime , , ..

  • (, 100–149, 150–199, 200–249 ..)

  • / . , «Iswomenor_child», True, , False .

3.

– , / . , , , .

, :

  • : , XGBoost, , «» . , , .

  • : – (PCA). .

4. Ensemble Learning

– . , . 

(Ensemble Learning) – , . , , - .

- , XGBoost, AdaBoost. , , :

. () . ? « , », .

, , , 0. 4 , 1. !

5.

, , , – . , , , , .

:

class sklearn.ensemble.RandomForestClassifier(n_estimators=100, *, criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None, ccp_alpha=0.0, max_samples=None

, , minimpuritydecrease, , «», ! ;)

, 80% 90+%. . Data Science.


, , .

:




All Articles