C`est une logique erronée. Il est vrai qu`une variance élevée et un modèle à faible polarisation peuvent préformer bien dans une sorte de sens moyen à long terme. Toutefois, dans la pratique, les modélisateurs sont toujours confrontés à une seule réalisation de l`ensemble de données. Dans ces cas, les moyennes à long terme ne sont pas pertinentes, ce qui est important est la performance du modèle sur les données que vous avez réellement et dans ce cas, le biais et la variance sont tout aussi importants et on ne devrait pas être amélioré à une dépense excessive à l`autre. Les articles statistiques académiques traitant des algorithmes de prédiction font souvent monter les idées de cohérence asymptotique et d`efficacité asymptotique. En pratique, ce que cela implique, c`est que lorsque votre taille d`échantillon d`entraînement grandit vers l`infini, le biais de votre modèle tombera à 0 (consistance asymptotique) et votre modèle aura une variance qui n`est pas pire que tout autre modèle potentiel que vous auriez pu utiliser (asymptotique l`efficacité énergétique). avec un échantillon de taille 1. (Par exemple, lorsque les appels entrants à un standard téléphonique sont modélisés comme un processus de poisson, et λ est le nombre moyen d`appels par minute, alors e − 2λ est la probabilité qu`aucun appel n`arrive dans les deux minutes suivantes.) Vous devriez avoir une certaine compréhension de ce type de données que vous traitez avec et chaud de l`algorithme fonctionne. Par exemple, y a-t-il beaucoup de valeurs aberrantes ou de bruit dans vos données.

Est le modèle que vous avez choisi un polynôme d`ordre supérieur (c.-à-d. une courbe au lieu d`une ligne) qui peut surajuster les données d`entraînement, ce qui signifie le suivre de trop près, d`une manière qui n`est pas naturelle. Enfin, vous devez comprendre les différences entre chaque algorithme. (Voici quelques conseils de scikit-apprendre à choisir le bon modèle.) Dans les statistiques et l`apprentissage automatique, le compromis Bias-variance est la propriété d`un ensemble de modèles prédictifs selon lesquels les modèles avec un biais plus faible dans l`estimation des paramètres ont une variance plus élevée des estimations de paramètres entre les échantillons, et inversement. Le dilemme de partialité – variance ou problème est le conflit en essayant de minimiser simultanément ces deux sources d`erreur qui empêchent les algorithmes d`apprentissage supervisés de généraliser au-delà de leur ensemble de formation: [citation nécessaire] nous pouvons estimer un modèle $ hat{f} (X) $ de $ f (X) $ en utilisant des régressions linéaires ou une autre technique de modélisation.