Modèle de régression logistique binaire

Notez que les probabilités pi et les coefficients de régression sont non observés, et les moyens de les déterminer ne font pas partie du modèle lui-même. Ils sont généralement déterminés par une sorte de procédure d`optimisation, par exemple l`estimation de la probabilité maximale, qui trouve les valeurs qui correspondent le mieux aux données observées (c.-à-d. qui donnent les prédictions les plus exactes pour les données déjà observées), généralement sous réserve de les conditions de régularisation qui cherchent à exclure des valeurs improbables, par exemple des valeurs extrêmement importantes pour l`un des coefficients de régression. L`utilisation d`une condition de régularisation équivaut à l`estimation du maximum a posteriori (MAP), une prolongation de la probabilité maximale. (La régularisation se fait le plus souvent à l`aide d`une fonction de régularisation au carré, ce qui équivaut à placer une distribution gaussienne de moyenne zéro sur les coefficients, mais d`autres régularizers sont également possibles.) Que la régularisation soit ou non utilisée, il n`est généralement pas possible de trouver une solution de forme fermée; au lieu de cela, une méthode numérique itérative doit être utilisée, telle que les moindres carrés itérativement repondérés (IRLS) ou, plus couramment ces jours, une méthode quasi-Newton telle que la méthode L-BFGS. Un tel modèle peut être utilisé à diverses fins. Par exemple, étant donné un Datum individuel avec des valeurs de prédicteurs x 1, x 2 {displaystyle x_ {1}, x_ {2}}, on peut estimer le log-Odds (donc les cotes et la probabilité) du résultat en plaçant les valeurs dans la formule. Alternativement, envisagez de comparer deux traitements médicaux, dont l`un diminue x 1 {displaystyle x_ {1}} par 3 et l`autre qui diminue x 2 {displaystyle x_ {2}} par 2. En supposant que ce modèle est valide, le premier traitement réduit le log-Odds du résultat par 1 ⋅ 3 = 3, {displaystyle 1 cdot 3 = 3,} de sorte qu`il réduit les cotes par un facteur de 10 3 = 1000, {displaystyle 10 ^ {3} = 1000,} mais l`autre traitement réduit le log-Odds par 2 ⋅ 2 , {displaystyle 2 cdot 2 = 4,} de sorte qu`il réduit les cotes par un facteur de 10 4 = 10000, {displaystyle 10 ^ {4} = 10000,} et donc est plus efficace, tout le reste égal. Le logit de la probabilité de succès est ensuite ajusté aux prédicteurs. La valeur prédite du logit est reconvertie en cotes prévues par l`inverse du logarithme naturel, à savoir la fonction exponentielle. Ainsi, bien que la variable dépendante observée dans la régression logistique binaire soit une variable zéro ou un, la régression logistique estime les cotes, en tant que variable continue, que la variable dépendante est un succès (un cas).