Пост - перевод одного слайда из курса Стенфордского университета StatLearning Statistical Learning с дополнительным переводом комментариев преподавателей.
Когда дискриминантный анализ предпочтительный логистической регрессии.
Когда дискриминантный анализ предпочтительный логистической регрессии.
- When the classes are well-separated, the parameter estimates for the logistic regression model are surprisingly unstable. Linear discriminant analysis does not su er from this problem. Когда классы объектов хорошо разделены, в логистической регрессии параметры ведут себя удивительно нестабильно. Параметры логистической регрессии стремятся в такой ситуации к бесконечности. Дискриминантный анализ избежал такой проблемы. Логистическая регрессия хороша для медицинских и/или биологических исследований, где классы перемешаны.
- If n is small and the distribution of the predictors X is approximately normal in each of the classes, the linear discriminant model is again more stable than the logistic regression model. При небольшом количестве оцениваемых объектов, когда распределение каждого класса стремится к нормальному, линейная дискриминантная модель также стабильнее логистической регрессионной модели.
- Linear discriminant analysis is popular when we have more than two response classes, because it also provides low-dimensional views of the data. Линейный дискриминантный анализ предпочтительней, когда мы имеем дело с более чем двумя выходными классами (Y), поскольку он также обеспечивает низкоразмерный вид данных*.
- Logistic regression is very popular for classi cation, especially when K = 2. Логистическая регрессия очень популярна в классификации, особенно, когда число классов = 2.
- LDA is useful when n is small, or the classes are well separated, and Gaussian assumptions are reasonable. Also when K > 2. Линейный дискриминантный анализ полезен, когда число наблюдений мало или классы хорошо разделены, а предположение о Гауссовом распределении обоснованно. Также, когда число классов больше 2
- Naive Bayes is useful when p is very large. Наивный Байс полезен в ситуации, когда число переменных очень большое.
- Несмотря на различия, логистическая регрессия и линейный дискриминантный анализ дают схожие результаты.
- logistic regression can also fi t quadratic boundaries like QDA, by explicitly including quadratic terms in the model логистическая регрессия также удовлетворяет требованиям квадратичного дискриминантного анализа за счет включения квадратов переменных в модель.
"low-dimensional views of the data" - в данном контексте, наверное, стоит полагать, что речь идет о возможности отображения данных в пространстве меньшей размерности.
ОтветитьУдалитьда, я именно так и думаю, термин не могу подобрать.
Удалитьдавайте использовать
"данные в пространстве меньшей размерности"