Share |

вторник, 4 февраля 2014 г.

Когда дискриминантный анализ предпочтительный логистической регрессии

Пост - перевод одного слайда из курса Стенфордского университета StatLearning Statistical Learning с дополнительным переводом комментариев преподавателей.
Когда дискриминантный анализ предпочтительный логистической регрессии.
  1. When the classes are well-separated, the parameter estimates for the logistic regression model are surprisingly unstable. Linear discriminant analysis does not su er from this problem. Когда классы объектов хорошо разделены, в логистической регрессии параметры ведут себя удивительно нестабильно. Параметры логистической регрессии стремятся в такой ситуации к бесконечности. Дискриминантный анализ избежал такой проблемы. Логистическая регрессия хороша для медицинских и/или биологических исследований, где классы перемешаны. 
  2. If n is small and the distribution of the predictors X is approximately normal in each of the classes, the linear discriminant model is again more stable than the logistic regression model. При небольшом количестве оцениваемых объектов, когда распределение каждого класса стремится к нормальному, линейная дискриминантная модель также стабильнее логистической регрессионной модели.
  3. Linear discriminant analysis is popular when we have more than two response classes, because it also provides low-dimensional views of the data. Линейный дискриминантный анализ предпочтительней, когда мы имеем дело с более чем двумя выходными классами (Y), поскольку он также обеспечивает низкоразмерный вид данных*. 
  4. Logistic regression is very popular for classi cation, especially when K = 2. Логистическая регрессия очень популярна в классификации, особенно, когда число классов = 2.
  5. LDA is useful when n is small, or the classes are well separated, and Gaussian assumptions are reasonable. Also when K > 2. Линейный дискриминантный анализ  полезен, когда число наблюдений мало или классы хорошо разделены, а предположение о Гауссовом распределении обоснованно. Также, когда число классов больше 2
  6. Naive Bayes is useful when p is very large. Наивный Байс полезен в ситуации, когда число переменных очень большое.
  7. Несмотря на различия, логистическая регрессия и линейный дискриминантный анализ дают схожие результаты.
  8. logistic regression can also fi t quadratic boundaries like QDA, by explicitly including quadratic terms in the model логистическая регрессия также удовлетворяет требованиям квадратичного дискриминантного анализа за счет включения квадратов переменных в модель. 
* помогите перевести "low-dimensional views of the data" - данные низкой размерности?

2 комментария:

  1. "low-dimensional views of the data" - в данном контексте, наверное, стоит полагать, что речь идет о возможности отображения данных в пространстве меньшей размерности.

    ОтветитьУдалить
    Ответы
    1. да, я именно так и думаю, термин не могу подобрать.
      давайте использовать
      "данные в пространстве меньшей размерности"

      Удалить

рек