Более того, исключение элементов данных может привести к искаженным результатам в отношении отдельных групп. Например, коты могут менее охотно, чем другие, раскрывать информацию о количестве приобретаемых фруктов. Если мы удалим такие покупки, коты будут недостаточно представлены в итоговой выборке.
Этот метод называется градиентным спуском (gradient descent) и используется в случаях, когда параметры нельзя получить напрямую.
Вкратце: алгоритм градиентного спуска делает первоначальное предположение о наборе весовых составляющих, после чего начинается итеративный процесс их применения к каждому элементу данных для прогнозирования, а затем они перенастраиваются для снижения общей ошибки прогнозирования.
Можно ли из множества неверных ответов получить правильный? Да! Хотя это кажется нелогичным, такое возможно. Более того, это ожидается от самых лучших прогностических моделей.
Метод опорных векторов способен классифицировать данные только на две группы за раз. Если групп три и более, то необходимо применять итеративно для выявления каждой отдельной группы метод, который называется многоклассовая классификация (multi-class SVM).