Что такое нелинейная регрессия
Нелинейная регрессия - это форма регрессионного анализа, в которой данные подгоняются к модели и затем выражаются в виде математической функции. Простая линейная регрессия связывает две переменные (X и Y) с прямой линией (y = mx + b), в то время как нелинейная регрессия должна генерировать линию (обычно кривую), как если бы каждое значение Y было случайной величиной. Цель модели - сделать сумму квадратов как можно меньше. Сумма квадратов является мерой, которая отслеживает, насколько наблюдения отличаются от среднего значения набора данных. Он рассчитывается путем нахождения разницы между средним значением и каждой точкой данных в наборе. Затем каждое из этих различий возводится в квадрат. Наконец, все квадратные фигуры складываются вместе. Чем меньше сумма этих квадратов, тем лучше функция соответствует точкам данных в наборе. Нелинейная регрессия использует логарифмические функции, тригонометрические функции, экспоненциальные функции и другие методы подбора.
Разрушение нелинейной регрессии
Нелинейное регрессионное моделирование аналогично линейному регрессионному моделированию в том, что оба стремятся графически отследить определенный отклик от набора переменных. Нелинейные модели сложнее разработать, чем линейные модели, потому что функция создается с помощью ряда приближений (итераций), которые могут быть получены методом проб и ошибок. Математики используют несколько признанных методов, таких как метод Гаусса-Ньютона и метод Левенберга-Марквардта.
