Что такое множественная линейная регрессия - MLR?
Множественная линейная регрессия (MLR), также известная просто как множественная регрессия, является статистическим методом, который использует несколько объясняющих переменных для прогнозирования результата переменной отклика. Целью множественной линейной регрессии (MLR) является моделирование линейной взаимосвязи между объясняющими (независимыми) переменными и ответной (зависимой) переменной.
По сути, множественная регрессия - это расширение обычной регрессии по методу наименьших квадратов (OLS), которая включает более одной объясняющей переменной.
Формула для множественной линейной регрессии
Yi = β0 + β1 xi1 + β2 xi2 +… + βp xip + ϵ где для i = n наблюдений: yi = зависимая переменная xi = расширительные переменные β0 = y-пересечение (постоянная термин) βp = коэффициенты наклона для каждой объясняющей переменнойϵ = термин ошибки модели (также известный как невязки)
Объясняя множественную линейную регрессию
Простая линейная регрессия - это функция, которая позволяет аналитику или статистику делать прогнозы относительно одной переменной на основе информации, известной о другой переменной. Линейная регрессия может использоваться только тогда, когда одна имеет две непрерывные переменные - независимую переменную и зависимую переменную. Независимая переменная - это параметр, который используется для вычисления зависимой переменной или результата. Модель множественной регрессии распространяется на несколько объясняющих переменных.
Модель множественной регрессии основана на следующих предположениях:
- Между зависимыми переменными и независимыми переменными существует линейная зависимость. Независимые переменные не слишком сильно коррелируют друг с другом. I Наблюдения выбираются независимо и случайным образом из совокупности. Остатки должны обычно распределяться со средним значением 0 и дисперсией. σ.
Коэффициент детерминации (R-квадрат) - это статистическая метрика, которая используется для измерения того, насколько вариация в результатах может быть объяснена вариацией независимых переменных. R 2 всегда увеличивается, так как в модель MLR добавляется больше предикторов, даже если предикторы могут быть не связаны с выходной переменной.
Таким образом, сам по себе R 2 нельзя использовать для определения того, какие предикторы следует включить в модель, а какие следует исключить. R 2 может быть только между 0 и 1, где 0 указывает, что результат не может быть предсказан ни одной из независимых переменных, а 1 указывает, что результат может быть предсказан без ошибки из независимых переменных.
При интерпретации результатов множественной регрессии бета-коэффициенты действительны, в то время как все остальные переменные остаются неизменными («все остальные равны»). Выходные данные множественной регрессии могут отображаться по горизонтали в виде уравнения или по вертикали в виде таблицы.
Пример использования множественной линейной регрессии
Например, аналитик может захотеть узнать, как движение рынка влияет на цену Exxon Mobil (XOM). В этом случае его линейное уравнение будет иметь значение индекса S & P 500 в качестве независимой переменной или предиктора и цену XOM в качестве зависимой переменной.
На самом деле, существует множество факторов, которые предсказывают исход события. Например, ценовое движение Exxon Mobil зависит не только от показателей рынка в целом. Другие предикторы, такие как цена на нефть, процентные ставки и движение цен на нефтяные фьючерсы, могут повлиять на цену XOM и цены акций других нефтяных компаний. Чтобы понять взаимосвязь, в которой присутствует более двух переменных, используется множественная линейная регрессия.
Множественная линейная регрессия (MLR) используется для определения математической зависимости между рядом случайных величин. Другими словами, MLR исследует, как несколько независимых переменных связаны с одной зависимой переменной. После того как каждый из независимых факторов был определен для прогнозирования зависимой переменной, информация о нескольких переменных может использоваться для создания точного прогноза уровня воздействия, который они оказывают на выходную переменную. Модель создает отношение в форме прямой (линейной) линии, которая наилучшим образом аппроксимирует все отдельные точки данных.
Ссылаясь на уравнение MLR выше, в нашем примере:
- y i = зависимая переменная: цена XOMx i1 = процентные ставкиx i2 = цена на нефтьx i3 = значение индекса S & P 500x i4 = цена нефтяного фьючерсаB 0 = пересечение y в момент времени нольB 1 = коэффициент регрессии, который измеряет изменение единицы в зависимом переменная при изменении x i1 - изменение цены XOM при изменении процентных ставокB 2 = значение коэффициента, которое измеряет изменение единицы в зависимой переменной при изменении x i2 - изменение цены XOM при изменении цен на нефть
Оценки наименьших квадратов, B 0, B 1, B 2… B p, обычно рассчитываются статистическим программным обеспечением. Столько переменных может быть включено в регрессионную модель, в которой каждая независимая переменная дифференцируется числом - 1, 2, 3, 4… p. Модель множественной регрессии позволяет аналитику прогнозировать результат на основе информации, предоставленной по нескольким объясняющим переменным.
Тем не менее, модель не всегда идеально точна, так как каждая точка данных может немного отличаться от результата, предсказанного моделью. Остаточная стоимость E, которая представляет собой разницу между фактическим результатом и прогнозируемым результатом, включена в модель для учета таких незначительных изменений.
Предполагая, что мы запускаем нашу модель регрессии цен XOM через программное обеспечение для вычисления статистики, которое возвращает эти выходные данные:
Аналитик интерпретировал бы этот результат так, что, если другие переменные будут оставаться постоянными, цена XOM увеличится на 7, 8%, если цена нефти на рынках увеличится на 1%. Модель также показывает, что цена XOM снизится на 1, 5% после повышения процентных ставок на 1%. R 2 указывает, что 86, 5% колебаний цены акций Exxon Mobil можно объяснить изменениями процентной ставки, цены на нефть, фьючерсов на нефть и индекса S & P 500.
Ключевые вынос
- Множественная линейная регрессия (MLR), также известная просто как множественная регрессия, является статистическим методом, который использует несколько объясняющих переменных для предсказания результата переменной ответа. Множественная регрессия - это расширение линейной (OLS) регрессии, которая использует только одну объясняющую переменную. MLR широко используется в эконометрике и финансовом заключении.
Разница между линейной и множественной регрессией
Линейная (OLS) регрессия сравнивает реакцию зависимой переменной с учетом изменения некоторой объясняющей переменной. Однако редко, когда зависимая переменная объясняется только одной переменной. В этом случае аналитик использует множественную регрессию, которая пытается объяснить зависимую переменную, используя более одной независимой переменной. Множественные регрессии могут быть линейными и нелинейными.
Множественные регрессии основаны на предположении, что между зависимыми и независимыми переменными существует линейная зависимость. Это также предполагает отсутствие значительной корреляции между независимыми переменными.
