Що таке опорна векторна регресія для прогнозування часових рядів?

Підтримуюча векторна регресія (SVR) є потужний інструмент для прогнозування часових рядів. Використовуючи принципи Support Vector Machines, SVR може фіксувати нелінійні залежності та робити точні прогнози. 9 липня 2023 р.

SVR – це техніка, яка використовується для прогнозування безперервних значень. У прогнозуванні часових рядів за допомогою SVR це вважається завданням регресії. SVR працює, малюючи лінію (у простіших випадках) або поверхню (у більш складних ситуаціях), яка найкраще відповідає точкам даних.

SVM є відносно новою нелінійною технікою в галузі хемометрії та було показано, що він добре працює для завдань класифікації [2], регресії [3] та прогнозування часових рядів [4].

Підтримуюча векторна регресія (SVR) є алгоритм машинного навчання, який використовується для регресійного аналізу. Модель SVR у машинному навчанні має на меті знайти функцію, яка наближено визначає зв’язок між вхідними змінними та постійною цільовою змінною, мінімізуючи помилку передбачення.

Підтримуюча векторна регресія – це контрольований алгоритм навчання, який використовується для прогнозування дискретні значення. Підтримка векторної регресії використовує той самий принцип, що й SVM. Основна ідея SVR полягає в тому, щоб знайти найкращу лінію. У SVR пряма найкращого підходу — це гіперплощина, яка має максимальну кількість точок.

SVM намагається знайти «найкращий» запас (відстань між лінією та опорними векторами), який розділяє класи, і це зменшує ризик помилки в даних, тоді як логістична регресія цього не робить, натомість вона може мати різні межі рішень з різними вагами. які знаходяться поблизу оптимальної точки.