Задача классификации методом опорных векторов
Автор: Семён Сигарев • Январь 20, 2026 • Контрольная работа • 974 Слов (4 Страниц) • 20 Просмотры
МИНОБРНАУКИ РОССИИ
Федеральное государственное бюджетное образовательное учреждение высшего образования
«Ижевский государственный технический университет имени М.Т. Калашникова»
(ФГБОУ ВО «ИжГТУ имени М. Т. Калашникова)
Факультет «Математика и естественные науки»
Кафедра «Высшая математика»
Самостоятельная работа №1
по дисциплине «Применение методов искусственного интеллекта в анализе данных и управлении»
на тему: «Задача классификации методом опорных векторов»
Вариант 10
Выполнил:
студент группы М25-621-1 Сигарев С.В.
Проверил:
д.ф.-м.н., профессор Тененев В.А.
Ижевск, 2025
Оглавление
Введение 3
1. Теория метода 4
2. Алгоритм и численная реализация алгоритма 7
Заключение 10
Список литературы 11
Введение
При анализе данных во многих случаях необходимо решать задачи регрессии. Задача регрессии заключается в установлении зависимостей непрерывных выходных переменных от значений входных переменных. Регрессионный анализ изначально базировался на получении уравнения линейной множественной регрессии с последующим обобщением на нелинейный случай. С развитием теории искусственных нейронных сетей большую популярность приобрели однонаправленные многослойные нейронные сети.
Очень часто в системе данных требуется сжатие информации. Рассмотренный в данной работе метод сжатия информации представляет собой снижение размерности входных признаков посредством выявления связей между ними.
- Теория метода
Задача классификации формулируется следующим образом. Имеется множество объектов. Каждый объект характеризуется набором свойств (𝑥1, … , 𝑥𝑛 ) и меткой принадлежности к классу 𝑞 из множества классов 𝑞 ∈ 𝑄. При известном наборе характеристик x некоторый объект необходимо отнести к какому-либо классу 𝑞 ∈ 𝑄. Свойства объекта могут быть булевыми, дискретными или непрерывными, а метку класса обычно представляют в виде номера класса, то есть дискретной переменной.
Рассмотрим задачу бинарной классификации. Имеющийся набор данных 𝑋 = {𝑥ℎ , 𝑞ℎ }, ℎ = ̅1̅,̅𝐻̅̅ содержит два класса 𝑞 ∈ {+1; −1}. Требуется построить поверхность, разделяющую все множество точек на два подмножества 𝑞 = 1 и 𝑞 = −1. Сначала предположим возможность линейного разделения, то есть, поверхность представляет собой разделительную гиперплоскость. Уравнение разделительной гиперплоскости в пространстве переменных 𝑥 ∈ 𝑅𝑛 представим в виде:[pic 1]
а линейный пороговый классификатор:
𝑞𝑆𝐿(𝑥) = 𝑠𝑖𝑔𝑛(𝑤𝑇𝑥 + 𝑏).
Коэффициенты 𝑤𝑗 , 𝑗 = ̅1̅̅, 𝑛̅̅; 𝑏 подбираются в процессе обучения.
Количество неправильно классифицированных точек определяется выражением[pic 2]
Выбор коэффициентов 𝑤𝑗 , 𝑏, обеспечивающих нулевую ошибку 𝑄𝑁 = 0, осуществляет линейное разделение точек на два класса. Линейное разделение из условия 𝑄𝑁 = 0 может быть не единственным. При 𝑄𝑁 ≠ 0 линейность разделения нарушается.
На рисунке 1 представлены два класса в двумерном пространстве. Класс q = 1 черные точки, класс q = -1 светлые точки. [pic 3]
Видно, что прямая линия, разделяющая две группы точек, не является единственной. Наиболее уверенная классификация обеспечивается, если точки разных классов максимально далеко находятся от разделительной линии. Это будет выполнено, если ширина М пустой полосы между точками разных классов будет максимальна. Коэффициенты 𝑤𝑗 , b можно пронормировать таким образом, чтобы 𝑤𝑇𝑥 + 𝑏 = 𝑞 в точках, ближайших к разделяющей классы полосе. В остальных точках условие:
...