Merge pull request 'kozlov_alexey_lab_1 ready' (#295) from kozlov_alexey_lab_1 into main

Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/295
This commit is contained in:
Alexey 2024-01-13 09:46:02 +04:00
commit d425132fa8
5 changed files with 126 additions and 0 deletions

View File

@ -0,0 +1,62 @@
# Лабораторная работа №1. Работа с типовыми наборами данных и различными моделями
## 14 вариант
___
### Задание:
Используя код из пункта «Регуляризация и сеть прямого распространения», сгенерируйте определенный тип данных и сравните на нем 3 модели (по варианту). Постройте графики, отобразите качество моделей, объясните полученные результаты.
### Данные по варианту:
- make_circles (noise=0.2, factor=0.5, random_state=rs)
### Модели по варианту:
- Линейная регрессия
- Персептрон
- Гребневая полиномиальная регрессия (со степенью 4, alpha = 1.0)
___
### Запуск
- Запустить файл lab1.py
### Используемые технологии
- Язык программирования **Python**
- Среда разработки **PyCharm**
- Библиотеки:
* sklearn
* matplotlib
### Описание программы
Программа генерирует набор данных с помощью функции make_circles()
с заданными по варианту параметрами. После этого происходит создание и обучение моделй, вывод в консоль
качества данных моделей по варианту и построение графикиков для этих моделей.
Оценка точности происходит при помощи MAE (средняя абсолютная ошибка, измеряет среднюю абсолютную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной) и MSE (средняя квадратическая ошибка, измеряет среднюю квадратичную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной). Модель с наименьшими показателями MSE и MAE считается наиболее приспособленной к задаче предсказания.
___
### Пример работы
![Graphics](lr.png)
```text
===> Линейная регрессия <===
MAE 0.5039063025033765
MSE 0.254199973993164
```
___
![Graphics](pers.png)
```text
===> Персептрон <===
MAE 0.5
MSE 0.5
```
___
![Graphics](pr.png)
```text
===> Гребневая полиномиальная регрессия <===
MAE 0.24796914724994906
MSE 0.07704666136671298
```
### Вывод
Моделью с наименьшими значениями MAE и MSE оказалась модель гребневой полиномиальной регресссии, следоватьельно ее можно назвать наиболее подходящей для задачи регрессии при данной конфигурации исходных данных.

View File

@ -0,0 +1,64 @@
from matplotlib import pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.linear_model import LinearRegression, Ridge, Perceptron
from sklearn.model_selection import train_test_split
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures
from sklearn.datasets import make_circles
from sklearn import metrics
cm_bright = ListedColormap(['#8B0000', '#FF0000'])
cm_bright1 = ListedColormap(['#FF4500', '#FFA500'])
def create_circles():
x, y = make_circles(noise=0.2, factor=0.5, random_state=0)
X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=42)
linear_regression(X_train, X_test, y_train, y_test)
perceptron(X_train, X_test, y_train, y_test)
ridge_regression(X_train, X_test, y_train, y_test)
def linear_regression(x_train, x_test, y_train, y_test):
model = LinearRegression().fit(x_train, y_train)
y_predict = model.intercept_ + model.coef_ * x_test
plt.title('Линейная регрессия')
print('Линейная регрессия')
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
plt.plot(x_test, y_predict, color='red')
print('MAE', metrics.mean_absolute_error(y_test, y_predict[:, 1]))
print('MSE', metrics.mean_squared_error(y_test, y_predict[:, 1]))
plt.show()
def perceptron(x_train, x_test, y_train, y_test):
model = Perceptron()
model.fit(x_train, y_train)
y_predict = model.predict(x_test)
plt.title('Персептрон')
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.8)
plt.plot(x_test, y_predict, color='red', linewidth=1)
plt.show()
print('Персептрон')
print('MAE', metrics.mean_absolute_error(y_test, y_predict))
print('MSE', metrics.mean_squared_error(y_test, y_predict))
def ridge_regression(X_train, X_test, y_train, y_test):
model = Pipeline([('poly', PolynomialFeatures(degree=3)), ('ridge', Ridge(alpha=1.0))])
model.fit(X_train, y_train)
y_predict = model.predict(X_test)
plt.title('Гребневая полиномиальная регрессия')
plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)
plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
plt.plot(X_test, y_predict, color='blue')
plt.show()
print('Гребневая полиномиальная регрессия')
print('MAE', metrics.mean_absolute_error(y_test, y_predict))
print('MSE', metrics.mean_squared_error(y_test, y_predict))
create_circles()

BIN
kozlov_alexey_lab_1/lr.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 33 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 50 KiB

BIN
kozlov_alexey_lab_1/pr.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 50 KiB