tepechin_kirill_lab_1 #210

Merged
Alexey merged 5 commits from tepechin_kirill_lab_1 into main 2023-12-05 22:52:06 +04:00
3 changed files with 109 additions and 0 deletions

View File

@ -0,0 +1,35 @@
## Лабораторная работа №1, ПИбд-42 Тепечин Кирилл, Вариант 26(5)
### Задание
#### Данные:
make_circles (noise=0.2, factor=0.5, random_state=rs)
#### Модели:
* Линейная регрессия
* Полиномиальная регрессия (со степенью 4)
* Гребневая полиномиальная регрессия (со степенью 4, alpha = 1.0)
### Как запустить лабораторную работу:
Для запуска лабораторной работы необходимо запустить файл lab1.py
### Используемые технологии:
* Python 3.12
* numpy
* matplotlib
* scikit-learn
### Что делает лабораторная работа:
Эта лабораторная работа создает и сравнивает различные модели регрессии для сгенерированного набора данных, оценивая их производительность на основе среднеквадратичной ошибки и визуализируя их предсказания на графиках.
### Результат:
* *Линейная регрессия*, среднеквадратичная ошибка: 0.29507570583195913
* *Полиноминальная регрессия*, среднеквадратичная ошибка: 0.1803255642844966
* *Гребневая полиномиальная регрессия*, среднеквадратичная ошибка: 0.17274375314846807
### Вывод
Самое маленькое значение mse у *Гребневая полиномиальная регрессия*
### График
![График](plots.png)

View File

@ -0,0 +1,74 @@
import matplotlib.pyplot as plt
import numpy as np
from matplotlib.colors import ListedColormap
from sklearn.datasets import make_circles
from sklearn.linear_model import LinearRegression
from sklearn.linear_model import Ridge
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import PolynomialFeatures, StandardScaler
rs = 42
X, y = make_circles(noise=0.2, factor=0.5, random_state=rs)
X = StandardScaler().fit_transform(X)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4, random_state=rs)
# Инициализируем модели
linear_model = LinearRegression()
poly_model = make_pipeline(PolynomialFeatures(4), LinearRegression())
ridge_model = make_pipeline(PolynomialFeatures(4), Ridge(alpha=1.0))
# Обучаем модели
linear_model.fit(X_train, y_train)
poly_model.fit(X_train, y_train)
ridge_model.fit(X_train, y_train)
# Предсказываем значения для тестового набора
y_pred_linear = linear_model.predict(X_test)
y_pred_poly = poly_model.predict(X_test)
y_pred_ridge = ridge_model.predict(X_test)
# Качество моделей
mse_linear = mean_squared_error(y_test, y_pred_linear)
mse_poly = mean_squared_error(y_test, y_pred_poly)
mse_ridge = mean_squared_error(y_test, y_pred_ridge)
models_data = [(linear_model, "Линейная", mse_linear), (poly_model, "Полиномиальная", mse_poly),
(ridge_model, "Греб. полиномиальная", mse_ridge)]
# Печатаем MSE
print(f"mse линейная: {mse_linear}")
print(f"mse полиномиальная: {mse_poly}")
print(f"mse гребневая полиномиальная: {mse_ridge}")
cm = plt.cm.RdBu
cm_bright = ListedColormap(['#FF0000', '#0000FF'])
fig, axs = plt.subplots(1, 3, figsize=(15, 7))
fig.suptitle('Сравнение регрессионных моделей')
# Функция отрисовки моделей
def draw_plot(model_data, i):
h = .02 # шаг регулярной сетки
x0_min, x0_max = X[:, 0].min() - .5, X[:, 0].max() + .5
x1_min, x1_max = X[:, 1].min() - .5, X[:, 1].max() + .5
xx0, xx1 = np.meshgrid(np.arange(x0_min, x0_max, h), np.arange(x1_min, x1_max, h))
Z = model_data[0].predict(np.c_[xx0.ravel(), xx1.ravel()]) # 3
Z = Z.reshape(xx0.shape)
axs[i].contourf(xx0, xx1, Z, cmap=cm, alpha=.8)
axs[i].set_xlim(xx0.min(), xx0.max())
axs[i].set_ylim(xx0.min(), xx1.max())
axs[i].set_xticks(())
axs[i].set_yticks(())
axs[i].set_title(model_data[1])
axs[i].text(xx0.max() - .3, xx1.min() + .3, ('%.2f' % model_data[2]).lstrip('0'),
size=15, horizontalalignment='right')
axs[i].scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, alpha=0.6)
for i, model_data in enumerate(models_data):
draw_plot(model_data, i)
plt.savefig("plots.png")
plt.show()

Binary file not shown.

After

Width:  |  Height:  |  Size: 69 KiB