abanin_daniil_lab_1 #48
47
abanin_daniil_lab_1/README.md
Normal file
47
abanin_daniil_lab_1/README.md
Normal file
@ -0,0 +1,47 @@
|
|||||||
|
## Лабораторная работа №1
|
||||||
|
|
||||||
|
### Работа с типовыми наборами данных и различными моделями
|
||||||
|
|
||||||
|
### ПИбд-41 Абанин Даниил
|
||||||
|
|
||||||
|
### Как запустить лабораторную работу:
|
||||||
|
|
||||||
|
* установить python, numpy, matplotlib, sklearn
|
||||||
|
* запустить проект (стартовая точка класс lab1)
|
||||||
|
|
||||||
|
### Какие технологии использовались:
|
||||||
|
|
||||||
|
* Язык программирования `Python`,
|
||||||
|
* Библиотеки numpy, matplotlib, sklearn
|
||||||
|
* Среда разработки `PyCharm`
|
||||||
|
|
||||||
|
### Что делает лабораторная работа:
|
||||||
|
|
||||||
|
* Программа гененерирует данные с make_moonsmake_moons (noise=0.3, random_state=rs)
|
||||||
|
* Сравнивает три типа моделей: инейная, полиномиальная, гребневая полиномиальная регрессии
|
||||||
|
|
||||||
|
### Примеры работы:
|
||||||
|
|
||||||
|
#### Результаты:
|
||||||
|
MAE - средняя абсолютная ошибка, измеряет среднюю абсолютную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной
|
||||||
|
MSE - средняя квадратическая ошибка, измеряет среднюю квадратичную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной
|
||||||
|
|
||||||
|
Чем меньше значения показателей, тем лучше модель справляется с предсказанием
|
||||||
|
|
||||||
|
Линейная регрессия
|
||||||
|
MAE 0.2959889435199454
|
||||||
|
MSE 0.13997968555679302
|
||||||
|
|
||||||
|
Полиномиальная регрессия
|
||||||
|
MAE 0.21662135861071705
|
||||||
|
MSE 0.08198825629271855
|
||||||
|
|
||||||
|
Гребневая полиномиальная регрессия
|
||||||
|
MAE 0.2102788716636562
|
||||||
|
MSE 0.07440133949387796
|
||||||
|
|
||||||
|
Лучший результат показала модель **Гребневая полиномиальная регрессия**
|
||||||
|
|
||||||
|
![Lin](lin_reg.jpg)
|
||||||
|
![Pol](pol_reg.jpg)
|
||||||
|
![Greb](greb_reg.jpg)
|
BIN
abanin_daniil_lab_1/greb_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/greb_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 59 KiB |
66
abanin_daniil_lab_1/lab1.py
Normal file
66
abanin_daniil_lab_1/lab1.py
Normal file
@ -0,0 +1,66 @@
|
|||||||
|
from matplotlib import pyplot as plt
|
||||||
|
from matplotlib.colors import ListedColormap
|
||||||
|
from sklearn.linear_model import LinearRegression, Ridge
|
||||||
|
from sklearn.model_selection import train_test_split
|
||||||
|
from sklearn.pipeline import Pipeline
|
||||||
|
from sklearn.preprocessing import PolynomialFeatures
|
||||||
|
from sklearn.datasets import make_moons
|
||||||
|
from sklearn import metrics
|
||||||
|
|
||||||
|
cm_bright = ListedColormap(['#8B0000', '#FF0000'])
|
||||||
|
cm_bright1 = ListedColormap(['#FF4500', '#FFA500'])
|
||||||
|
|
||||||
|
|
||||||
|
def create_moons():
|
||||||
|
x, y = make_moons(noise=0.3, random_state=0)
|
||||||
|
X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=.4, random_state=42)
|
||||||
|
|
||||||
|
linear_regretion(X_train, X_test, y_train, y_test)
|
||||||
|
polynomial_regretion(X_train, X_test, y_train, y_test)
|
||||||
|
ridge_regretion(X_train, X_test, y_train, y_test)
|
||||||
|
|
||||||
|
|
||||||
|
def linear_regretion(x_train, x_test, y_train, y_test):
|
||||||
|
model = LinearRegression().fit(x_train, y_train)
|
||||||
|
y_predict = model.intercept_ + model.coef_ * x_test
|
||||||
|
plt.title('Линейная регрессия')
|
||||||
|
print('Линейная регрессия')
|
||||||
|
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
|
||||||
|
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||||
|
plt.plot(x_test, y_predict, color='red')
|
||||||
|
print('MAE', metrics.mean_absolute_error(y_test, y_predict[:, 1]))
|
||||||
|
print('MSE', metrics.mean_squared_error(y_test, y_predict[:, 1]))
|
||||||
|
plt.show()
|
||||||
|
|
||||||
|
|
||||||
|
def polynomial_regretion(x_train, x_test, y_train, y_test):
|
||||||
|
polynomial_features = PolynomialFeatures(degree=3)
|
||||||
|
X_polynomial = polynomial_features.fit_transform(x_train, y_train)
|
||||||
|
base_model = LinearRegression()
|
||||||
|
base_model.fit(X_polynomial, y_train)
|
||||||
|
y_predict = base_model.predict(X_polynomial)
|
||||||
|
plt.title('Полиномиальная регрессия')
|
||||||
|
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
|
||||||
|
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||||
|
plt.plot(x_train, y_predict, color='blue')
|
||||||
|
plt.show()
|
||||||
|
print('Полиномиальная регрессия')
|
||||||
|
print('MAE', metrics.mean_absolute_error(y_train, y_predict))
|
||||||
|
print('MSE', metrics.mean_squared_error(y_train, y_predict))
|
||||||
|
|
||||||
|
|
||||||
|
def ridge_regretion(X_train, X_test, y_train, y_test):
|
||||||
|
model = Pipeline([('poly', PolynomialFeatures(degree=3)), ('ridge', Ridge(alpha=1.0))])
|
||||||
|
model.fit(X_train, y_train)
|
||||||
|
y_predict = model.predict(X_test)
|
||||||
|
plt.title('Гребневая полиномиальная регрессия')
|
||||||
|
plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)
|
||||||
|
plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||||
|
plt.plot(X_test, y_predict, color='blue')
|
||||||
|
plt.show()
|
||||||
|
print('Гребневая полиномиальная регрессия')
|
||||||
|
print('MAE', metrics.mean_absolute_error(y_test, y_predict))
|
||||||
|
print('MSE', metrics.mean_squared_error(y_test, y_predict))
|
||||||
|
|
||||||
|
|
||||||
|
create_moons()
|
BIN
abanin_daniil_lab_1/lin_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/lin_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 30 KiB |
BIN
abanin_daniil_lab_1/pol_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/pol_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 63 KiB |
Loading…
Reference in New Issue
Block a user