Merge pull request 'abanin_daniil_lab_1' (#48) from abanin_daniil_lab_1 into main
Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/48
This commit is contained in:
commit
81874f0f84
47
abanin_daniil_lab_1/README.md
Normal file
47
abanin_daniil_lab_1/README.md
Normal file
@ -0,0 +1,47 @@
|
||||
## Лабораторная работа №1
|
||||
|
||||
### Работа с типовыми наборами данных и различными моделями
|
||||
|
||||
### ПИбд-41 Абанин Даниил
|
||||
|
||||
### Как запустить лабораторную работу:
|
||||
|
||||
* установить python, numpy, matplotlib, sklearn
|
||||
* запустить проект (стартовая точка класс lab1)
|
||||
|
||||
### Какие технологии использовались:
|
||||
|
||||
* Язык программирования `Python`,
|
||||
* Библиотеки numpy, matplotlib, sklearn
|
||||
* Среда разработки `PyCharm`
|
||||
|
||||
### Что делает лабораторная работа:
|
||||
|
||||
* Программа гененерирует данные с make_moonsmake_moons (noise=0.3, random_state=rs)
|
||||
* Сравнивает три типа моделей: инейная, полиномиальная, гребневая полиномиальная регрессии
|
||||
|
||||
### Примеры работы:
|
||||
|
||||
#### Результаты:
|
||||
MAE - средняя абсолютная ошибка, измеряет среднюю абсолютную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной
|
||||
MSE - средняя квадратическая ошибка, измеряет среднюю квадратичную разницу между прогнозируемыми значениями модели и фактическими значениями целевой переменной
|
||||
|
||||
Чем меньше значения показателей, тем лучше модель справляется с предсказанием
|
||||
|
||||
Линейная регрессия
|
||||
MAE 0.2959889435199454
|
||||
MSE 0.13997968555679302
|
||||
|
||||
Полиномиальная регрессия
|
||||
MAE 0.21662135861071705
|
||||
MSE 0.08198825629271855
|
||||
|
||||
Гребневая полиномиальная регрессия
|
||||
MAE 0.2102788716636562
|
||||
MSE 0.07440133949387796
|
||||
|
||||
Лучший результат показала модель **Гребневая полиномиальная регрессия**
|
||||
|
||||
![Lin](lin_reg.jpg)
|
||||
![Pol](pol_reg.jpg)
|
||||
![Greb](greb_reg.jpg)
|
BIN
abanin_daniil_lab_1/greb_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/greb_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 59 KiB |
66
abanin_daniil_lab_1/lab1.py
Normal file
66
abanin_daniil_lab_1/lab1.py
Normal file
@ -0,0 +1,66 @@
|
||||
from matplotlib import pyplot as plt
|
||||
from matplotlib.colors import ListedColormap
|
||||
from sklearn.linear_model import LinearRegression, Ridge
|
||||
from sklearn.model_selection import train_test_split
|
||||
from sklearn.pipeline import Pipeline
|
||||
from sklearn.preprocessing import PolynomialFeatures
|
||||
from sklearn.datasets import make_moons
|
||||
from sklearn import metrics
|
||||
|
||||
cm_bright = ListedColormap(['#8B0000', '#FF0000'])
|
||||
cm_bright1 = ListedColormap(['#FF4500', '#FFA500'])
|
||||
|
||||
|
||||
def create_moons():
|
||||
x, y = make_moons(noise=0.3, random_state=0)
|
||||
X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=.4, random_state=42)
|
||||
|
||||
linear_regretion(X_train, X_test, y_train, y_test)
|
||||
polynomial_regretion(X_train, X_test, y_train, y_test)
|
||||
ridge_regretion(X_train, X_test, y_train, y_test)
|
||||
|
||||
|
||||
def linear_regretion(x_train, x_test, y_train, y_test):
|
||||
model = LinearRegression().fit(x_train, y_train)
|
||||
y_predict = model.intercept_ + model.coef_ * x_test
|
||||
plt.title('Линейная регрессия')
|
||||
print('Линейная регрессия')
|
||||
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
|
||||
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||
plt.plot(x_test, y_predict, color='red')
|
||||
print('MAE', metrics.mean_absolute_error(y_test, y_predict[:, 1]))
|
||||
print('MSE', metrics.mean_squared_error(y_test, y_predict[:, 1]))
|
||||
plt.show()
|
||||
|
||||
|
||||
def polynomial_regretion(x_train, x_test, y_train, y_test):
|
||||
polynomial_features = PolynomialFeatures(degree=3)
|
||||
X_polynomial = polynomial_features.fit_transform(x_train, y_train)
|
||||
base_model = LinearRegression()
|
||||
base_model.fit(X_polynomial, y_train)
|
||||
y_predict = base_model.predict(X_polynomial)
|
||||
plt.title('Полиномиальная регрессия')
|
||||
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
|
||||
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||
plt.plot(x_train, y_predict, color='blue')
|
||||
plt.show()
|
||||
print('Полиномиальная регрессия')
|
||||
print('MAE', metrics.mean_absolute_error(y_train, y_predict))
|
||||
print('MSE', metrics.mean_squared_error(y_train, y_predict))
|
||||
|
||||
|
||||
def ridge_regretion(X_train, X_test, y_train, y_test):
|
||||
model = Pipeline([('poly', PolynomialFeatures(degree=3)), ('ridge', Ridge(alpha=1.0))])
|
||||
model.fit(X_train, y_train)
|
||||
y_predict = model.predict(X_test)
|
||||
plt.title('Гребневая полиномиальная регрессия')
|
||||
plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)
|
||||
plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright1, alpha=0.7)
|
||||
plt.plot(X_test, y_predict, color='blue')
|
||||
plt.show()
|
||||
print('Гребневая полиномиальная регрессия')
|
||||
print('MAE', metrics.mean_absolute_error(y_test, y_predict))
|
||||
print('MSE', metrics.mean_squared_error(y_test, y_predict))
|
||||
|
||||
|
||||
create_moons()
|
BIN
abanin_daniil_lab_1/lin_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/lin_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 30 KiB |
BIN
abanin_daniil_lab_1/pol_reg.jpg
Normal file
BIN
abanin_daniil_lab_1/pol_reg.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 63 KiB |
Loading…
Reference in New Issue
Block a user