Merge pull request 'madyshev_egor_lab_1 is ready' (#17) from madyshev_egor_lab_1 into main

Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/17
This commit is contained in:
Alexey 2023-10-08 13:46:18 +04:00
commit 4e17d37a32
2 changed files with 91 additions and 0 deletions

View File

@ -0,0 +1,51 @@
import random
import numpy as np
from matplotlib import pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_moons, make_circles, make_classification
from sklearn.neural_network import MLPClassifier
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import Perceptron
rs = random.randrange(100)
X, y = make_moons(n_samples=200, noise=0.3, random_state=rs)
X_train, X_Test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=42)
print("Линейная регрессия")
linerModel = LinearRegression().fit(X_train, y_train)
print("результат модели на учебных данных =", linerModel.score(X_train, y_train))
print("результат модели на тестовых данных =", linerModel.score(X_Test, y_test))
print("Многослойный персептрон с 10-ю нейронами в скрытом слое")
mlp = MLPClassifier(hidden_layer_sizes=(10), alpha = 0.01, max_iter=2000).fit(X_train, y_train)
print("результат модели на учебных данных =", mlp.score(X_train, y_train))
print("результат модели на тестовых данных =", mlp.score(X_Test, y_test))
print("Персептрон ")
perceptron = Perceptron().fit(X_train, y_train)
print("результат модели на учебных данных =", perceptron.score(X_train, y_train))
print("результат модели на тестовых данных =", perceptron.score(X_Test, y_test))
plt.xlabel("Свойство 1")
plt.ylabel("Свойство 2")
plt.title("Сгенерированные данные")
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
plt.show()
h = 0.01
x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))
def showPlot(name, model):
plt.title(name)
c = model.predict(np.c_[xx.ravel(), yy.ravel()])
c = np.where(c >= 0.5, 1, 0)
c = c.reshape(xx.shape)
plt.contourf(xx, yy, c, cmap = plt.cm.Set1, alpha=0.2)
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
plt.show()
showPlot("Линейная регрессия", linerModel)
showPlot("Многослойный персептрон", mlp)
showPlot("Персептрон", perceptron)

View File

@ -0,0 +1,40 @@
# Задание
Используя код из пункта «Регуляризация и сеть прямого распространения» из методички (стр. 228), сгенерируйте определенный тип данных и сравните на нем 3 модели (по варианту). Постройте графики, отобразите качество моделей, объясните полученные результаты.
## Задание по варианту
Генерируемы данные: make_moons (noise=0.3, random_state=rs)
Модели:
* Линейную регрессию
* Многослойный персептрон с 10-ю нейронами в скрытом слое (alpha = 0.01)
* Персептрон
## Решение
### Запуск программы
Для запуска программы необходимо запустить файл main.py, содержащий код программы
### Используемые технологии
Программа использует следующие библиотеки:
- numpy - библиотека для работы с массивами и матрицами.
- matplotlib - библиотека для создания графиков и визуализации данных.
- sklearn - библиотека для машинного обучения и анализа данных.
### Что делает программа
Программа генерирует один из 100 случайных наборов данных. Данные состоят из двух полукругов для работы с алгоритмами кластеризации и классификации
Показывает окно с графиком и результаты работы моделей.
### Тесты
тесты проводились на наборах данных с 1 по 5
Результаты берутся из результатов работы модели на тестовых данных
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
1 - 0.535 - 0.875 - 0.775
2 - 0.454 - 0.9 - 0.85
3 - 0.548 - 0.9 - 0.9
4 - 0.58 - 0.85 - 0.825
5 - 0.545 - 0.862 - 0.825
Из результатов видно, что модель линейной регрессии показала себя хуже всего. Следом идет персептрон. И лучший результат показала модель многослойного персептрона с 10-ю нейронами в скрытом слое
При увеличении объема генерируемых данных с 200 до 2000, можно заметить что результаты остались примерно на том же уровне
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
1 - 0.565 - 0.903 - 0.78
2 - 0.534 - 0.919 - 0.82
3 - 0.541 - 0.909 - 0.742
4 - 0.524 - 0.856 - 0.845
5 - 0.568 - 0.873 - 0.802
Тесты с дополнительным увеличением объема данных, изменений в результатах не показали
Из результатов можно сделать вывод, что наиболее подходящей моделью для данного типа генерируемых данных из оттестированных моделей является Многослойный персептрон
Разница в результатах работы персептрона и многослойного персептрона имеется из-за того что многослойный персептрон имеет более сложную структуру, чем простой персептрон, и может обучаться более сложным функциям. Кроме того, многослойный персептрон используя несколько скрытых слоев, изучает более сложные зависимости между входными и выходными данными.