diff --git a/madyshev_egor_lab_1/main.py b/madyshev_egor_lab_1/main.py new file mode 100644 index 0000000..42b3f2c --- /dev/null +++ b/madyshev_egor_lab_1/main.py @@ -0,0 +1,51 @@ +import random +import numpy as np +from matplotlib import pyplot as plt +from matplotlib.colors import ListedColormap +from sklearn.model_selection import train_test_split +from sklearn.preprocessing import StandardScaler +from sklearn.datasets import make_moons, make_circles, make_classification +from sklearn.neural_network import MLPClassifier +from sklearn.linear_model import LinearRegression +from sklearn.preprocessing import PolynomialFeatures +from sklearn.linear_model import Perceptron + +rs = random.randrange(100) +X, y = make_moons(n_samples=200, noise=0.3, random_state=rs) +X_train, X_Test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=42) +print("Линейная регрессия") +linerModel = LinearRegression().fit(X_train, y_train) +print("результат модели на учебных данных =", linerModel.score(X_train, y_train)) +print("результат модели на тестовых данных =", linerModel.score(X_Test, y_test)) +print("Многослойный персептрон с 10-ю нейронами в скрытом слое") +mlp = MLPClassifier(hidden_layer_sizes=(10), alpha = 0.01, max_iter=2000).fit(X_train, y_train) +print("результат модели на учебных данных =", mlp.score(X_train, y_train)) +print("результат модели на тестовых данных =", mlp.score(X_Test, y_test)) +print("Персептрон ") +perceptron = Perceptron().fit(X_train, y_train) +print("результат модели на учебных данных =", perceptron.score(X_train, y_train)) +print("результат модели на тестовых данных =", perceptron.score(X_Test, y_test)) + +plt.xlabel("Свойство 1") +plt.ylabel("Свойство 2") +plt.title("Сгенерированные данные") +plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1) +plt.show() + +h = 0.01 +x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5 +y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5 +xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h)) + +def showPlot(name, model): + plt.title(name) + c = model.predict(np.c_[xx.ravel(), yy.ravel()]) + c = np.where(c >= 0.5, 1, 0) + c = c.reshape(xx.shape) + plt.contourf(xx, yy, c, cmap = plt.cm.Set1, alpha=0.2) + plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1) + plt.show() + +showPlot("Линейная регрессия", linerModel) +showPlot("Многослойный персептрон", mlp) +showPlot("Персептрон", perceptron) \ No newline at end of file diff --git a/madyshev_egor_lab_1/readme.md b/madyshev_egor_lab_1/readme.md new file mode 100644 index 0000000..6cdfbac --- /dev/null +++ b/madyshev_egor_lab_1/readme.md @@ -0,0 +1,40 @@ +# Задание +Используя код из пункта «Регуляризация и сеть прямого распространения» из методички (стр. 228), сгенерируйте определенный тип данных и сравните на нем 3 модели (по варианту). Постройте графики, отобразите качество моделей, объясните полученные результаты. +## Задание по варианту +Генерируемы данные: make_moons (noise=0.3, random_state=rs) +Модели: +* Линейную регрессию +* Многослойный персептрон с 10-ю нейронами в скрытом слое (alpha = 0.01) +* Персептрон +## Решение +### Запуск программы +Для запуска программы необходимо запустить файл main.py, содержащий код программы +### Используемые технологии +Программа использует следующие библиотеки: +- numpy - библиотека для работы с массивами и матрицами. +- matplotlib - библиотека для создания графиков и визуализации данных. +- sklearn - библиотека для машинного обучения и анализа данных. +### Что делает программа +Программа генерирует один из 100 случайных наборов данных. Данные состоят из двух полукругов для работы с алгоритмами кластеризации и классификации +Показывает окно с графиком и результаты работы моделей. +### Тесты +тесты проводились на наборах данных с 1 по 5 +Результаты берутся из результатов работы модели на тестовых данных +Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон +1 - 0.535 - 0.875 - 0.775 +2 - 0.454 - 0.9 - 0.85 +3 - 0.548 - 0.9 - 0.9 +4 - 0.58 - 0.85 - 0.825 +5 - 0.545 - 0.862 - 0.825 +Из результатов видно, что модель линейной регрессии показала себя хуже всего. Следом идет персептрон. И лучший результат показала модель многослойного персептрона с 10-ю нейронами в скрытом слое + +При увеличении объема генерируемых данных с 200 до 2000, можно заметить что результаты остались примерно на том же уровне +Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон +1 - 0.565 - 0.903 - 0.78 +2 - 0.534 - 0.919 - 0.82 +3 - 0.541 - 0.909 - 0.742 +4 - 0.524 - 0.856 - 0.845 +5 - 0.568 - 0.873 - 0.802 +Тесты с дополнительным увеличением объема данных, изменений в результатах не показали +Из результатов можно сделать вывод, что наиболее подходящей моделью для данного типа генерируемых данных из оттестированных моделей является Многослойный персептрон +Разница в результатах работы персептрона и многослойного персептрона имеется из-за того что многослойный персептрон имеет более сложную структуру, чем простой персептрон, и может обучаться более сложным функциям. Кроме того, многослойный персептрон используя несколько скрытых слоев, изучает более сложные зависимости между входными и выходными данными. \ No newline at end of file