madyshev_egor_lab_1 is ready
This commit is contained in:
parent
06116369e5
commit
dfc7f8c06f
51
madyshev_egor_lab_1/main.py
Normal file
51
madyshev_egor_lab_1/main.py
Normal file
@ -0,0 +1,51 @@
|
|||||||
|
import random
|
||||||
|
import numpy as np
|
||||||
|
from matplotlib import pyplot as plt
|
||||||
|
from matplotlib.colors import ListedColormap
|
||||||
|
from sklearn.model_selection import train_test_split
|
||||||
|
from sklearn.preprocessing import StandardScaler
|
||||||
|
from sklearn.datasets import make_moons, make_circles, make_classification
|
||||||
|
from sklearn.neural_network import MLPClassifier
|
||||||
|
from sklearn.linear_model import LinearRegression
|
||||||
|
from sklearn.preprocessing import PolynomialFeatures
|
||||||
|
from sklearn.linear_model import Perceptron
|
||||||
|
|
||||||
|
rs = random.randrange(100)
|
||||||
|
X, y = make_moons(n_samples=200, noise=0.3, random_state=rs)
|
||||||
|
X_train, X_Test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=42)
|
||||||
|
print("Линейная регрессия")
|
||||||
|
linerModel = LinearRegression().fit(X_train, y_train)
|
||||||
|
print("результат модели на учебных данных =", linerModel.score(X_train, y_train))
|
||||||
|
print("результат модели на тестовых данных =", linerModel.score(X_Test, y_test))
|
||||||
|
print("Многослойный персептрон с 10-ю нейронами в скрытом слое")
|
||||||
|
mlp = MLPClassifier(hidden_layer_sizes=(10), alpha = 0.01, max_iter=2000).fit(X_train, y_train)
|
||||||
|
print("результат модели на учебных данных =", mlp.score(X_train, y_train))
|
||||||
|
print("результат модели на тестовых данных =", mlp.score(X_Test, y_test))
|
||||||
|
print("Персептрон ")
|
||||||
|
perceptron = Perceptron().fit(X_train, y_train)
|
||||||
|
print("результат модели на учебных данных =", perceptron.score(X_train, y_train))
|
||||||
|
print("результат модели на тестовых данных =", perceptron.score(X_Test, y_test))
|
||||||
|
|
||||||
|
plt.xlabel("Свойство 1")
|
||||||
|
plt.ylabel("Свойство 2")
|
||||||
|
plt.title("Сгенерированные данные")
|
||||||
|
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
|
||||||
|
plt.show()
|
||||||
|
|
||||||
|
h = 0.01
|
||||||
|
x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
|
||||||
|
y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
|
||||||
|
xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))
|
||||||
|
|
||||||
|
def showPlot(name, model):
|
||||||
|
plt.title(name)
|
||||||
|
c = model.predict(np.c_[xx.ravel(), yy.ravel()])
|
||||||
|
c = np.where(c >= 0.5, 1, 0)
|
||||||
|
c = c.reshape(xx.shape)
|
||||||
|
plt.contourf(xx, yy, c, cmap = plt.cm.Set1, alpha=0.2)
|
||||||
|
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
|
||||||
|
plt.show()
|
||||||
|
|
||||||
|
showPlot("Линейная регрессия", linerModel)
|
||||||
|
showPlot("Многослойный персептрон", mlp)
|
||||||
|
showPlot("Персептрон", perceptron)
|
40
madyshev_egor_lab_1/readme.md
Normal file
40
madyshev_egor_lab_1/readme.md
Normal file
@ -0,0 +1,40 @@
|
|||||||
|
# Задание
|
||||||
|
Используя код из пункта «Регуляризация и сеть прямого распространения» из методички (стр. 228), сгенерируйте определенный тип данных и сравните на нем 3 модели (по варианту). Постройте графики, отобразите качество моделей, объясните полученные результаты.
|
||||||
|
## Задание по варианту
|
||||||
|
Генерируемы данные: make_moons (noise=0.3, random_state=rs)
|
||||||
|
Модели:
|
||||||
|
* Линейную регрессию
|
||||||
|
* Многослойный персептрон с 10-ю нейронами в скрытом слое (alpha = 0.01)
|
||||||
|
* Персептрон
|
||||||
|
## Решение
|
||||||
|
### Запуск программы
|
||||||
|
Для запуска программы необходимо запустить файл main.py, содержащий код программы
|
||||||
|
### Используемые технологии
|
||||||
|
Программа использует следующие библиотеки:
|
||||||
|
- numpy - библиотека для работы с массивами и матрицами.
|
||||||
|
- matplotlib - библиотека для создания графиков и визуализации данных.
|
||||||
|
- sklearn - библиотека для машинного обучения и анализа данных.
|
||||||
|
### Что делает программа
|
||||||
|
Программа генерирует один из 100 случайных наборов данных. Данные состоят из двух полукругов для работы с алгоритмами кластеризации и классификации
|
||||||
|
Показывает окно с графиком и результаты работы моделей.
|
||||||
|
### Тесты
|
||||||
|
тесты проводились на наборах данных с 1 по 5
|
||||||
|
Результаты берутся из результатов работы модели на тестовых данных
|
||||||
|
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
|
||||||
|
1 - 0.535 - 0.875 - 0.775
|
||||||
|
2 - 0.454 - 0.9 - 0.85
|
||||||
|
3 - 0.548 - 0.9 - 0.9
|
||||||
|
4 - 0.58 - 0.85 - 0.825
|
||||||
|
5 - 0.545 - 0.862 - 0.825
|
||||||
|
Из результатов видно, что модель линейной регрессии показала себя хуже всего. Следом идет персептрон. И лучший результат показала модель многослойного персептрона с 10-ю нейронами в скрытом слое
|
||||||
|
|
||||||
|
При увеличении объема генерируемых данных с 200 до 2000, можно заметить что результаты остались примерно на том же уровне
|
||||||
|
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
|
||||||
|
1 - 0.565 - 0.903 - 0.78
|
||||||
|
2 - 0.534 - 0.919 - 0.82
|
||||||
|
3 - 0.541 - 0.909 - 0.742
|
||||||
|
4 - 0.524 - 0.856 - 0.845
|
||||||
|
5 - 0.568 - 0.873 - 0.802
|
||||||
|
Тесты с дополнительным увеличением объема данных, изменений в результатах не показали
|
||||||
|
Из результатов можно сделать вывод, что наиболее подходящей моделью для данного типа генерируемых данных из оттестированных моделей является Многослойный персептрон
|
||||||
|
Разница в результатах работы персептрона и многослойного персептрона имеется из-за того что многослойный персептрон имеет более сложную структуру, чем простой персептрон, и может обучаться более сложным функциям. Кроме того, многослойный персептрон используя несколько скрытых слоев, изучает более сложные зависимости между входными и выходными данными.
|
Loading…
Reference in New Issue
Block a user