zhelepov_alex_lab_1 is ready
This commit is contained in:
commit
e335686050
51
zhelepov_alex_lab_1/main.py
Normal file
51
zhelepov_alex_lab_1/main.py
Normal file
@ -0,0 +1,51 @@
|
||||
import random
|
||||
import numpy as np
|
||||
from matplotlib import pyplot as plt
|
||||
from matplotlib.colors import ListedColormap
|
||||
from sklearn.model_selection import train_test_split
|
||||
from sklearn.preprocessing import StandardScaler
|
||||
from sklearn.datasets import make_moons, make_circles, make_classification
|
||||
from sklearn.neural_network import MLPClassifier
|
||||
from sklearn.linear_model import LinearRegression
|
||||
from sklearn.preprocessing import PolynomialFeatures
|
||||
from sklearn.linear_model import Perceptron
|
||||
|
||||
rs = random.randrange(100)
|
||||
X, y = make_moons(n_samples=200, noise=0.3, random_state=rs)
|
||||
X_train, X_Test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=42)
|
||||
print("Линейная регрессия")
|
||||
linerModel = LinearRegression().fit(X_train, y_train)
|
||||
print("результат модели на учебных данных =", linerModel.score(X_train, y_train))
|
||||
print("результат модели на тестовых данных =", linerModel.score(X_Test, y_test))
|
||||
print("Многослойный персептрон с 10-ю нейронами в скрытом слое")
|
||||
mlp = MLPClassifier(hidden_layer_sizes=(10), alpha = 0.01, max_iter=2000).fit(X_train, y_train)
|
||||
print("результат модели на учебных данных =", mlp.score(X_train, y_train))
|
||||
print("результат модели на тестовых данных =", mlp.score(X_Test, y_test))
|
||||
print("Персептрон ")
|
||||
perceptron = Perceptron().fit(X_train, y_train)
|
||||
print("результат модели на учебных данных =", perceptron.score(X_train, y_train))
|
||||
print("результат модели на тестовых данных =", perceptron.score(X_Test, y_test))
|
||||
|
||||
plt.xlabel("Свойство 1")
|
||||
plt.ylabel("Свойство 2")
|
||||
plt.title("Сгенерированные данные")
|
||||
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
|
||||
plt.show()
|
||||
|
||||
h = 0.01
|
||||
x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
|
||||
y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
|
||||
xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))
|
||||
|
||||
def showPlot(name, model):
|
||||
plt.title(name)
|
||||
c = model.predict(np.c_[xx.ravel(), yy.ravel()])
|
||||
c = np.where(c >= 0.5, 1, 0)
|
||||
c = c.reshape(xx.shape)
|
||||
plt.contourf(xx, yy, c, cmap = plt.cm.Set1, alpha=0.2)
|
||||
plt.scatter(X[:, 0], X[:, 1], c = y, cmap = plt.cm.Set1)
|
||||
plt.show()
|
||||
|
||||
showPlot("Линейная регрессия", linerModel)
|
||||
showPlot("Многослойный персептрон", mlp)
|
||||
showPlot("Персептрон", perceptron)
|
40
zhelepov_alex_lab_1/readme.md
Normal file
40
zhelepov_alex_lab_1/readme.md
Normal file
@ -0,0 +1,40 @@
|
||||
# Задание
|
||||
Используя код из пункта «Регуляризация и сеть прямого распространения» из методички (стр. 228), сгенерируйте определенный тип данных и сравните на нем 3 модели (по варианту). Постройте графики, отобразите качество моделей, объясните полученные результаты.
|
||||
## Задание по варианту
|
||||
Генерируемы данные: make_moons (noise=0.3, random_state=rs)
|
||||
Модели:
|
||||
* Линейную регрессию
|
||||
* Многослойный персептрон с 10-ю нейронами в скрытом слое (alpha = 0.01)
|
||||
* Персептрон
|
||||
## Решение
|
||||
### Запуск программы
|
||||
Для запуска программы необходимо запустить файл main.py, содержащий код программы
|
||||
### Используемые технологии
|
||||
Программа использует следующие библиотеки:
|
||||
- numpy - библиотека для работы с массивами и матрицами.
|
||||
- matplotlib - библиотека для создания графиков и визуализации данных.
|
||||
- sklearn - библиотека для машинного обучения и анализа данных.
|
||||
### Что делает программа
|
||||
Программа генерирует один из 100 случайных наборов данных. Данные состоят из двух полукругов для работы с алгоритмами кластеризации и классификации
|
||||
Показывает окно с графиком и результаты работы моделей.
|
||||
### Тесты
|
||||
тесты проводились на наборах данных с 1 по 5
|
||||
Результаты берутся из результатов работы модели на тестовых данных
|
||||
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
|
||||
1 - 0.535 - 0.875 - 0.775
|
||||
2 - 0.454 - 0.9 - 0.85
|
||||
3 - 0.548 - 0.9 - 0.9
|
||||
4 - 0.58 - 0.85 - 0.825
|
||||
5 - 0.545 - 0.862 - 0.825
|
||||
Из результатов видно, что модель линейной регрессии показала себя хуже всего. Следом идет персептрон. И лучший результат показала модель многослойного персептрона с 10-ю нейронами в скрытом слое
|
||||
|
||||
При увеличении объема генерируемых данных с 200 до 2000, можно заметить что результаты остались примерно на том же уровне
|
||||
Набор данных - Линейная регрессия - Многослойный персептрон - Персептрон
|
||||
1 - 0.565 - 0.903 - 0.78
|
||||
2 - 0.534 - 0.919 - 0.82
|
||||
3 - 0.541 - 0.909 - 0.742
|
||||
4 - 0.524 - 0.856 - 0.845
|
||||
5 - 0.568 - 0.873 - 0.802
|
||||
Тесты с дополнительным увеличением объема данных, изменений в результатах не показали
|
||||
Из результатов можно сделать вывод, что наиболее подходящей моделью для данного типа генерируемых данных из оттестированных моделей является Многослойный персептрон
|
||||
Разница в результатах работы персептрона и многослойного персептрона имеется из-за того что многослойный персептрон имеет более сложную структуру, чем простой персептрон, и может обучаться более сложным функциям. Кроме того, многослойный персептрон используя несколько скрытых слоев, изучает более сложные зависимости между входными и выходными данными.
|
Loading…
Reference in New Issue
Block a user