This commit is contained in:
a-shdv 2023-11-02 23:09:40 +04:00
parent e36a729776
commit ce7cfa4365
4 changed files with 93 additions and 1 deletions

View File

@ -0,0 +1,48 @@
# IIS_2023_1
<h4>Задание</h4>
<p>
Используя код из пункта «Регуляризация и сеть прямого
распространения» из [1] (стр. 228), сгенерируйте определенный тип данных и
сравните на нем 3 модели (по варианту). Постройте графики, отобразите
качество моделей, объясните полученные результаты.
</p>
<p>
9. Данные: make_classification (n_samples=500, n_features=2,
n_redundant=0, n_informative=2, random_state=rs, n_clusters_per_class=1)
Модели:
- Персептрон
· Многослойный персептрон с 10-ю нейронами в скрытом слое (alpha =
0.01)
· Многослойный персептрон со 100-а нейронами в скрытом слое (alpha
= 0.01)
</p>
<h4>Способок запуска программы</h4>
<p>Выполнить скрипт shadaev_anton_lab_1/main.py (перед этим установить импортированные библиотеки) после которого будут нарисованы 3 графика</p>
<h4>Стек технологий</h4>
<p>
<ul>
<li>NumPy - это библиотека Python, предоставляющая поддержку для больших, многомерных массивов и матриц, а также набор функций для их манипуляции и обработки.</li>
<li>Matplotlib - это библиотека для визуализации данных в Python, предоставляющая инструменты для создания статических, анимированных и интерактивных графиков и диаграмм.</li>
<li>Scikit-learn - это библиотека Python, предназначенная для машинного обучения, которая содержит функции и алгоритмы для классификации, прогнозирования и разбиения данных на группы.</li>
</ul>
</p>
<h4>Описание кода</h4>
<p>
<ol>
<li>Импортирование необходимых библиотек</li>
<li>Создание искусственных данных с помощью функции <i>make_classification()</i> из sklearn. Данные состоят из 500 образцов.</li>
<li>Данные разделяются на обучающие и тестовые наборы данных с использованием функции <i>train_test_split()</i>.</li>
<li>Создается список моделей для обучения (Перцептрон и многослойные перцептроны).</li>
<li>Выполняется обучение для каждой модели, предсказание на тестовых данных и вычисление точности предсказания.</li>
<li>Строится кривая обучения для каждой модели и кросс-валидации с использованием функции <i>learning_curve()</i> из sklearn. Данная функция позволяет визуализировать, как производительность модели изменяется в зависимости от количества обучающих примеров.</li>
<li>Наконец, <i>plt.show()</i> отображает все графики.</li>
</ol>
<h6>Полученные графики</h6>
Графики показывают производительность моделей при обучении на разных размерах обучающего набора данных.
<ul>
<li><b>Оценка обучения</b> - кривая, показывающая среднюю точность модели на обучающем наборе данных для различных размеров обучающего набора. Это позволяет увидеть, как точность модели меняется с увеличением размера обучающего набора.</li>
<li><b>Оценка кросс-валидации</b> - кривая, показывающая среднюю точность модели на валидационном наборе данных для различных размеров обучающего набора. Это позволяет увидеть, как точность модели меняется с увеличением размера обучающего набора, но с использованием кросс-валидации для оценки производительности модели.</li>
<li><b>Оси графика:</b> Ось X представляет размер обучающего набора, а ось Y представляет среднюю точность модели.</li>
</ul>
<img src="myplot.png" />
</p>

View File

@ -1 +0,0 @@
Test

View File

@ -0,0 +1,45 @@
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification
from sklearn.linear_model import Perceptron
from sklearn.neural_network import MLPClassifier
from sklearn.model_selection import train_test_split, learning_curve
from sklearn.metrics import accuracy_score
# Наполнение искусственными данными
rs = np.random.RandomState(42)
X, y = make_classification(n_samples=500, n_features=2, n_redundant=0, n_informative=2, random_state=rs,
n_clusters_per_class=1)
# Обучающие и тестовые наборы данных
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=rs)
# Список моделей для обучения
models = [
('Персептрон', Perceptron()),
('MLP (10 нейронов)', MLPClassifier(hidden_layer_sizes=(10,), alpha=0.01, random_state=rs)),
('MLP (100 нейронов)', MLPClassifier(hidden_layer_sizes=(100,), alpha=0.01, random_state=rs))
]
fig, axs = plt.subplots(1, len(models), figsize=(12, 4))
# Визуализация графиков
for i, (name, model) in enumerate(models):
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
# Построение кривых обуч ения
train_sizes, train_scores, valid_scores = learning_curve(
model, X, y, train_sizes=[50, 80, 110], cv=5)
axs[i].plot(train_sizes, train_scores.mean(axis=1), 'o-', color="r",
label="Оценка обучения")
axs[i].plot(train_sizes, valid_scores.mean(axis=1), 'o-', color="g",
label="Оценка кросс-валидации")
axs[i].set_title(f'{name} (Точность: {accuracy:.2f})')
axs[i].set_xlabel("Training examples")
axs[i].set_ylabel("Score")
axs[i].legend(loc="best")
axs[i].grid()
plt.show()

Binary file not shown.

After

Width:  |  Height:  |  Size: 63 KiB