IIS_2023_1/istyukov_timofey_lab_6/README.md

96 lines
5.9 KiB
Markdown
Raw Normal View History

2024-01-12 02:11:16 +04:00
# Лабораторная работа №6. Нейронная сеть
2024-01-11 15:38:56 +04:00
## 12 вариант
___
### Задание:
Использовать регрессию по варианту для своих данных по варианту,
самостоятельно сформулировав задачу. Оценить, насколько хорошо она
подходит для решения сформулированной вами задачи.
### Вариант:
- Модель нейронной сети: **MLPRegressor**
### Вариант набора данных по курсовой работе:
- Прогнозирование музыкальных жанров ("Prediction of music genre")
___
### Запуск
2024-01-11 15:43:32 +04:00
- Запустить файл lab6.py
2024-01-11 15:38:56 +04:00
### Используемые технологии
- Язык программирования **Python**
- Среда разработки **PyCharm**
- Библиотеки:
* pandas
* sklearn
* matplotlib
2024-01-12 02:15:48 +04:00
* seaborn
2024-01-11 15:38:56 +04:00
### Описание программы
**Набор данных (Kaggle):** Полный список жанров, включенных в CSV:
«Электронная музыка», «Аниме», «Джаз», «Альтернатива», «Кантри», «Рэп»,
«Блюз», «Рок», «Классика», «Хип-хоп».
**Задача, решаемая нейронной сетью:**
Предсказание популярности нового музыкального трека на основе его
определённых характеристик.
**Задача оценки:**
Анализ с помощью коэффициента детерминации и потери регрессии
среднеквадратичной логарифмической ошибке, плюсом к ним график сравнения
реальных и предсказанных значений.
---
### Пример работы
*Датасет, сформированный из случайных строк csv-файла.*
![Graphics](2_dataset.jpg)
---
***Коэффициент детерминации** используется для оценки эффективности модели
линейной регрессии. Он показывает, насколько хорошо наблюдаемые результаты
воспроизводятся моделью, в зависимости от соотношения суммарных отклонений
результатов, описываемых моделью. По выводу можно отметить, что 33,4%
изменчивости зависимого выходного атрибута можно объяснить с помощью модели,
в то время как остальные 66,6% изменчивости все ещё не учтены.*
***Потери регрессии среднеквадратичной логарифмической ошибки (MSLE)** использует
тот же подход, что и **MSE**, но использует логарифм для компенсации больших
выбросов в наборе данных и обрабатывает их так, как если бы они были в одном
масштабе. Это наиболее ценно в стремлении к сбалансированной модели с
одинаковым процентом ошибок.*
![Graphics](3_score.jpg)
---
*График нейронной сети MLPRegressor, показывающий сравнение реальных
(ось абсцисс) и предсказанных (ось ординат) данных.*
![Graphics](1_plot_result.png)
---
### Вывод
Итак, нейронная сеть с поставленной задачей по сути не справилась. Работа
2024-01-11 15:43:32 +04:00
со скрытыми слоями смогла улучшить результат, но лишь на значение, равное 0,100.
2024-01-11 15:38:56 +04:00
Использование слишком малого количества нейронов в скрытых слоях приведет к
недообучению. Недообучение происходит, когда в скрытых слоях слишком мало
нейронов для адекватного обнаружения сигналов в сложном наборе данных.
Использование же слишком большого количества нейронов в скрытых слоях может
привести к переобучению. Очевидно, должен быть достигнут некоторый компромисс
между слишком большим и слишком малым количеством нейронов в скрытых слоях.
Я пришёл к тому, что использовал 4 скрытых слоя с 50 нейронов в каждом.
Можно сделать заключение, что целевая переменная (процент популярности
музыкального трека) выбрана неудачно, либо же требуется более детальная
обработка данных и другой подход к оцениваемым признакам. Как вариант,
можно рассмотреть StandardScaler или MinMaxScaler на этапе предварительной
обработки данных. Но как упоминалось в прошлой лабораторной работе,
популярность музыкального трека слишком неоднозначная величина, которую
саму по себе предсказать не просто, так как нет точной формулы песни,
которая взлетит в чартах. Искусство само по себе коварное :)