istyukov_timofey_lab_3 is ready #288

Merged
Alexey merged 3 commits from istyukov_timofey_lab_3 into main 2024-01-09 11:29:59 +04:00
9 changed files with 50334 additions and 0 deletions

View File

@ -0,0 +1,72 @@
# Лабораторная работа №2. Ранжирование признаков
## 12 вариант
___
### Задание:
Используя код из пункта «Решение задачи ранжирования признаков»,
выполните ранжирование признаков с помощью указанных по варианту моделей.
Отобразите получившиеся значения\оценки каждого признака каждым методом\моделью
и среднюю оценку. Проведите анализ получившихся результатов.
Какие четыре признака оказались самыми важными по среднему значению?
(Названия\индексы признаков и будут ответом на задание).
### Модели по варианту:
- Лассо (Lasso)
- Рекурсивное сокращение признаков (Recursive Feature Elimination RFE)
- Линейная корреляция (f_regression)
___
### Запуск
- Запустить файл lab2.py
### Используемые технологии
- Язык программирования **Python**
- Среда разработки **PyCharm**
- Библиотеки:
* numpy
* sklearn
* matplotlib
### Описание программы
В качестве примера взята регрессионная проблема Фридмана. На вход
моделей подано 15 факторов. Выход рассчитывается по формуле, использующей
только пять факторов, но факторы 1-5, а также 10-15 взаимозависимы.
Последовательность действий:
1. Генерация данных по Фридману
2. Создание и обучение моделей по варианту
3. Ранжирование признаков по этим моделям с присвоением имён этим признакам
4. Вывод признаков моделей по убыванию значения оценки
5. Вывод среднего значения по каждому признакому по убыванию
Программа показывает, как разные виды регрессий оценят важности
факторов и какой из них будет иметь наибольшую среднюю значимость
по всем трём моделям по варианту.
---
### Пример работы
![Graphics](result.jpg)
```text
---> Lasso <---
[('x15', 1.0), ('x2', 0.88), ('x1', 0.82), ('x4', 0.38), ('x5', 0.38), ('x11', 0.01), ('x3', 0.0), ('x6', 0.0), ('x7', 0.0), ('x8', 0.0), ('x9', 0.0), ('x10', 0.0), ('x12', 0.0), ('x13', 0.0), ('x14', 0.0)]
---> RFE <---
[('x9', 1.0), ('x12', 0.88), ('x10', 0.75), ('x6', 0.62), ('x7', 0.5), ('x11', 0.38), ('x8', 0.25), ('x4', 0.12), ('x1', 0.0), ('x2', 0.0), ('x3', 0.0), ('x5', 0.0), ('x13', 0.0), ('x14', 0.0), ('x15', 0.0)]
---> F_reg <---
[('x4', 1.0), ('x15', 1.0), ('x2', 0.34), ('x13', 0.34), ('x1', 0.3), ('x12', 0.29), ('x5', 0.07), ('x6', 0.01), ('x3', 0.0), ('x7', 0.0), ('x8', 0.0), ('x9', 0.0), ('x10', 0.0), ('x11', 0.0), ('x14', 0.0)]
Средния значения по каждому признаку:
[('x15', 0.67), ('x4', 0.5), ('x2', 0.41), ('x12', 0.39), ('x1', 0.37), ('x9', 0.33), ('x10', 0.25), ('x6', 0.21), ('x7', 0.17), ('x5', 0.15), ('x11', 0.13), ('x13', 0.11), ('x8', 0.08), ('x3', 0.0), ('x14', 0.0)]
```
---
### Вывод
Согласно выводу в консоль ранжированных признаков, был выявлен топ-4 самых важных признаков по среднему значению:
1. **x15**
2. **x4**
3. **x2**
4. **x12**

View File

@ -0,0 +1,114 @@
"""
Используя код из пункта «Решение задачи ранжирования признаков»,
выполните ранжирование признаков с помощью указанных по варианту моделей.
Отобразите получившиеся значения\оценки каждого признака каждым методом\моделью и среднюю оценку.
Проведите анализ получившихся результатов. Какие четыре признака оказались самыми важными по среднему значению?
(Названия\индексы признаков и будут ответом на задание)
"""
# 12 вариант
# Лассо (Lasso)
# Рекурсивное сокращение признаков (Recursive Feature Elimination RFE)
# Линейная корреляция (f_regression)
import numpy as np
from sklearn.linear_model import Lasso, LinearRegression
from sklearn.feature_selection import RFE
from sklearn.feature_selection import f_regression
from sklearn.preprocessing import MinMaxScaler
def main():
X, Y = friedman_regression_problem(800)
''' Создание и обучение моделей '''
# Лассо
lasso_model = Lasso(alpha=.05)
lasso_model.fit(X, Y)
# Рекурсивное сокращение признаков
lr = LinearRegression()
lr.fit(X, Y)
rfe_model = RFE(estimator=lr)
rfe_model.fit(X, Y)
# Линейная корреляция
f, p_val = f_regression(X, Y)
# список имён признаков
names = ["x%s" % i for i in range(1, 16)]
# словарь вызова функций моделей
ranks = {}
ranks["Lasso"] = rank_to_dict(lasso_model.coef_, names)
ranks["RFE"] = rank_to_dict(rfe_model.ranking_, names)
ranks["F_reg"] = rank_to_dict(f, names)
# вывод признаков и оценок каждой модели
print_sorted_model(ranks)
# пустой список данных
mean = {}
# Формирование среднего по каждому признаку
for key, value in ranks.items():
for item in value.items():
if item[0] not in mean: #если элемента с текущим ключём нет
mean[item[0]] = 0 #добавляем
mean[item[0]] += item[1] #суммируем значения по каждому ключу-имени признака
# Поиск среднего по каждому признаку
for key, value in mean.items():
res = value / len(ranks)
mean[key] = round(res, 2)
# Сортировка и распечатка списка
mean = sorted(mean.items(), key=lambda item: item[1], reverse=True)
print("\033[92mСредния значения по каждому признаку:\033[00m")
print(mean)
# Генерация набора данных по регрессионной проблеме Фридмана
def friedman_regression_problem(size):
# генерируем исходные данные: 800 строк-наблюдений и 15 столбцов-признаков
np.random.seed(0)
X = np.random.uniform(0, 1, (size, 15))
# Задание функции-выхода (регриссионную проблему Фридмана)
Y = (10 * np.sin(np.pi * X[:,0] * X[:,1]) + 20 * (X[:,2] - .5)**2 + 10*X[:,3] + 5*X[:,4]**5) + np.random.normal(0, 1)
# Добавление в зависимость признаков
X[:,11:] = X[:,:4] + np.random.normal(0, .025, (size, 4))
return X, Y
# Функция формирования словаря пар "имя_признака: оценка признака"
def rank_to_dict(ranks, names):
ranks = np.abs(ranks) #получение абсолютных значений оценок
r_array = np.array(ranks) #создание массива списка оценок
r_array = r_array.reshape(15, 1) #переформирование строк и столбцов в массиве
minmax = MinMaxScaler() # экземпляр для нормализации данных
ranks = minmax.fit_transform(r_array) #обучение и преобразование данных
ranks = ranks.ravel() #преобразование двумерного массива в одномерный
ranks = map(lambda x: round(x, 2), ranks) #округление каждого элемента массива до сотых
return dict(zip(names, ranks))
# Функция вывода признаков моделей по убыванию значения оценки
def print_sorted_model(ranks):
ranks_copy = dict(ranks)
for key, value in ranks_copy.items():
ranks_copy[key] = sorted(value.items(), key=lambda item: item[1], reverse=True)
for key, value in ranks_copy.items():
print("\033[92m---> {} <---\033[00m" .format(key))
print(value)
print()
if __name__ == "__main__":
main()

Binary file not shown.

After

Width:  |  Height:  |  Size: 60 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 45 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 41 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

View File

@ -0,0 +1,73 @@
# Лабораторная работа №3. Деревья решений
## 12 вариант
___
### Задание:
Решите с помощью библиотечной реализации дерева решений задачу из
лабораторной работы «Веб-сервис «Дерево решений» по предмету
«Методы искусственного интеллекта» на 99% ваших данных.
Проверьте работу модели на оставшемся проценте, сделайте вывод.
### Вариант набора данных по курсовой работе:
- Прогнозирование музыкальных жанров
___
### Запуск
- Запустить файл lab3.py
### Используемые технологии
- Язык программирования **Python**
- Среда разработки **PyCharm**
- Библиотеки:
* pandas
* sklearn
### Описание программы
**Набор данных (Kaggle):** Полный список жанров, включенных в CSV:
«Электронная музыка», «Аниме», «Джаз», «Альтернатива», «Кантри», «Рэп»,
«Блюз», «Рок», «Классика», «Хип-хоп».
**Задача, решаемая деревом решений:** Классификация музыкальных треков на
основе их характеристик, таких как темп, инструментальность, акустичность,
речевость, танцевальность, энергичность, живость. Дерево решений может
предсказывать жанр трека, основываясь на его характеристиках.
**Задачи оценки:** оценить качество работы модели дерева решений и выявить
наиболее значимые признаки набора данных.
---
### Пример работы
*Датасет, сформированный из случайных строк csv-файла.*
![Graphics](1_dataset.jpg)
---
*Сравнение на оставшихся неиспользованных 0,5% строк датасета
предсказнных и действительных жанров.*
![Graphics](2_accuracy_score.jpg)
---
*Вычисленнные коэффициенты влияния признаков на прогноз жанра*
![Graphics](3_feature_importances.jpg)
---
### Вывод
Посредством предобработки датасета дерево решений без проблем обучилось и
частично верно предсказало некоторые жанры (в частности, Электро, Классику
и Рэп). Также модель показала оценку влиятельности признаков на прогноз
жанра. Самым влиятельным признаком оказалась **акустичность** музыкального
трека. Менее значимыми оказались речевость (преобладание голосов в треке) и
инструментальность (преобладание живых инструментов в треке), что звучит
вполне разумно.
На практике дерево решений по качеству классификации уступает некоторым
другим методам. Помимо этого, небольшие изменения в данных могут существенно
изменять построенное дерево решений. На примере моего датасета дерево решений
справилось не очень успешно. Это можно объяснить тем, что данных в нём
недостаточно для предсказания жанра. Но также стоит отметить, что
жанр одно из самых неоднозначных, самых многосоставных музыкальных понятий.

View File

@ -0,0 +1,69 @@
"""
Решите с помощью библиотечной реализации дерева решений задачу изnлабораторной работы
«Веб-сервис «Дерево решений» по предмету «Методы искусственного интеллекта» на 99% ваших данных.
Проверьте работу модели на оставшемся проценте, сделайте вывод.
"""
"""
Задача, решаемая деревом решений: Классификация музыкальных треков на основе их характеристик,
таких как акустика, танцевальность, инструментальность, темп и т.д.
Дерево решений может предсказывать жанр трека, основываясь на его характеристиках.
"""
# 12 вариант
# Набор данных по курсовой: "Prediction of music genre"
import pandas as pd
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
DATASET_FILE = 'music_genre.csv'
def main():
df = open_dataset(DATASET_FILE)
df = df.sample(frac=.1) # отбираем 10% рандомных строк с набора данных, т.к. он большой
print("\033[92m[-----> Набор данных <-----]\033[00m")
print(df)
X = df.drop(columns=['music_genre']) # набор числовых признаков
y = df['music_genre'] # набор соответствующих им жанров
# Разделение датасета на тренировочные (99,5%) и тестовые данные (0,5%)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.005)
# Создание и обучение дерева решений
model = DecisionTreeClassifier()
model.fit(X_train.values, y_train)
# Прогнозирование жанра на тестовых данных
y_pred = model.predict(X_test.values)
print("\033[92m\n\n\n[-----> Сравнение жанров <-----]\033[00m")
df_result = pd.DataFrame({'Прогноз': y_pred, 'Реальность': y_test})
print(df_result)
score = accuracy_score(y_test, y_pred)
print("\033[92m\n> Оценка точности модели: {}\033[00m" .format(round(score, 2)))
print("\033[92m\n\n\n[-----> Оценки важности признаков <-----]\033[00m")
df_feature = pd.DataFrame({'Признак': X.columns, "Важность": model.feature_importances_})
print(df_feature)
# Функция считывания и очищения csv-файла
def open_dataset(csv_file):
# открываем файл с указанием знака-отделителя
df_genres = pd.read_csv(csv_file, delimiter=',')
# выбираем необходимые признаки
df_genres = df_genres[['tempo', 'instrumentalness', 'acousticness', 'speechiness', 'danceability', 'energy', 'liveness', 'music_genre']]
# очищаем набор данных от пустых и неподходящих значений
df_genres = df_genres[df_genres['tempo'] != '?']
df_genres = df_genres.dropna()
return df_genres
if __name__ == "__main__":
main()

File diff suppressed because it is too large Load Diff