Merge pull request 'istyukov_timofey_lab_3 is ready' (#288) from istyukov_timofey_lab_3 into main
Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/288
This commit is contained in:
commit
236483abf1
72
istyukov_timofey_lab_2/README.md
Normal file
72
istyukov_timofey_lab_2/README.md
Normal file
@ -0,0 +1,72 @@
|
|||||||
|
# Лабораторная работа №2. Ранжирование признаков
|
||||||
|
## 12 вариант
|
||||||
|
___
|
||||||
|
|
||||||
|
### Задание:
|
||||||
|
Используя код из пункта «Решение задачи ранжирования признаков»,
|
||||||
|
выполните ранжирование признаков с помощью указанных по варианту моделей.
|
||||||
|
Отобразите получившиеся значения\оценки каждого признака каждым методом\моделью
|
||||||
|
и среднюю оценку. Проведите анализ получившихся результатов.
|
||||||
|
Какие четыре признака оказались самыми важными по среднему значению?
|
||||||
|
(Названия\индексы признаков и будут ответом на задание).
|
||||||
|
|
||||||
|
### Модели по варианту:
|
||||||
|
- Лассо (Lasso)
|
||||||
|
- Рекурсивное сокращение признаков (Recursive Feature Elimination – RFE)
|
||||||
|
- Линейная корреляция (f_regression)
|
||||||
|
|
||||||
|
___
|
||||||
|
|
||||||
|
### Запуск
|
||||||
|
- Запустить файл lab2.py
|
||||||
|
|
||||||
|
### Используемые технологии
|
||||||
|
- Язык программирования **Python**
|
||||||
|
- Среда разработки **PyCharm**
|
||||||
|
- Библиотеки:
|
||||||
|
* numpy
|
||||||
|
* sklearn
|
||||||
|
* matplotlib
|
||||||
|
|
||||||
|
### Описание программы
|
||||||
|
В качестве примера взята регрессионная проблема Фридмана. На вход
|
||||||
|
моделей подано 15 факторов. Выход рассчитывается по формуле, использующей
|
||||||
|
только пять факторов, но факторы 1-5, а также 10-15 взаимозависимы.
|
||||||
|
|
||||||
|
Последовательность действий:
|
||||||
|
1. Генерация данных по Фридману
|
||||||
|
2. Создание и обучение моделей по варианту
|
||||||
|
3. Ранжирование признаков по этим моделям с присвоением имён этим признакам
|
||||||
|
4. Вывод признаков моделей по убыванию значения оценки
|
||||||
|
5. Вывод среднего значения по каждому признакому по убыванию
|
||||||
|
|
||||||
|
Программа показывает, как разные виды регрессий оценят важности
|
||||||
|
факторов и какой из них будет иметь наибольшую среднюю значимость
|
||||||
|
по всем трём моделям по варианту.
|
||||||
|
|
||||||
|
---
|
||||||
|
### Пример работы
|
||||||
|
![Graphics](result.jpg)
|
||||||
|
```text
|
||||||
|
---> Lasso <---
|
||||||
|
[('x15', 1.0), ('x2', 0.88), ('x1', 0.82), ('x4', 0.38), ('x5', 0.38), ('x11', 0.01), ('x3', 0.0), ('x6', 0.0), ('x7', 0.0), ('x8', 0.0), ('x9', 0.0), ('x10', 0.0), ('x12', 0.0), ('x13', 0.0), ('x14', 0.0)]
|
||||||
|
|
||||||
|
---> RFE <---
|
||||||
|
[('x9', 1.0), ('x12', 0.88), ('x10', 0.75), ('x6', 0.62), ('x7', 0.5), ('x11', 0.38), ('x8', 0.25), ('x4', 0.12), ('x1', 0.0), ('x2', 0.0), ('x3', 0.0), ('x5', 0.0), ('x13', 0.0), ('x14', 0.0), ('x15', 0.0)]
|
||||||
|
|
||||||
|
---> F_reg <---
|
||||||
|
[('x4', 1.0), ('x15', 1.0), ('x2', 0.34), ('x13', 0.34), ('x1', 0.3), ('x12', 0.29), ('x5', 0.07), ('x6', 0.01), ('x3', 0.0), ('x7', 0.0), ('x8', 0.0), ('x9', 0.0), ('x10', 0.0), ('x11', 0.0), ('x14', 0.0)]
|
||||||
|
|
||||||
|
Средния значения по каждому признаку:
|
||||||
|
[('x15', 0.67), ('x4', 0.5), ('x2', 0.41), ('x12', 0.39), ('x1', 0.37), ('x9', 0.33), ('x10', 0.25), ('x6', 0.21), ('x7', 0.17), ('x5', 0.15), ('x11', 0.13), ('x13', 0.11), ('x8', 0.08), ('x3', 0.0), ('x14', 0.0)]
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### Вывод
|
||||||
|
Согласно выводу в консоль ранжированных признаков, был выявлен топ-4 самых важных признаков по среднему значению:
|
||||||
|
|
||||||
|
1. **x15**
|
||||||
|
2. **x4**
|
||||||
|
3. **x2**
|
||||||
|
4. **x12**
|
114
istyukov_timofey_lab_2/lab2.py
Normal file
114
istyukov_timofey_lab_2/lab2.py
Normal file
@ -0,0 +1,114 @@
|
|||||||
|
"""
|
||||||
|
Используя код из пункта «Решение задачи ранжирования признаков»,
|
||||||
|
выполните ранжирование признаков с помощью указанных по варианту моделей.
|
||||||
|
Отобразите получившиеся значения\оценки каждого признака каждым методом\моделью и среднюю оценку.
|
||||||
|
Проведите анализ получившихся результатов. Какие четыре признака оказались самыми важными по среднему значению?
|
||||||
|
(Названия\индексы признаков и будут ответом на задание)
|
||||||
|
"""
|
||||||
|
|
||||||
|
# 12 вариант
|
||||||
|
# Лассо (Lasso)
|
||||||
|
# Рекурсивное сокращение признаков (Recursive Feature Elimination – RFE)
|
||||||
|
# Линейная корреляция (f_regression)
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
import numpy as np
|
||||||
|
from sklearn.linear_model import Lasso, LinearRegression
|
||||||
|
from sklearn.feature_selection import RFE
|
||||||
|
from sklearn.feature_selection import f_regression
|
||||||
|
from sklearn.preprocessing import MinMaxScaler
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
def main():
|
||||||
|
X, Y = friedman_regression_problem(800)
|
||||||
|
|
||||||
|
''' Создание и обучение моделей '''
|
||||||
|
|
||||||
|
# Лассо
|
||||||
|
lasso_model = Lasso(alpha=.05)
|
||||||
|
lasso_model.fit(X, Y)
|
||||||
|
|
||||||
|
# Рекурсивное сокращение признаков
|
||||||
|
lr = LinearRegression()
|
||||||
|
lr.fit(X, Y)
|
||||||
|
rfe_model = RFE(estimator=lr)
|
||||||
|
rfe_model.fit(X, Y)
|
||||||
|
|
||||||
|
# Линейная корреляция
|
||||||
|
f, p_val = f_regression(X, Y)
|
||||||
|
|
||||||
|
# список имён признаков
|
||||||
|
names = ["x%s" % i for i in range(1, 16)]
|
||||||
|
|
||||||
|
# словарь вызова функций моделей
|
||||||
|
ranks = {}
|
||||||
|
ranks["Lasso"] = rank_to_dict(lasso_model.coef_, names)
|
||||||
|
ranks["RFE"] = rank_to_dict(rfe_model.ranking_, names)
|
||||||
|
ranks["F_reg"] = rank_to_dict(f, names)
|
||||||
|
|
||||||
|
# вывод признаков и оценок каждой модели
|
||||||
|
print_sorted_model(ranks)
|
||||||
|
|
||||||
|
# пустой список данных
|
||||||
|
mean = {}
|
||||||
|
|
||||||
|
# Формирование среднего по каждому признаку
|
||||||
|
for key, value in ranks.items():
|
||||||
|
for item in value.items():
|
||||||
|
if item[0] not in mean: #если элемента с текущим ключём нет
|
||||||
|
mean[item[0]] = 0 #добавляем
|
||||||
|
mean[item[0]] += item[1] #суммируем значения по каждому ключу-имени признака
|
||||||
|
|
||||||
|
# Поиск среднего по каждому признаку
|
||||||
|
for key, value in mean.items():
|
||||||
|
res = value / len(ranks)
|
||||||
|
mean[key] = round(res, 2)
|
||||||
|
|
||||||
|
# Сортировка и распечатка списка
|
||||||
|
mean = sorted(mean.items(), key=lambda item: item[1], reverse=True)
|
||||||
|
print("\033[92mСредния значения по каждому признаку:\033[00m")
|
||||||
|
print(mean)
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
# Генерация набора данных по регрессионной проблеме Фридмана
|
||||||
|
def friedman_regression_problem(size):
|
||||||
|
# генерируем исходные данные: 800 строк-наблюдений и 15 столбцов-признаков
|
||||||
|
np.random.seed(0)
|
||||||
|
X = np.random.uniform(0, 1, (size, 15))
|
||||||
|
# Задание функции-выхода (регриссионную проблему Фридмана)
|
||||||
|
Y = (10 * np.sin(np.pi * X[:,0] * X[:,1]) + 20 * (X[:,2] - .5)**2 + 10*X[:,3] + 5*X[:,4]**5) + np.random.normal(0, 1)
|
||||||
|
# Добавление в зависимость признаков
|
||||||
|
X[:,11:] = X[:,:4] + np.random.normal(0, .025, (size, 4))
|
||||||
|
return X, Y
|
||||||
|
|
||||||
|
|
||||||
|
# Функция формирования словаря пар "имя_признака: оценка признака"
|
||||||
|
def rank_to_dict(ranks, names):
|
||||||
|
ranks = np.abs(ranks) #получение абсолютных значений оценок
|
||||||
|
r_array = np.array(ranks) #создание массива списка оценок
|
||||||
|
r_array = r_array.reshape(15, 1) #переформирование строк и столбцов в массиве
|
||||||
|
minmax = MinMaxScaler() # экземпляр для нормализации данных
|
||||||
|
ranks = minmax.fit_transform(r_array) #обучение и преобразование данных
|
||||||
|
ranks = ranks.ravel() #преобразование двумерного массива в одномерный
|
||||||
|
ranks = map(lambda x: round(x, 2), ranks) #округление каждого элемента массива до сотых
|
||||||
|
return dict(zip(names, ranks))
|
||||||
|
|
||||||
|
|
||||||
|
# Функция вывода признаков моделей по убыванию значения оценки
|
||||||
|
def print_sorted_model(ranks):
|
||||||
|
ranks_copy = dict(ranks)
|
||||||
|
for key, value in ranks_copy.items():
|
||||||
|
ranks_copy[key] = sorted(value.items(), key=lambda item: item[1], reverse=True)
|
||||||
|
|
||||||
|
for key, value in ranks_copy.items():
|
||||||
|
print("\033[92m---> {} <---\033[00m" .format(key))
|
||||||
|
print(value)
|
||||||
|
print()
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
main()
|
BIN
istyukov_timofey_lab_2/result.jpg
Normal file
BIN
istyukov_timofey_lab_2/result.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 60 KiB |
BIN
istyukov_timofey_lab_3/1_dataset.jpg
Normal file
BIN
istyukov_timofey_lab_3/1_dataset.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 45 KiB |
BIN
istyukov_timofey_lab_3/2_accuracy_score.jpg
Normal file
BIN
istyukov_timofey_lab_3/2_accuracy_score.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 41 KiB |
BIN
istyukov_timofey_lab_3/3_feature_importances.jpg
Normal file
BIN
istyukov_timofey_lab_3/3_feature_importances.jpg
Normal file
Binary file not shown.
After Width: | Height: | Size: 16 KiB |
73
istyukov_timofey_lab_3/README.md
Normal file
73
istyukov_timofey_lab_3/README.md
Normal file
@ -0,0 +1,73 @@
|
|||||||
|
# Лабораторная работа №3. Деревья решений
|
||||||
|
## 12 вариант
|
||||||
|
___
|
||||||
|
|
||||||
|
### Задание:
|
||||||
|
Решите с помощью библиотечной реализации дерева решений задачу из
|
||||||
|
лабораторной работы «Веб-сервис «Дерево решений» по предмету
|
||||||
|
«Методы искусственного интеллекта» на 99% ваших данных.
|
||||||
|
Проверьте работу модели на оставшемся проценте, сделайте вывод.
|
||||||
|
|
||||||
|
|
||||||
|
### Вариант набора данных по курсовой работе:
|
||||||
|
- Прогнозирование музыкальных жанров
|
||||||
|
|
||||||
|
___
|
||||||
|
|
||||||
|
### Запуск
|
||||||
|
- Запустить файл lab3.py
|
||||||
|
|
||||||
|
### Используемые технологии
|
||||||
|
- Язык программирования **Python**
|
||||||
|
- Среда разработки **PyCharm**
|
||||||
|
- Библиотеки:
|
||||||
|
* pandas
|
||||||
|
* sklearn
|
||||||
|
|
||||||
|
### Описание программы
|
||||||
|
**Набор данных (Kaggle):** Полный список жанров, включенных в CSV:
|
||||||
|
«Электронная музыка», «Аниме», «Джаз», «Альтернатива», «Кантри», «Рэп»,
|
||||||
|
«Блюз», «Рок», «Классика», «Хип-хоп».
|
||||||
|
|
||||||
|
**Задача, решаемая деревом решений:** Классификация музыкальных треков на
|
||||||
|
основе их характеристик, таких как темп, инструментальность, акустичность,
|
||||||
|
речевость, танцевальность, энергичность, живость. Дерево решений может
|
||||||
|
предсказывать жанр трека, основываясь на его характеристиках.
|
||||||
|
|
||||||
|
**Задачи оценки:** оценить качество работы модели дерева решений и выявить
|
||||||
|
наиболее значимые признаки набора данных.
|
||||||
|
|
||||||
|
---
|
||||||
|
### Пример работы
|
||||||
|
|
||||||
|
*Датасет, сформированный из случайных строк csv-файла.*
|
||||||
|
![Graphics](1_dataset.jpg)
|
||||||
|
|
||||||
|
---
|
||||||
|
*Сравнение на оставшихся неиспользованных 0,5% строк датасета
|
||||||
|
предсказнных и действительных жанров.*
|
||||||
|
|
||||||
|
![Graphics](2_accuracy_score.jpg)
|
||||||
|
|
||||||
|
---
|
||||||
|
*Вычисленнные коэффициенты влияния признаков на прогноз жанра*
|
||||||
|
|
||||||
|
![Graphics](3_feature_importances.jpg)
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### Вывод
|
||||||
|
Посредством предобработки датасета дерево решений без проблем обучилось и
|
||||||
|
частично верно предсказало некоторые жанры (в частности, Электро, Классику
|
||||||
|
и Рэп). Также модель показала оценку влиятельности признаков на прогноз
|
||||||
|
жанра. Самым влиятельным признаком оказалась **акустичность** музыкального
|
||||||
|
трека. Менее значимыми оказались речевость (преобладание голосов в треке) и
|
||||||
|
инструментальность (преобладание живых инструментов в треке), что звучит
|
||||||
|
вполне разумно.
|
||||||
|
|
||||||
|
На практике дерево решений по качеству классификации уступает некоторым
|
||||||
|
другим методам. Помимо этого, небольшие изменения в данных могут существенно
|
||||||
|
изменять построенное дерево решений. На примере моего датасета дерево решений
|
||||||
|
справилось не очень успешно. Это можно объяснить тем, что данных в нём
|
||||||
|
недостаточно для предсказания жанра. Но также стоит отметить, что
|
||||||
|
жанр – одно из самых неоднозначных, самых многосоставных музыкальных понятий.
|
69
istyukov_timofey_lab_3/lab3.py
Normal file
69
istyukov_timofey_lab_3/lab3.py
Normal file
@ -0,0 +1,69 @@
|
|||||||
|
"""
|
||||||
|
Решите с помощью библиотечной реализации дерева решений задачу изnлабораторной работы
|
||||||
|
«Веб-сервис «Дерево решений» по предмету «Методы искусственного интеллекта» на 99% ваших данных.
|
||||||
|
Проверьте работу модели на оставшемся проценте, сделайте вывод.
|
||||||
|
"""
|
||||||
|
|
||||||
|
"""
|
||||||
|
Задача, решаемая деревом решений: Классификация музыкальных треков на основе их характеристик,
|
||||||
|
таких как акустика, танцевальность, инструментальность, темп и т.д.
|
||||||
|
Дерево решений может предсказывать жанр трека, основываясь на его характеристиках.
|
||||||
|
"""
|
||||||
|
|
||||||
|
# 12 вариант
|
||||||
|
# Набор данных по курсовой: "Prediction of music genre"
|
||||||
|
|
||||||
|
import pandas as pd
|
||||||
|
from sklearn.tree import DecisionTreeClassifier
|
||||||
|
from sklearn.model_selection import train_test_split
|
||||||
|
from sklearn.metrics import accuracy_score
|
||||||
|
|
||||||
|
|
||||||
|
DATASET_FILE = 'music_genre.csv'
|
||||||
|
|
||||||
|
|
||||||
|
def main():
|
||||||
|
df = open_dataset(DATASET_FILE)
|
||||||
|
df = df.sample(frac=.1) # отбираем 10% рандомных строк с набора данных, т.к. он большой
|
||||||
|
print("\033[92m[-----> Набор данных <-----]\033[00m")
|
||||||
|
print(df)
|
||||||
|
|
||||||
|
X = df.drop(columns=['music_genre']) # набор числовых признаков
|
||||||
|
y = df['music_genre'] # набор соответствующих им жанров
|
||||||
|
|
||||||
|
# Разделение датасета на тренировочные (99,5%) и тестовые данные (0,5%)
|
||||||
|
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.005)
|
||||||
|
|
||||||
|
# Создание и обучение дерева решений
|
||||||
|
model = DecisionTreeClassifier()
|
||||||
|
model.fit(X_train.values, y_train)
|
||||||
|
|
||||||
|
# Прогнозирование жанра на тестовых данных
|
||||||
|
y_pred = model.predict(X_test.values)
|
||||||
|
|
||||||
|
print("\033[92m\n\n\n[-----> Сравнение жанров <-----]\033[00m")
|
||||||
|
df_result = pd.DataFrame({'Прогноз': y_pred, 'Реальность': y_test})
|
||||||
|
print(df_result)
|
||||||
|
|
||||||
|
score = accuracy_score(y_test, y_pred)
|
||||||
|
print("\033[92m\n> Оценка точности модели: {}\033[00m" .format(round(score, 2)))
|
||||||
|
|
||||||
|
print("\033[92m\n\n\n[-----> Оценки важности признаков <-----]\033[00m")
|
||||||
|
df_feature = pd.DataFrame({'Признак': X.columns, "Важность": model.feature_importances_})
|
||||||
|
print(df_feature)
|
||||||
|
|
||||||
|
|
||||||
|
# Функция считывания и очищения csv-файла
|
||||||
|
def open_dataset(csv_file):
|
||||||
|
# открываем файл с указанием знака-отделителя
|
||||||
|
df_genres = pd.read_csv(csv_file, delimiter=',')
|
||||||
|
# выбираем необходимые признаки
|
||||||
|
df_genres = df_genres[['tempo', 'instrumentalness', 'acousticness', 'speechiness', 'danceability', 'energy', 'liveness', 'music_genre']]
|
||||||
|
# очищаем набор данных от пустых и неподходящих значений
|
||||||
|
df_genres = df_genres[df_genres['tempo'] != '?']
|
||||||
|
df_genres = df_genres.dropna()
|
||||||
|
return df_genres
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
main()
|
50006
istyukov_timofey_lab_3/music_genre.csv
Normal file
50006
istyukov_timofey_lab_3/music_genre.csv
Normal file
File diff suppressed because it is too large
Load Diff
Loading…
Reference in New Issue
Block a user