Merge pull request 'shestakova_maria_lab_2 is ready' (#221) from shestakova_maria_lab_2 into main

Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/221
This commit is contained in:
Alexey 2023-12-05 22:57:07 +04:00
commit cad64a19f6
3 changed files with 90 additions and 0 deletions

View File

@ -0,0 +1,30 @@
### Задание:
Лассо (Lasso), Сокращение признаков Случайными деревьями (Random Forest Regressor), Линейная корреляция (f_regression)
### Технологии:
Библиотека numpy, sklearn
### Что делает лабораторная работа:
Лабораторная работа примененяет регрессионне модели для определения важности признаков.
Программа ранжирует признаки по их значимости для задачи, сортирует средние ранги признаков в порядке убывания. Чем больше значение ранга, тем более значим признак.
### Как запустить:
Лабораторная работа запускается в файле shestakova_maria_lab_2.py через Run: результат выводится в консоль
### Примеры выходных значений
![result](result.png)
Вывод:
4 наиболее значимых признака - 'x4', 'x14', 'x2', 'x12'
Более подробный разбор:
1. Признаки 'x4', 'x14' имеют наивысшие ранги, они наиболее значимы в решении задачи
2. Признаки 'x2', 'x12', 'x11', 'x1' имеют средние ранги, они средне значимы
3. Признаки 'x5', 'x7' и 'x8' имеют низкие ранги, они относительно значимы
4. Признаки 'x9', 'x3', 'x10', 'x13' и 'x6' имеют крайне низкие ранги, они практически не значимы

Binary file not shown.

After

Width:  |  Height:  |  Size: 71 KiB

View File

@ -0,0 +1,60 @@
from sklearn.linear_model import Lasso
from sklearn.ensemble import RandomForestRegressor
from sklearn.feature_selection import f_regression
from sklearn.preprocessing import MinMaxScaler
import numpy as np
np.random.seed(0)
# размер входных данных Х
size = 1000
# входные данные
X = np.random.uniform(0, 1, (size, 14))
# целевая переменная Y на основе математической функции от входных данных X
Y = (10 * np.sin(np.pi*X[:,0]*X[:,1]) + 20*(X[:,2] - .5)**2 +
10*X[:,3] + 5*X[:,4]**5 + np.random.normal(0,1))
X[:,10:] = X[:,:4] + np.random.normal(0, .025, (size,4))
names = ["x%s" % i for i in range(1,15)]
# пустой словарь для хранения рангов признаков
ranks = {}
# экземпляр модели лассо-регрессии
lasso = Lasso(alpha=.05)
# модель подгоняется под входные данные X и целевую переменную Y
lasso.fit(X, Y)
ranks["Lasso"] = dict(zip(names, lasso.coef_))
rf = RandomForestRegressor(n_estimators=100, random_state=0)
rf.fit(X, Y)
ranks["Random Forest"] = dict(zip(names, rf.feature_importances_))
f, _ = f_regression(X, Y, center=True)
ranks["f_regression"] = dict(zip(names, f))
def rank_to_dict(ranks, names):
ranks = np.abs(ranks)
minmax = MinMaxScaler()
# масштабирование рангов
ranks = minmax.fit_transform(np.array(ranks).reshape(-1, 1)).ravel()
ranks = map(lambda x: round(x, 2), ranks)
return dict(zip(names, ranks))
# словарь для хранения средних рангов признаков
mean = {}
for key, value in ranks.items():
for item in value.items():
if item[0] not in mean:
mean[item[0]] = 0
mean[item[0]] += item[1]
sorted_mean = sorted(mean.items(), key=lambda x: x[1], reverse=True)
result = {}
for item in sorted_mean:
result[item[0]] = item[1]
print(f'{item[0]}: {item[1]}')