diff --git a/alexandrov_dmitrii_lab_2/lab2.py b/alexandrov_dmitrii_lab_2/lab2.py new file mode 100644 index 0000000..5416957 --- /dev/null +++ b/alexandrov_dmitrii_lab_2/lab2.py @@ -0,0 +1,82 @@ +from sklearn.linear_model import LinearRegression, RandomizedLasso +from sklearn.feature_selection import RFE +from sklearn.preprocessing import MinMaxScaler +from matplotlib import pyplot as plt +import numpy as np +import random as rand + +figure = plt.figure(1, figsize=(16, 9)) +axis = figure.subplots(1, 4) +col = 0 +y = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14] + + +def rank_to_dict(ranks, names, n_features): + ranks = np.abs(ranks) + minmax = MinMaxScaler() + ranks = minmax.fit_transform(np.array(ranks).reshape(n_features, 1)).ravel() + ranks = map(lambda x: round(x, 2), ranks) + return dict(zip(names, ranks)) + + +def createView(key, val): + global figure + global axis + global col + global y + + axis[col].bar(y, list(val.values()), label=key) + axis[col].set_title(key) + + col = col + 1 + + +def start(): + np.random.seed(rand.randint(0, 50)) + size = 750 + n_features = 14 + X = np.random.uniform(0, 1, (size, n_features)) + + Y = (10 * np.sin(np.pi * X[:, 0] * X[:, 1]) + 20 * (X[:, 2] - .5) ** 2 + + 10 * X[:, 3] + 5 * X[:, 4] ** 5 + np.random.normal(0, 1)) + X[:, 10:] = X[:, :4] + np.random.normal(0, .025, (size, 4)) + + lr = LinearRegression() + rl = RandomizedLasso() + rfe = RFE(estimator=LinearRegression(), n_features_to_select=1) + lr.fit(X, Y) + rl.fit(X, Y) + rfe.fit(X, Y) + + names = ["x%s" % i for i in range(1, n_features + 1)] + rfe_res = rfe.ranking_ + for i in range(rfe_res.size): + rfe_res[i] = 14 - rfe_res[i] + ranks = {"Linear regression": rank_to_dict(lr.coef_, names, n_features), + "Random lasso": rank_to_dict(rl.scores_, names, n_features), + "RFE": rank_to_dict(rfe_res, names, n_features)} + + mean = {} + + for key, value in ranks.items(): + for item in value.items(): + if item[0] not in mean: + mean[item[0]] = 0 + mean[item[0]] += item[1] + + for key, value in mean.items(): + res = value / len(ranks) + mean[key] = round(res, 2) + + ranks["Mean"] = mean + + for key, value in ranks.items(): + createView(key, value) + ranks[key] = sorted(value.items(), key=lambda y: y[1], reverse=True) + for key, value in ranks.items(): + print(key) + print(value) + + +start() +plt.show() diff --git a/alexandrov_dmitrii_lab_2/readme.md b/alexandrov_dmitrii_lab_2/readme.md new file mode 100644 index 0000000..b0b33eb --- /dev/null +++ b/alexandrov_dmitrii_lab_2/readme.md @@ -0,0 +1,50 @@ +### Задание +Выполнить ранжирование признаков с помощью указанных по варианту моделей. Отобразить получившиеся значения\оценки каждого признака каждым методом\моделью и среднюю оценку. Провести анализ получившихся результатов. Определить, какие четыре признака оказались самыми важными по среднему значению. + +Вариант 1. +Модели: +* Линейная регрессия (LinearRegression) +* Случайное Лассо (RandomizedLasso) +* Рекурсивное сокращение признаков (Recursive Feature Elimination – RFE) + +### Запуск программы +Программа работает на Python 3.7, поскольку только в нём можно подключить нужную версию библиотеки scikit-learn, которая ещё содержит RandomizedLasso. + +Файл lab2.py содержит и запускает программу, аргументов и настройки ~~вроде~~ не требует. + +### Описание программы +Файл lab2.py содержит непосредственно программу. + +Программа создаёт набор данных с 10 признаками для последующего их ранжирования, и обрабатывает тремя моделями по варианту. +Программа строит столбчатые диаграммы, которые показывают как распределились оценки важности признаков, и выводит в консоль отсортированные по убыванию важности признаки. +Таким образом можно легко определить наиважнейшие признаки. + +### Результаты тестирования +По результатам тестирования, можно сказать следующее: +* линейная регрессия показывает хорошие результаты, выделяет все 9 значимых признаков. +* случайное лассо справляется хуже других моделей, иногда выделяя шумовые признаки в значимые, а значимые - в шумовые. +* рекурсивное сокращение признаков показывает хорошие результаты, правильно правильно выделяя 9 самых значимых признаков. +* хотя линейная регрессия и рекурсивное сокращение признаков правильно выделяют значимые признаки, саму значимость они оценивают по-разному. +* среднее значение позволяет c хорошей уверенностью определять истинные значимые признаки. + +Итого. Если необходимо просто ранжирование, достаточно взять модель RFE, однако, если необходимо анализировать признаки по коэффициентам, имея меру (коэффициенты), то брать нужно линейную регрессию. Случайное лассо лучше не надо. + +Пример консольных результатов: + +>Linear regression + +>[('x1', 1.0), ('x4', 0.69), ('x2', 0.61), ('x11', 0.59), ('x3', 0.51), ('x13', 0.48), ('x5', 0.19), ('x12', 0.19), ('x14', 0.12), ('x8', 0.03), ('x6', 0.02), ('x10', 0.01), ('x7', 0.0), ('x9', 0.0)] + +>Random lasso + +>[('x5', 1.0), ('x4', 0.76), ('x2', 0.74), ('x1', 0.72), ('x14', 0.44), ('x12', 0.32), ('x11', 0.28), ('x8', 0.22), ('x6', 0.17), ('x3', 0.08), ('x7', 0.02), ('x13', 0.02), ('x9', 0.01), ('x10', 0.0)] + +>RFE + +>[('x4', 1.0), ('x1', 0.92), ('x11', 0.85), ('x2', 0.77), ('x3', 0.69), ('x13', 0.62), ('x5', 0.54), ('x12', 0.46), ('x14', 0.38), ('x8', 0.31), ('x6', 0.23), ('x10', 0.15), ('x7', 0.08), ('x9', 0.0)] + +>Mean + +>[('x1', 0.88), ('x4', 0.82), ('x2', 0.71), ('x5', 0.58), ('x11', 0.57), ('x3', 0.43), ('x13', 0.37), ('x12', 0.32), ('x14', 0.31), ('x8', 0.19), ('x6', 0.14), ('x10', 0.05), ('x7', 0.03), ('x9', 0.0)] + +По данным результатам можно заключить, что наиболее влиятельные признаки по убыванию: x1, x4, x2, x5. \ No newline at end of file