Merge pull request 'basharin_sevastyan_lab_6' (#261) from basharin_sevastyan_lab_6 into main

Reviewed-on: http://student.git.athene.tech/Alexey/IIS_2023_1/pulls/261
This commit is contained in:
Alexey 2023-12-07 16:06:01 +04:00
commit dbdcc204b0
10 changed files with 46180 additions and 51 deletions

View File

@ -1,8 +1,8 @@
## Лабораторная работа 3. Вариант 4.
### Задание
Выполнить ранжирование признаков и решить с помощью библиотечной реализации дерева решений
задачу классификации на 99% данных из курсовой работы. Проверить
работу модели на оставшемся проценте, сделать вывод.
По данным из таблицы реши задачу классификации (с помощью дерева решений) на 99% ваших данных.
Задачу классификации определить необходимо самостоятельно.
Проверьте работу модели на оставшемся проценте, сделайте вывод.
Модель:
- Дерево решений `DecisionTreeClassifier`.
@ -65,21 +65,8 @@ data['Transmission Type'] = label_encoder.fit_transform(data['Transmission Type'
data['Registration Status'] = label_encoder.fit_transform(data['Registration Status'])
```
#### Выявление значимых параметров
```python
# Оценка важности признаков
feature_importances = clf.feature_importances_
feature_importance_df = pd.DataFrame({'Feature': X_train.columns, 'Importance': feature_importances})
feature_importance_df = feature_importance_df.sort_values(by='Importance', ascending=False)
```
#### Решение задачи кластеризации на полном наборе признаков
Чтобы решить задачу кластеризации моделью `DecisionTreeClassifier`, воспользуемся методом `.predict()`.
```python
clf = DecisionTreeClassifier(max_depth=5, random_state=42)
clf.fit(X_train, y_train)
y_pred = clf.predict(X_test)
```
#### Формулировка задачи
Предсказать статус регистрации автомобиля (Registration Status) на основе других параметров.
#### Оценка эффективности
Для оценки точности модели будем использовать встроенный инструмент `accuracy_score`:
@ -88,6 +75,7 @@ accuracy = accuracy_score(y_test, y_pred)
```
#### Результаты
![](accuracy.png "Точность")
![](res.png "Точность")
![](important.png "Важность признаков")
### Вывод
Алгоритм показал высокую точность. Считаем, что алгоритм успешен.

Binary file not shown.

Before

Width:  |  Height:  |  Size: 4.1 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 22 KiB

View File

@ -40,39 +40,29 @@ data['Body Type'] = label_encoder.fit_transform(data['Body Type'])
data['Transmission Type'] = label_encoder.fit_transform(data['Transmission Type'])
data['Registration Status'] = label_encoder.fit_transform(data['Registration Status'])
# Разделение данных на обучающий набор и тестовый набор. Мы будем использовать 99% данных для обучения.
train_data, test_data = train_test_split(data, test_size=0.01, random_state=42)
# Определение целевой переменной и признаков
X = data.drop('Registration Status', axis=1) # Признаки
y = data['Registration Status'] # Целевая переменная
# Определите целевую переменную (то, что вы пытаетесь предсказать, например, 'Price').
X_train = train_data.drop(columns=['Price'])
y_train = train_data['Price']
X_test = test_data.drop(columns=['Price'])
y_test = test_data['Price']
# Разделение данных на обучающий и тестовый наборы
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.01, random_state=42)
# Создание и обучение модели DecisionTreeClassifier
clf = DecisionTreeClassifier(random_state=42)
clf.fit(X_train, y_train)
# Создание и обучение модели дерева решений
model = DecisionTreeClassifier(random_state=42)
model.fit(X_train, y_train)
# Оценка важности признаков
feature_importances = clf.feature_importances_
# Предсказание на тестовом наборе
y_pred = model.predict(X_test)
# Создание DataFrame с именами признаков и их важностью
feature_importance_df = pd.DataFrame({'Feature': X_train.columns, 'Importance': feature_importances})
# Сортировка признаков по убыванию важности
feature_importance_df = feature_importance_df.sort_values(by='Importance', ascending=False)
# Вывод ранжированных признаков
print(feature_importance_df)
clf = DecisionTreeClassifier(max_depth=5, random_state=42)
# Обучите модель на обучающем наборе данных
clf.fit(X_train, y_train)
# Предсказание целевой переменной на тестовом наборе данных
y_pred = clf.predict(X_test)
# Оцените производительность модели с помощью различных метрик
# Оценка точности модели
accuracy = accuracy_score(y_test, y_pred)
print(f'Точность модели: {accuracy}')
print(f'Accuracy: {accuracy * 100:.2f}%')
# Можете также провести анализ других метрик, таких как precision, recall, F1-score и т.д.
# Проверка работы модели на оставшемся проценте данных (1%)
y_remaining = model.predict(X_test) # Предполагаем, что X_test представляет оставшиеся 99% данных
# Вывод результата
print('Результат предсказания на оставшемся проценте данных:')
print(y_remaining)

Binary file not shown.

After

Width:  |  Height:  |  Size: 15 KiB

File diff suppressed because it is too large Load Diff

View File

@ -0,0 +1,63 @@
## Лабораторная работа 6. Вариант 5.
### Задание
С использованием нейронной сети (MLPRegressor) предсказать стоимость автомобилей на основе предоставленных данных.
### Как запустить
Для запуска программы необходимо с помощью командной строки в корневой директории файлов прокета прописать:
``` python
python main.py
```
### Используемые технологии
- Библиотека `pandas`, используемая для работы с данными для анализа scv формата.
- `sklearn` (scikit-learn): Scikit-learn - это библиотека для машинного обучения и анализа данных в Python. Из данной библиотеки были использованы следующие модули:
- `metrics` - набор инструменов для оценки моделей.
- `MLPClassifier` - является реализацией многослойной нейронной сети для задачи классификации.
- `accuracy_score` -функция из scikit-learn, которая используется для оценки производительности модели классификации путем вычисления доли правильно классифицированных примеров (точности) на тестовом наборе данных.
- `train_test_split` - это функция из scikit-learn, используемая для разделения набора данных на обучающий и тестовый наборы.
- `LabelEncoder` - это класс из scikit-learn, используемый для преобразования категориальных признаков (например, строки) в числовые значения.
### Описание работы
#### Описание набора данных
Набор данных: набор данных о цене автомобиля в автопарке.
Названия столбцов набора данных и их описание:
- Id: Уникальный идентификатор для каждого автомобиля в списке.
- Price: Ценовой диапазон автомобилей с конкретными ценниками и подсчетами. (111000 - 77500000)
- Company Name: Название компании-производителя автомобилей с указанием процентной доли представительства каждой компании.
- Model Name: Название модели автомобилей с указанием процентного соотношения каждой модели.
- Model Year: Диапазон лет выпуска автомобилей с указанием количества и процентных соотношений. (1990 - 2019)
- Location: Местоположение автомобилей с указанием регионов, где они доступны для покупки, а также их процентное соотношение.
- Mileage: Информация о пробеге автомобилей с указанием диапазонов пробега, количества и процентов. (1 - 999999)
- Engine Type: Описания типов двигателей с процентными соотношениями для каждого типа.
- Engine Capacity: Мощность двигателя варьируется в зависимости от количества и процентов. (16 - 6600)
- Color: Цветовое распределение автомобилей с указанием процентных соотношений для каждого цвета.
- Assembly: Импорт или местный рынок.
- Body Type: Тип кузова.
- Transmission Type: Тип трансмиссии.
- Registration Status: Статус регистрации.
Ссылка на страницу набора на kuggle: [Ultimate Car Price Prediction Dataset](https://www.kaggle.com/datasets/mohidabdulrehman/ultimate-car-price-prediction-dataset/data)
#### Оценка эффективности
Для оценки точности модели будем использовать встроенный инструмент `accuracy_score`:
```python
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix
accuracy = accuracy_score(y_test, y_pred)
conf_matrix = confusion_matrix(y_test, y_pred)
classification_rep = classification_report(y_test, y_pred)
```
#### Результаты
![](res.png "Точность")
### Вывод
Алгоритм показал высокую точность. Считаем, что алгоритм успешен.
Но если обратить внимание на результаты алгоритма 3-й лабораторной работы, выполняющего ту же задачу, окажется, что
многослойная нейронная сеть справляется хуже:
![](res_lab_3.png "Точность")
Точность MLP (0.91) меньше дерева решений (0.93) (без приведения в проценты). Получается, что MLP показала хороший
результат, но обычная регрессия с поставленной задачей справилась лучше - нет смысла использовать более "тяжелый"
алгоритм, если он не дает значительного выигрыша в качестве.

View File

@ -0,0 +1,65 @@
import pandas as pd
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import LabelEncoder
from sklearn.neural_network import MLPClassifier
''' Названия столбцов набора данных и их описание:
Id: Уникальный идентификатор для каждого автомобиля в списке.
Price: Ценовой диапазон автомобилей с конкретными ценниками и подсчетами. (111000 - 77500000)
Company Name: Название компании-производителя автомобилей с указанием процентной доли представительства каждой компании.
Model Name: Название модели автомобилей с указанием процентного соотношения каждой модели.
Model Year: Диапазон лет выпуска автомобилей с указанием количества и процентных соотношений. (1990 - 2019)
Location: Местоположение автомобилей с указанием регионов, где они доступны для покупки, а также их процентное соотношение.
Mileage: Информация о пробеге автомобилей с указанием диапазонов пробега, количества и процентов. (1 - 999999)
Engine Type: Описания типов двигателей с процентными соотношениями для каждого типа.
Engine Capacity: Мощность двигателя варьируется в зависимости от количества и процентов. (16 - 6600)
Color: Цветовое распределение автомобилей с указанием процентных соотношений для каждого цвета.
'''
# Загрузите данные из вашей курсовой работы, предположим, что у вас есть файл CSV.
data = pd.read_csv('Data_pakwheels.csv')
data.pop("Id")
data.dropna(inplace=True) # Удаление строки с пропущенными значениями.
# Преобразуйте категориальные признаки в числовые. Используйте, например, one-hot encoding.
# data = pd.get_dummies(data, columns=['Company Name', 'Model Name', 'Location', 'Engine Type', 'Color'])
# Создайте объект LabelEncoder
label_encoder = LabelEncoder()
data['Location'] = label_encoder.fit_transform(data['Location'])
data['Company Name'] = label_encoder.fit_transform(data['Company Name'])
data['Model Name'] = label_encoder.fit_transform(data['Model Name'])
data['Engine Type'] = label_encoder.fit_transform(data['Engine Type'])
data['Color'] = label_encoder.fit_transform(data['Color'])
data['Assembly'] = label_encoder.fit_transform(data['Assembly'])
data['Body Type'] = label_encoder.fit_transform(data['Body Type'])
data['Transmission Type'] = label_encoder.fit_transform(data['Transmission Type'])
data['Registration Status'] = label_encoder.fit_transform(data['Registration Status'])
# Определите признаки (X) и целевую переменную (y)
X = data.drop('Registration Status', axis=1)
y = data['Registration Status']
# Разделите данные на обучающий и тестовый наборы
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# Инициализируйте и обучите MLPClassifier
mlp_classifier = MLPClassifier(hidden_layer_sizes=(100,), max_iter=1000, random_state=42)
mlp_classifier.fit(X_train, y_train)
# Сделайте предсказания на тестовом наборе
y_pred = mlp_classifier.predict(X_test)
# Оцените производительность модели
accuracy = accuracy_score(y_test, y_pred)
conf_matrix = confusion_matrix(y_test, y_pred)
classification_rep = classification_report(y_test, y_pred)
# Выведите результаты
print(f'Accuracy: {accuracy}')
print(f'Confusion Matrix:\n{conf_matrix}')
print(f'Classification Report:\n{classification_rep}')

Binary file not shown.

After

Width:  |  Height:  |  Size: 25 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 15 KiB