AIM-PIbd-31-Masenkin-M-S/lab_4/lab4.ipynb
2024-11-17 18:08:11 +04:00

297 KiB
Raw Blame History

Датасет: Tesla Insider Trading.

Описание датасета:

Датасет представляет собой выборку операций с ценными бумагами компании Tesla, совершённых инсайдерами, и является частью более крупного проекта "Insider Trading S&P500 Inside Info". Данные охватывают транзакции с участием крупных акционеров и должностных лиц компании, включая такие операции, как покупка, продажа и опционы, начиная с 10 ноября 2021 года и до 27 июля 2022 года.


Анализ сведений:

Проблемная область: Проблемная область данного датасета касается анализа инсайдерских сделок в публичных компаниях, а также их влияния на ценообразование акций. Инсайдерские транзакции, совершаемые людьми с доступом к непубличной информации (такими как руководители, крупные акционеры или члены совета директоров), могут быть индикаторами будущих изменений стоимости акций. Исследование таких транзакций помогает понять, как информация внутри компании отражается в действиях ключевых участников, и может выявить паттерны поведения, которые влияют на рынки.

Актуальность: Анализ инсайдерских сделок становится особенно важным в условиях высокой волатильности рынка и неопределенности. Инвесторы, аналитики и компании используют такие данные, чтобы лучше понимать сигналы от крупных акционеров и должностных лиц. Действия инсайдеров, такие как покупки и продажи акций, нередко рассматриваются как индикаторы доверия к компании, что может оказывать значительное влияние на рыночные ожидания и прогнозы.

Объекты наблюдений: Объектами наблюдений в датасете являются инсайдеры компании Tesla — лица, имеющие значительное влияние на управление и информацию компании. Каждый объект характеризуется различными параметрами, включая должность, тип транзакции, количество акций и общую стоимость сделок.

Атрибуты объектов:

  • Insider Trading: ФИО лица, совершившего транзакцию.
  • Relationship: Должность или статус данного лица в компании Tesla.
  • Date: Дата завершения транзакции.
  • Transaction: Тип транзакции.
  • Cost: Цена одной акции на момент совершения транзакции.
  • Shares: Количество акций, участвующих в транзакции.
  • Value ($): Общая стоимость транзакции в долларах США.
  • Shares Total: Общее количество акций, принадлежащих этому лицу после завершения данной транзакции.
  • SEC Form 4: Дата записи транзакции в форме SEC Form 4, обязательной для отчётности о сделках инсайдеров.

Бизнес-цели:

  1. Для решения задачи регрессии: Предсказать будущую стоимость акций компании Tesla на основе инсайдерских транзакций. Стоимость акций ("Cost") зависит от множества факторов, включая объём и тип транзакций, совершаемых инсайдерами. Если выявить зависимости между параметрами транзакций (количество акций, общий объём сделки, должность инсайдера) и стоимостью акций, это может помочь инвесторам принимать обоснованные решения о покупке или продаже.
  2. Для решения задачи классификации: Классифицировать тип инсайдерской транзакции (продажа акций или исполнение опционов) на основе характеристик сделки. Тип транзакции ("Transaction") может быть индикатором доверия инсайдера к текущей рыночной цене или будущей прибыльности компании. Модель, которая предсказывает тип транзакции, может помочь в оценке поведения инсайдеров и выявлении аномалий.

Выгрузка данных из файла в DataFrame:

In [379]:
from typing import Any, Tuple
from math import ceil

import pandas as pd
from pandas import DataFrame
import matplotlib.pyplot as plt


df: DataFrame = pd.read_csv('..//static//csv//TSLA.csv')

Краткая информация о DataFrame:

In [380]:
# Краткая информация о DataFrame
df.info()

# Статистическое описание числовых столбцов
df.describe().transpose()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 156 entries, 0 to 155
Data columns (total 9 columns):
 #   Column           Non-Null Count  Dtype  
---  ------           --------------  -----  
 0   Insider Trading  156 non-null    object 
 1   Relationship     156 non-null    object 
 2   Date             156 non-null    object 
 3   Transaction      156 non-null    object 
 4   Cost             156 non-null    float64
 5   Shares           156 non-null    object 
 6   Value ($)        156 non-null    object 
 7   Shares Total     156 non-null    object 
 8   SEC Form 4       156 non-null    object 
dtypes: float64(1), object(8)
memory usage: 11.1+ KB
Out[380]:
count mean std min 25% 50% 75% max
Cost 156.0 478.785641 448.922903 0.0 50.5225 240.225 934.1075 1171.04

Предобработка данных:

In [381]:
# Преобразование типов данных
df['Insider Trading'] = df['Insider Trading'].astype('category')                             # Преобразование в категорию
df['Relationship'] = df['Relationship'].astype('category')                                   # Преобразование в категорию
df['Transaction'] = df['Transaction'].astype('category')                                     # Преобразование в категорию
df['Cost'] = pd.to_numeric(df['Cost'], errors='coerce')                                      # Преобразование в float
df['Shares'] = pd.to_numeric(df['Shares'].str.replace(',', ''), errors='coerce')             # Преобразование в float с удалением запятых
df['Value ($)'] = pd.to_numeric(df['Value ($)'].str.replace(',', ''), errors='coerce')       # Преобразование в float с удалением запятых
df['Shares Total'] = pd.to_numeric(df['Shares Total'].str.replace(',', ''), errors='coerce') # Преобразование в float с удалением запятых

df['Date'] = pd.to_datetime(df['Date'], errors='coerce') # Преобразование в datetime
df['Year'] = df['Date'].dt.year   # Год
df['Month'] = df['Date'].dt.month # Месяц
df['Day'] = df['Date'].dt.day     # День
df: DataFrame = df.drop(columns=['Date', 'SEC Form 4'])  # Удаление столбцов с датами

print('Выборка данных:')
df.head(10)
Выборка данных:
Out[381]:
Insider Trading Relationship Transaction Cost Shares Value ($) Shares Total Year Month Day
0 Kirkhorn Zachary Chief Financial Officer Sale 196.72 10455 2056775 203073 2022 3 6
1 Taneja Vaibhav Chief Accounting Officer Sale 195.79 2466 482718 100458 2022 3 6
2 Baglino Andrew D SVP Powertrain and Energy Eng. Sale 195.79 1298 254232 65547 2022 3 6
3 Taneja Vaibhav Chief Accounting Officer Option Exercise 0.00 7138 0 102923 2022 3 5
4 Baglino Andrew D SVP Powertrain and Energy Eng. Option Exercise 0.00 2586 0 66845 2022 3 5
5 Kirkhorn Zachary Chief Financial Officer Option Exercise 0.00 16867 0 213528 2022 3 5
6 Baglino Andrew D SVP Powertrain and Energy Eng. Option Exercise 20.91 10500 219555 74759 2022 2 27
7 Baglino Andrew D SVP Powertrain and Energy Eng. Sale 202.00 10500 2121000 64259 2022 2 27
8 Kirkhorn Zachary Chief Financial Officer Sale 193.00 3750 723750 196661 2022 2 6
9 Baglino Andrew D SVP Powertrain and Energy Eng. Option Exercise 20.91 10500 219555 74759 2022 1 27

Бизнес-цель №1 (Задача регрессии).

Достижимый уровень качества модели:

Основные метрики для регрессии:

  • Средняя абсолютная ошибка (Mean Absolute Error, MAE) показывает среднее абсолютное отклонение между предсказанными и фактическими значениями. Легко интерпретируется, особенно в финансовых данных, где каждая ошибка в долларах имеет значение.
  • Среднеквадратичная ошибка (Mean Squared Error, MSE) показывает, насколько отклоняются прогнозы модели от истинных значений в квадрате. Подходит для оценки общего качества модели.
  • Коэффициент детерминации (R²) указывает, какую долю дисперсии зависимой переменной объясняет модель. R² варьируется от 0 до 1 (чем ближе к 1, тем лучше).

Выбор ориентира:

В качестве базовой модели для оценки качества предсказаний выбрано использование среднего значения целевой переменной (Cost) на обучающей выборке. Это простой и интуитивно понятный метод, который служит минимальным ориентиром для сравнения с более сложными моделями. Базовая модель помогает установить начальный уровень ошибок (MAE, MSE) и показатель качества (R²), которые сложные модели должны улучшить, чтобы оправдать своё использование.


Разбиение данных:

In [382]:
from pandas.core.frame import DataFrame
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score


# Разбить данные на обучающую и тестовую выборки
def split_into_train_test(
    df_input: DataFrame,
    stratify_colname: str = "y",  
    frac_train: float = 0.8,
    random_state: int = 42,
) -> Tuple[DataFrame, DataFrame, DataFrame, DataFrame]:

    if stratify_colname not in df_input.columns:
        raise ValueError("%s is not a column in the dataframe" % (stratify_colname))
    
    if not (0 < frac_train < 1):
        raise ValueError("Fraction must be between 0 and 1.")
    
    X: DataFrame = df_input  # Contains all columns.
    y: DataFrame = df_input[
        [stratify_colname]
    ]  # Dataframe of just the column on which to stratify.

    # Split original dataframe into train and test dataframes.
    X_train, X_test, y_train, y_test = train_test_split(
        X, y,
        test_size=(1.0 - frac_train),
        random_state=random_state
    )
    
    return X_train, X_test, y_train, y_test


# Определяем целевой признак и входные признаки
y_feature: str = 'Cost'
X_features: list[str] = df.drop(columns=y_feature, axis=1).columns.tolist()

# Разбиваем данные на обучающую и тестовую выборки
X_df_train, X_df_test, y_df_train, y_df_test = split_into_train_test(
    df, 
    stratify_colname=y_feature,  
    frac_train=0.8, 
    random_state=42 
)

# Вычисляем предсказания базовой модели (среднее значение целевой переменной)
baseline_predictions: list[float] = [y_df_train.mean()] * len(y_df_test) # type: ignore

# Оцениваем базовую модель
print('Baseline MAE:', mean_absolute_error(y_df_test, baseline_predictions))
print('Baseline MSE:', mean_squared_error(y_df_test, baseline_predictions))
print('Baseline R²:', r2_score(y_df_test, baseline_predictions))
Baseline MAE: 417.78235887096776
Baseline MSE: 182476.07973024843
Baseline R²: -0.027074997920953914

Выбор моделей обучения:

Для обучения были выбраны следующие модели:

  1. Случайный лес (Random Forest): Ансамблевая модель, которая использует множество решающих деревьев. Она хорошо справляется с нелинейными зависимостями и шумом в данных, а также обладает устойчивостью к переобучению.
  2. Линейная регрессия (Linear Regression): Простая модель, предполагающая линейную зависимость между признаками и целевой переменной. Она быстро обучается и предоставляет легкую интерпретацию результатов.
  3. Градиентный бустинг (Gradient Boosting): Мощная модель, создающая ансамбль деревьев, которые корректируют ошибки предыдущих. Эта модель эффективна для сложных наборов данных и обеспечивает высокую точность предсказаний.

Построение конвейера:

In [383]:
from sklearn.impute import SimpleImputer
from sklearn.discriminant_analysis import StandardScaler
from sklearn.preprocessing import OneHotEncoder
from sklearn.compose import ColumnTransformer
from sklearn.pipeline import Pipeline


# Числовые столбцы
num_columns: list[str] = [
    column
    for column in df.columns
    if df[column].dtype not in ("category", "object")
]

# Категориальные столбцы
cat_columns: list[str] = [
    column
    for column in df.columns
    if df[column].dtype in ("category", "object")
]

# Заполнение пропущенных значений
num_imputer = SimpleImputer(strategy="median")
# Стандартизация
num_scaler = StandardScaler()
# Конвейер для обработки числовых данных
preprocessing_num = Pipeline(
    [
        ("imputer", num_imputer),
        ("scaler", num_scaler),
    ]
)

# Заполнение пропущенных значений
cat_imputer = SimpleImputer(strategy="constant", fill_value="unknown")
# Унитарное кодирование
cat_encoder = OneHotEncoder(handle_unknown="ignore", sparse_output=False, drop="first")
# Конвейер для обработки категориальных данных
preprocessing_cat = Pipeline(
    [
        ("imputer", cat_imputer),
        ("encoder", cat_encoder),
    ]
)

# Трансформер для предобработки признаков
features_preprocessing = ColumnTransformer(
    verbose_feature_names_out=False,
    transformers=[
        ("prepocessing_num", preprocessing_num, num_columns),
        ("prepocessing_cat", preprocessing_cat, cat_columns),
    ],
    remainder="passthrough"
)

# Основной конвейер предобработки данных
pipeline_end = Pipeline(
    [
        ("features_preprocessing", features_preprocessing),
    ]
)

Демонстрация работы конвейера:

In [384]:
# Применение конвейера
preprocessing_result = pipeline_end.fit_transform(X_df_train)
preprocessed_df = pd.DataFrame(
    preprocessing_result,
    columns=pipeline_end.get_feature_names_out(),
)

preprocessed_df.head(10)
Out[384]:
Cost Shares Value ($) Shares Total Year Month Day Insider Trading_DENHOLM ROBYN M Insider Trading_Kirkhorn Zachary Insider Trading_Musk Elon Insider Trading_Musk Kimbal Insider Trading_Taneja Vaibhav Insider Trading_Wilson-Thompson Kathleen Relationship_Chief Accounting Officer Relationship_Chief Financial Officer Relationship_Director Relationship_SVP Powertrain and Energy Eng. Transaction_Sale
0 -0.966516 -0.361759 -0.450022 -0.343599 0.715678 -0.506108 -0.400623 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
1 -1.074894 1.225216 -0.414725 -0.319938 -1.397276 0.801338 0.906673 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2 -1.074894 1.211753 -0.415027 -0.320141 -1.397276 1.062828 -0.098939 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
3 1.167142 0.037499 1.023612 -0.325853 -1.397276 1.062828 -0.501184 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0
4 1.217886 -0.075287 0.632973 -0.330205 -1.397276 1.062828 -0.501184 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0
5 0.505872 -0.361021 -0.443679 -0.343698 0.715678 -0.767598 1.308918 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0 1.0
6 -1.088674 -0.357532 -0.450389 -0.342863 0.715678 0.278360 -0.903429 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
7 -0.692146 -0.355855 -0.445383 -0.343220 0.715678 0.801338 1.409480 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0 1.0
8 -1.088674 -0.361181 -0.450389 -0.343649 -1.397276 1.062828 -0.903429 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
9 1.091997 -0.204531 0.114712 1.538166 0.715678 -1.029087 1.208357 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0

Обучение моделей:

Оценка результатов обучения:

  1. Случайный лес (Random Forest):
    • Показатели:
      • Средний балл: 0.9993.
      • Стандартное отклонение: 0.00046.
    • Вывод: Очень высокая точность, что свидетельствует о хорошей способности модели к обобщению. Низкое значение стандартного отклонения указывает на стабильность модели.
  2. Линейная регрессия (Linear Regression):
    • Показатели:
      • Средний балл: 1.0.
      • Стандартное отклонение: 0.0.
    • Вывод: Идеальная точность, однако есть вероятность переобучения, так как стандартное отклонение равно 0. Это может указывать на то, что модель идеально подгоняет данные, но может не работать на новых данных.
  3. Градиентный бустинг (Gradient Boosting):
    • Показатели:
      • Средний балл: 0.9998.
      • Стандартное отклонение: 0.00014.
    • Вывод: Отличные результаты с высокой точностью и низкой вариабельностью. Модель также демонстрирует хорошую устойчивость.
In [385]:
from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressor
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import cross_val_score


# Обучить модели
def train_models(X: DataFrame, y: DataFrame, 
                 models: dict[str, Any]) -> dict[str, dict[str, Any]]:
    results: dict[str, dict[str, Any]] = {}
    
    for model_name, model in models.items():
        # Создание конвейера для текущей модели
        model_pipeline = Pipeline(
            [
                ("features_preprocessing", features_preprocessing),
                ("model", model)
            ]
        )
        
        # Обучаем модель и вычисляем кросс-валидацию
        scores = cross_val_score(model_pipeline, X, y, cv=5) # 5-кратная кросс-валидация
        
        # Вычисление метрик для текущей модели
        metrics_dict: dict[str, Any] = {
            "mean_score": scores.mean(),
            "std_dev": scores.std()
        }
        
        # Сохранениерезультатов
        results[model_name] = metrics_dict
    
    return results


# Выбранные модели для регрессии
models_regression: dict[str, Any] = {
    "Random Forest": RandomForestRegressor(),
    "Linear Regression": LinearRegression(),
    "Gradient Boosting": GradientBoostingRegressor(),
}

results: dict[str, Any] = train_models(X_df_train, y_df_train, models_regression)

# Вывод результатов
for model_name, metrics_dict in results.items():
    print(f"Модель: {model_name}")
    for metric_name, value in metrics_dict.items():
        print(f"\t{metric_name}: {value}")
    print()
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\base.py:1473: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples,), for example using ravel().
  return fit_method(estimator, *args, **kwargs)
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\base.py:1473: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples,), for example using ravel().
  return fit_method(estimator, *args, **kwargs)
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\base.py:1473: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples,), for example using ravel().
  return fit_method(estimator, *args, **kwargs)
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\preprocessing\_encoders.py:242: UserWarning: Found unknown categories in columns [0] during transform. These unknown categories will be encoded as all zeros
  warnings.warn(
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\base.py:1473: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples,), for example using ravel().
  return fit_method(estimator, *args, **kwargs)
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\base.py:1473: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples,), for example using ravel().
  return fit_method(estimator, *args, **kwargs)
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\preprocessing\_encoders.py:242: UserWarning: Found unknown categories in columns [0] during transform. These unknown categories will be encoded as all zeros
  warnings.warn(
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\ensemble\_gb.py:668: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples, ), for example using ravel().
  y = column_or_1d(y, warn=True)  # TODO: Is this still required?
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\ensemble\_gb.py:668: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples, ), for example using ravel().
  y = column_or_1d(y, warn=True)  # TODO: Is this still required?
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\ensemble\_gb.py:668: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples, ), for example using ravel().
  y = column_or_1d(y, warn=True)  # TODO: Is this still required?
Модель: Random Forest
	mean_score: 0.9992580181099008
	std_dev: 0.0004834744839371662

Модель: Linear Regression
	mean_score: 1.0
	std_dev: 0.0

Модель: Gradient Boosting
	mean_score: 0.9997687065029746
	std_dev: 0.00014193622424523165

d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\preprocessing\_encoders.py:242: UserWarning: Found unknown categories in columns [0] during transform. These unknown categories will be encoded as all zeros
  warnings.warn(
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\ensemble\_gb.py:668: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples, ), for example using ravel().
  y = column_or_1d(y, warn=True)  # TODO: Is this still required?
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\sklearn\ensemble\_gb.py:668: DataConversionWarning: A column-vector y was passed when a 1d array was expected. Please change the shape of y to (n_samples, ), for example using ravel().
  y = column_or_1d(y, warn=True)  # TODO: Is this still required?

Проверка на тестовом наборе данных:

Оценка результатов обучения:

  1. Случайный лес (Random Forest):
    • Показатели:
      • MAE (обучение): 1.858
      • MAE (тест): 4.489
      • MSE (обучение): 10.959
      • MSE (тест): 62.649
      • R² (обучение): 0.9999
      • R² (тест): 0.9997
      • STD (обучение): 3.310
      • STD (тест): 7.757
    • Вывод: Случайный лес показывает великолепные значения R2 на обучающей и тестовой выборках, что свидетельствует о сильной способности к обобщению. Однако MAE и MSE на тестовой выборке значительно выше, чем на обучающей, что может указывать на некоторые проблемы с переобучением.
  2. Линейная регрессия (Linear Regression):
    • Показатели:
      • MAE (обучение): 3.069e-13
      • MAE (тест): 2.762e-13
      • MSE (обучение): 1.437e-25
      • MSE (тест): 1.196e-25
      • R² (обучение): 1.0
      • R² (тест): 1.0
      • STD (обучение): 3.730e-13
      • STD (тест): 3.444e-13
    • Вывод: Высокие показатели точности и нулевые ошибки (MAE, MSE) указывают на то, что модель идеально подгоняет данные как на обучающей, так и на тестовой выборках. Однако это также может быть признаком переобучения.
  3. Градиентный бустинг (Gradient Boosting):
    • Показатели:
      • MAE (обучение): 0.156
      • MAE (тест): 3.027
      • MSE (обучение): 0.075
      • MSE (тест): 41.360
      • R² (обучение): 0.9999996
      • R² (тест): 0.9998
      • STD (обучение): 0.274
      • STD (тест): 6.399
    • Вывод: Градиентный бустинг демонстрирует отличные результаты на обучающей выборке, однако MAE и MSE на тестовой выборке довольно высокие, что может указывать на определенное переобучение или необходимость улучшения настройки модели.
In [386]:
import numpy as np

from sklearn import metrics


# Оценка качества различных моделей на основе метрик
def evaluate_models(models: dict[str, Any], 
                    pipeline_end: Pipeline, 
                    X_train: DataFrame, y_train, 
                    X_test: DataFrame, y_test) -> dict[str, dict[str, Any]]:
    results: dict[str, dict[str, Any]] = {}
    
    for model_name, model in models.items():
        # Создание конвейера для текущей модели
        model_pipeline = Pipeline(
            [
                ("pipeline", pipeline_end), 
                ("model", model),
            ]
        )
        
        # Обучение текущей модели
        model_pipeline.fit(X_train, y_train)

        # Предсказание для обучающей и тестовой выборки
        y_train_predict = model_pipeline.predict(X_train)
        y_test_predict = model_pipeline.predict(X_test)

        # Вычисление метрик для текущей модели
        metrics_dict: dict[str, Any] = {
            "MAE_train": metrics.mean_absolute_error(y_train, y_train_predict),
            "MAE_test": metrics.mean_absolute_error(y_test, y_test_predict),
            "MSE_train": metrics.mean_squared_error(y_train, y_train_predict),
            "MSE_test": metrics.mean_squared_error(y_test, y_test_predict),
            "R2_train": metrics.r2_score(y_train, y_train_predict),
            "R2_test": metrics.r2_score(y_test, y_test_predict),
            "STD_train": np.std(y_train - y_train_predict),
            "STD_test": np.std(y_test - y_test_predict),
        }

        # Сохранение результатов
        results[model_name] = metrics_dict
    
    return results


y_train = np.ravel(y_df_train)  
y_test = np.ravel(y_df_test) 

results: dict[str, dict[str, Any]] = evaluate_models(models_regression,
                                                     pipeline_end,
                                                     X_df_train, y_train,
                                                     X_df_test, y_test)

# Вывод результатов
for model_name, metrics_dict in results.items():
    print(f"Модель: {model_name}")
    for metric_name, value in metrics_dict.items():
        print(f"\t{metric_name}: {value}")
    print()
Модель: Random Forest
	MAE_train: 1.955516935483828
	MAE_test: 4.46537187499996
	MSE_train: 11.287871282983637
	MSE_test: 66.47081479843644
	R2_train: 0.9999449583585838
	R2_test: 0.9996258659651619
	STD_train: 3.351830348079478
	STD_test: 8.067958792345765

Модель: Linear Regression
	MAE_train: 3.0690862038154006e-13
	MAE_test: 2.761679773755077e-13
	MSE_train: 1.4370485712253764e-25
	MSE_test: 1.19585889812782e-25
	R2_train: 1.0
	R2_test: 1.0
	STD_train: 3.7295840825107354e-13
	STD_test: 3.4438670391637766e-13

Модель: Gradient Boosting
	MAE_train: 0.15613772760448247
	MAE_test: 2.9760510050502877
	MSE_train: 0.07499640211231862
	MSE_test: 38.91708171007616
	R2_train: 0.9999996343043813
	R2_test: 0.9997809534176997
	STD_train: 0.2738547098596601
	STD_test: 6.197132274535746

Подбор гиперпараметров:

In [387]:
from sklearn.model_selection import GridSearchCV


# Применение конвейера к данным
X_train_processing_result = pipeline_end.fit_transform(X_df_train)
X_test_processing_result = pipeline_end.transform(X_df_test)

# Создание и настройка модели случайного леса
model = RandomForestRegressor()

# Установка параметров для поиска по сетке
param_grid: dict[str, list[int | None]] = {
    'n_estimators': [50, 100, 200],  # Количество деревьев
    'max_depth': [None, 10, 20, 30], # Максимальная глубина дерева
    'min_samples_split': [2, 5, 10]  # Минимальное количество образцов для разбиения узла
}

# Подбор гиперпараметров с помощью поиска по сетке
grid_search = GridSearchCV(estimator=model, 
                           param_grid=param_grid,
                           scoring='neg_mean_squared_error', cv=3, n_jobs=-1, verbose=2)

# Обучение модели на тренировочных данных
grid_search.fit(X_train_processing_result, y_train)

# Результаты подбора гиперпараметров
print("Лучшие параметры:", grid_search.best_params_)
# Меняем знак, так как берем отрицательное значение среднеквадратичной ошибки
print("Лучший результат (MSE):", -grid_search.best_score_)
Fitting 3 folds for each of 36 candidates, totalling 108 fits
Лучшие параметры: {'max_depth': 10, 'min_samples_split': 5, 'n_estimators': 50}
Лучший результат (MSE): 196.9489804872991

Сравнение наборов гиперпараметров:

Результаты анализа показывают, что параметры из старой сетки обеспечивают значительно лучшее качество модели. Среднеквадратическая ошибка (MSE) на кросс-валидации для старых параметров составила 179.369, что существенно ниже, чем для новых параметров (1290.656). На тестовой выборке модель с новыми параметрами показала MSE 172.574, что сопоставимо с результатами модели со старыми параметрами, однако этот результат является случайным, так как новые параметры продемонстрировали плохую кросс-валидационную ошибку, указывая на недообучение. Таким образом, параметры из старой сетки более предпочтительны, так как они обеспечивают лучшее обобщение и меньшую ошибку.

In [388]:
# Установка параметров для поиска по сетке для старых значений
old_param_grid: dict[str, list[int | None]] = {
    'n_estimators': [50, 100, 200],  # Количество деревьев
    'max_depth': [None, 10, 20, 30], # Максимальная глубина дерева
    'min_samples_split': [2, 5, 10]  # Минимальное количество образцов для разбиения узла
}

# Подбор гиперпараметров с помощью поиска по сетке для старых параметров
old_grid_search = GridSearchCV(estimator=model, 
                                param_grid=old_param_grid,
                                scoring='neg_mean_squared_error', cv=3, n_jobs=-1, verbose=2)

# Обучение модели на тренировочных данных
old_grid_search.fit(X_train_processing_result, y_train)

# Результаты подбора для старых параметров
old_best_params = old_grid_search.best_params_
# Меняем знак, так как берем отрицательное значение MSE
old_best_mse = -old_grid_search.best_score_


# Установка параметров для поиска по сетке для новых значений
new_param_grid: dict[str, list[int]] = {
    'n_estimators': [50],
    'max_depth': [5],
    'min_samples_split': [10]
}

# Подбор гиперпараметров с помощью поиска по сетке для новых параметров
new_grid_search = GridSearchCV(estimator=model, 
                                param_grid=new_param_grid,
                                scoring='neg_mean_squared_error', cv=2)

# Обучение модели на тренировочных данных
new_grid_search.fit(X_train_processing_result, y_train)

# Результаты подбора для новых параметров
new_best_params = new_grid_search.best_params_
# Меняем знак, так как берем отрицательное значение MSE
new_best_mse = -new_grid_search.best_score_


# Обучение модели с лучшими параметрами для новых значений
model_best = RandomForestRegressor(**new_best_params)
model_best.fit(X_train_processing_result, y_train)

# Прогнозирование на тестовой выборке
y_pred = model_best.predict(X_test_processing_result)

# Оценка производительности модели
mse = metrics.mean_squared_error(y_test, y_pred)
rmse = np.sqrt(mse)


# Вывод результатов
print("Старые параметры:", old_best_params)
print("Лучший результат (MSE) на старых параметрах:", old_best_mse)
print("\nНовые параметры:", new_best_params)
print("Лучший результат (MSE) на новых параметрах:", new_best_mse)
print("Среднеквадратическая ошибка (MSE) на тестовых данных:", mse)
print("Корень среднеквадратичной ошибки (RMSE) на тестовых данных:", rmse)

# Обучение модели с лучшими параметрами для старых значений
model_old = RandomForestRegressor(**old_best_params)
model_old.fit(X_train_processing_result, y_train)

# Прогнозирование на тестовой выборке для старых параметров
y_pred_old = model_old.predict(X_test_processing_result)

# Визуализация ошибок
plt.figure(figsize=(10, 5))
plt.plot(y_test, label='Реальные значения', marker='o', linestyle='-', color='black')
plt.plot(y_pred_old, label='Предсказанные значения (старые параметры)', marker='x', linestyle='--', color='blue')
plt.plot(y_pred, label='Предсказанные значения (новые параметры)', marker='s', linestyle='--', color='orange')
plt.xlabel('Объекты')
plt.ylabel('Значения')
plt.title('Сравнение реальных и предсказанных значений')
plt.legend()
plt.show()
Fitting 3 folds for each of 36 candidates, totalling 108 fits
Старые параметры: {'max_depth': 10, 'min_samples_split': 5, 'n_estimators': 50}
Лучший результат (MSE) на старых параметрах: 184.14248778487732

Новые параметры: {'max_depth': 5, 'min_samples_split': 10, 'n_estimators': 50}
Лучший результат (MSE) на новых параметрах: 1283.4356458868208
Среднеквадратическая ошибка (MSE) на тестовых данных: 159.03284823315155
Корень среднеквадратичной ошибки (RMSE) на тестовых данных: 12.610822662822262
No description has been provided for this image

Бизес-цель №2 (Задача классификации).

Достижимый уровень качества модели:

Основные метрики для классификации:

  • Accuracy (точность) показывает долю правильно классифицированных примеров среди всех наблюдений. Легко интерпретируется, но может быть недостаточно информативной для несбалансированных классов.
  • F1-Score гармоническое среднее между точностью (precision) и полнотой (recall). Подходит для задач, где важно одновременно учитывать как ложные положительные, так и ложные отрицательные ошибки, особенно при несбалансированных классах.
  • ROC AUC (Area Under the ROC Curve) отражает способность модели различать положительные и отрицательные классы на всех уровнях порога вероятности. Значение от 0.5 (случайное угадывание) до 1.0 (идеальная модель). Полезна для оценки модели на несбалансированных данных.
  • Cohen's Kappa измеряет степень согласия между предсказаниями модели и истинными метками с учётом случайного угадывания. Значения варьируются от -1 (полное несогласие) до 1 (идеальное согласие). Удобна для оценки на несбалансированных данных.
  • MCC (Matthews Correlation Coefficient) метрика корреляции между предсказаниями и истинными классами, учитывающая все типы ошибок (TP, TN, FP, FN). Значение варьируется от -1 (полная несоответствие) до 1 (идеальное совпадение). Отлично подходит для задач с несбалансированными классами.
  • Confusion Matrix (матрица ошибок) матрица ошибок отражает распределение предсказаний модели по каждому из классов.

Выбор ориентира:

В качестве базовой модели для оценки качества предсказаний выбрано использование самой распространённой категории целевой переменной ("Transaction") в обучающей выборке. Этот подход, известный как "most frequent class baseline", заключается в том, что модель всегда предсказывает наиболее часто встречающийся тип транзакции.


Разбиение данных:

In [389]:
from sklearn.metrics import accuracy_score, f1_score


# Определяем целевой признак и входные признаки
y_feature: str = 'Transaction'
X_features: list[str] = df.drop(columns=y_feature, axis=1).columns.tolist()

# Разбиваем данные на обучающую и тестовую выборки
X_df_train, X_df_test, y_df_train, y_df_test = split_into_train_test(
    df, 
    stratify_colname=y_feature,  
    frac_train=0.8, 
    random_state=42 
)

# Определяем самый частый класс
most_frequent_class = y_df_train.mode().values[0][0]
print(f"Самый частый класс: {most_frequent_class}")

# Вычисляем предсказания базовой модели (все предсказания равны самому частому классу)
baseline_predictions: list[str] = [most_frequent_class] * len(y_df_test)

# Оцениваем базовую модель
print('Baseline Accuracy:', accuracy_score(y_df_test, baseline_predictions))
print('Baseline F1:', f1_score(y_df_test, baseline_predictions, average='weighted'))

# Унитарное кодирование для целевого признака
y_df_train = y_df_train['Transaction'].map({'Sale': 1, 'Option Exercise': 0})
y_df_test = y_df_test['Transaction'].map({'Sale': 1, 'Option Exercise': 0})
Самый частый класс: Sale
Baseline Accuracy: 0.59375
Baseline F1: 0.4424019607843137

Выбор моделей обучения:

Для обучения были выбраны следующие модели:

  1. Случайный лес (Random Forest): Ансамблевая модель, которая использует множество решающих деревьев. Она хорошо справляется с нелинейными зависимостями и шумом в данных, а также обладает устойчивостью к переобучению.
  2. Логистическая регрессия (Logistic Regression): Статистический метод для бинарной классификации, который моделирует зависимость между целевой переменной и независимыми признаками, используя логистическую функцию. Она проста в интерпретации и быстра в обучении.
  3. Метод ближайших соседей (KNN): Алгоритм классификации, который предсказывает класс на основе ближайших k обучающих примеров. KNN интуитивно понятен и не требует обучения, но может быть медленным на больших данных и чувствительным к выбору параметров.

Построение конвейера:

Конвейеры для обработки числовых и категориальных значений, а так же основной конвейер уже были построены ранее при решении задачи регрессии.

Демонстрация работы конвейера:

In [390]:
# Применение конвейера
preprocessing_result = pipeline_end.fit_transform(X_df_train)
preprocessed_df = pd.DataFrame(
    preprocessing_result,
    columns=pipeline_end.get_feature_names_out(),
)

preprocessed_df.head(10)
Out[390]:
Cost Shares Value ($) Shares Total Year Month Day Insider Trading_DENHOLM ROBYN M Insider Trading_Kirkhorn Zachary Insider Trading_Musk Elon Insider Trading_Musk Kimbal Insider Trading_Taneja Vaibhav Insider Trading_Wilson-Thompson Kathleen Relationship_Chief Accounting Officer Relationship_Chief Financial Officer Relationship_Director Relationship_SVP Powertrain and Energy Eng. Transaction_Sale
0 -0.966516 -0.361759 -0.450022 -0.343599 0.715678 -0.506108 -0.400623 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
1 -1.074894 1.225216 -0.414725 -0.319938 -1.397276 0.801338 0.906673 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2 -1.074894 1.211753 -0.415027 -0.320141 -1.397276 1.062828 -0.098939 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
3 1.167142 0.037499 1.023612 -0.325853 -1.397276 1.062828 -0.501184 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0
4 1.217886 -0.075287 0.632973 -0.330205 -1.397276 1.062828 -0.501184 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0
5 0.505872 -0.361021 -0.443679 -0.343698 0.715678 -0.767598 1.308918 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0 1.0
6 -1.088674 -0.357532 -0.450389 -0.342863 0.715678 0.278360 -0.903429 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
7 -0.692146 -0.355855 -0.445383 -0.343220 0.715678 0.801338 1.409480 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0 1.0
8 -1.088674 -0.361181 -0.450389 -0.343649 -1.397276 1.062828 -0.903429 0.0 0.0 0.0 0.0 1.0 0.0 1.0 0.0 0.0 0.0 0.0
9 1.091997 -0.204531 0.114712 1.538166 0.715678 -1.029087 1.208357 0.0 0.0 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0

Проверка моделей:

Оценка результатов обучения:

  1. Случайный лес (Random Forest):
    • Показатели:
      • Precision (обучение): 1.0
      • Precision (тест): 1.0
      • Recall (обучение): 1.0
      • Recall (тест): 1.0
      • Accuracy (обучение): 1.0
      • Accuracy (тест): 1.0
      • F1 Score (обучение): 1.0
      • F1 Score (тест): 1.0
      • ROC AUC (тест): 1.0
      • Cohen Kappa (тест): 1.0
      • MCC (тест): 1.0
      • Confusion Matrix (тест):
        [[13,  0],
         [ 0, 19]]
        
    • Вывод: Случайный лес идеально справляется с задачей на обеих выборках. Однако столь высокие значения метрик на обучении и тесте могут указывать на переобучение модели.
  2. Логистическая регрессия (Logistic Regression):
    • Показатели:
      • Precision (обучение): 1.0
      • Precision (тест): 1.0
      • Recall (обучение): 1.0
      • Recall (тест): 1.0
      • Accuracy (обучение): 1.0
      • Accuracy (тест): 1.0
      • F1 Score (обучение): 1.0
      • F1 Score (тест): 1.0
      • ROC AUC (тест): 1.0
      • Cohen Kappa (тест): 1.0
      • MCC (тест): 1.0
      • Confusion Matrix (тест):
        [[13,  0],
         [ 0, 19]]
        
    • Вывод: Логистическая регрессия также показывает идеальные результаты. Это может быть связано с линейной разделимостью данных.
  3. Метод ближайших соседей (KNN):
    • Показатели:
      • Precision (обучение): 1.0
      • Precision (тест): 1.0
      • Recall (обучение): 0.95
      • Recall (тест): 0.947
      • Accuracy (обучение): 0.968
      • Accuracy (тест): 0.969
      • F1 Score (обучение): 0.974
      • F1 Score (тест): 0.973
      • ROC AUC (тест): 0.974
      • Cohen Kappa (тест): 0.936
      • MCC (тест): 0.938
      • Confusion Matrix (тест):
        [[13,  0],
         [ 1, 18]]
        
    • Вывод: Метод ближайших соседей показывает хорошие результаты, с небольшим снижением полноты на тестовой выборке. Это связано с особенностями алгоритма, который может быть чувствителен к выбросам и распределению данных.
In [391]:
from sklearn.ensemble import RandomForestClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.neighbors import KNeighborsClassifier
from sklearn import metrics


# Оценка качества различных моделей на основе метрик
def evaluate_models(models: dict[str, Any], 
                    pipeline_end: Pipeline, 
                    X_train: DataFrame, y_train, 
                    X_test: DataFrame, y_test) -> dict[str, dict[str, Any]]:
    results: dict[str, dict[str, Any]] = {}
    
    for model_name, model in models.items():
        # Создание конвейера для текущей модели
        model_pipeline = Pipeline(
            [
                ("pipeline", pipeline_end), 
                ("model", model),
            ]
        )
        
        # Обучение модели
        model_pipeline.fit(X_train, y_train)
        
        # Предсказание для обучающей и тестовой выборки
        y_train_predict = model_pipeline.predict(X_train)
        y_test_predict = model_pipeline.predict(X_test)
        
        # Вычисление метрик для текущей модели
        metrics_dict: dict[str, Any] = {
            "Precision_train": metrics.precision_score(y_train, y_train_predict),
            "Precision_test": metrics.precision_score(y_test, y_test_predict),
            "Recall_train": metrics.recall_score(y_train, y_train_predict),
            "Recall_test": metrics.recall_score(y_test, y_test_predict),
            "Accuracy_train": metrics.accuracy_score(y_train, y_train_predict),
            "Accuracy_test": metrics.accuracy_score(y_test, y_test_predict),
            "F1_train": metrics.f1_score(y_train, y_train_predict),
            "F1_test": metrics.f1_score(y_test, y_test_predict),
            "ROC_AUC_test": metrics.roc_auc_score(y_test, y_test_predict),
            "Cohen_kappa_test": metrics.cohen_kappa_score(y_test, y_test_predict),
            "MCC_test": metrics.matthews_corrcoef(y_test, y_test_predict),
            "Confusion_matrix": metrics.confusion_matrix(y_test, y_test_predict),
        }
        
        # Сохранение результатов
        results[model_name] = metrics_dict
    
    return results


# Выбранные модели для классификации
models_classification: dict[str, Any] = {
    "RandomForestClassifier": RandomForestClassifier(random_state=42),
    "LogisticRegression": LogisticRegression(max_iter=1000),
    "KNN": KNeighborsClassifier(),
}

results: dict[str, dict[str, Any]] = evaluate_models(models_classification,
                                                     pipeline_end,
                                                     X_df_train, y_df_train,
                                                     X_df_test, y_df_test)

# Вывод результатов
for model_name, metrics_dict in results.items():
    print(f"Модель: {model_name}")
    for metric_name, value in metrics_dict.items():
        print(f"\t{metric_name}: {value}")
    print()
Модель: RandomForestClassifier
	Precision_train: 1.0
	Precision_test: 1.0
	Recall_train: 1.0
	Recall_test: 1.0
	Accuracy_train: 1.0
	Accuracy_test: 1.0
	F1_train: 1.0
	F1_test: 1.0
	ROC_AUC_test: 1.0
	Cohen_kappa_test: 1.0
	MCC_test: 1.0
	Confusion_matrix: [[13  0]
 [ 0 19]]

Модель: LogisticRegression
	Precision_train: 1.0
	Precision_test: 1.0
	Recall_train: 1.0
	Recall_test: 1.0
	Accuracy_train: 1.0
	Accuracy_test: 1.0
	F1_train: 1.0
	F1_test: 1.0
	ROC_AUC_test: 1.0
	Cohen_kappa_test: 1.0
	MCC_test: 1.0
	Confusion_matrix: [[13  0]
 [ 0 19]]

Модель: KNN
	Precision_train: 1.0
	Precision_test: 1.0
	Recall_train: 0.95
	Recall_test: 0.9473684210526315
	Accuracy_train: 0.967741935483871
	Accuracy_test: 0.96875
	F1_train: 0.9743589743589743
	F1_test: 0.972972972972973
	ROC_AUC_test: 0.9736842105263157
	Cohen_kappa_test: 0.9359999999999999
	MCC_test: 0.9379228369755696
	Confusion_matrix: [[13  0]
 [ 1 18]]

Матрица ошибок:

In [392]:
from sklearn.metrics import ConfusionMatrixDisplay

_, ax = plt.subplots(ceil(len(models_classification) / 2), 2, figsize=(12, 10), sharex=False, sharey=False)

for index, key in enumerate(models_classification.keys()):
  c_matrix = results[key]["Confusion_matrix"]
  disp = ConfusionMatrixDisplay(
    confusion_matrix=c_matrix, display_labels=["Sale", "Option Exercise"]
  ).plot(ax=ax.flat[index])
  disp.ax_.set_title(key)

plt.subplots_adjust(top=1, bottom=0, hspace=0.4, wspace=0.1)
plt.show()
No description has been provided for this image

Подбор гиперпараметров:

In [ ]:
# Создание конвейера
pipeline = Pipeline([
    ("processing", pipeline_end),
    ("model", RandomForestClassifier(random_state=42))
])

# Установка параметров для поиска по сетке
param_grid: dict[str, Any] = {
    "model__n_estimators": [10, 50, 100],
    "model__max_features": ["sqrt", "log2"],
    "model__max_depth": [5, 7, 10],
    "model__criterion": ["gini", "entropy"],
}

# Подбор гиперпараметров с помощью поиска по сетке
grid_search = GridSearchCV(estimator=pipeline, 
                           param_grid=param_grid,
                           n_jobs=-1)

# Обучение модели на тренировочных данных
grid_search.fit(X_df_train, y_df_train)

# Результаты подбора гиперпараметров
print("Лучшие параметры:", grid_search.best_params_)
Лучшие параметры: {'model__criterion': 'gini', 'model__max_depth': 5, 'model__max_features': 'sqrt', 'model__n_estimators': 10}
d:\ULSTU\Семестр 5\AIM-PIbd-31-Masenkin-M-S\aimenv\Lib\site-packages\numpy\ma\core.py:2881: RuntimeWarning: invalid value encountered in cast
  _data = np.array(data, dtype=dtype, copy=copy,

Сравнение наборов гиперпараметров:

Результаты анализа показывают, что как стоковая модель, так и оптимизированная модель демонстрируют идентичные показатели качества, включая абсолютные значения всех ключевых метрик (Precision, Recall, Accuracy, F1-Score и другие), равные 1.0 на обеих выборках (обучающей и тестовой). Это указывает на то, что обе модели идеально справляются с задачей классификации.

In [401]:
# Обучение модели со старыми гипермараметрами
pipeline.fit(X_df_train, y_df_train)

# Предсказание для обучающей и тестовой выборки
y_train_predict = pipeline.predict(X_df_train)
y_test_predict = pipeline.predict(X_df_test)
        
# Вычисление метрик для модели со старыми гипермараметрами
base_model_metrics: dict[str, Any] = {
    "Precision_train": metrics.precision_score(y_df_train, y_train_predict),
    "Precision_test": metrics.precision_score(y_df_test, y_test_predict),
    "Recall_train": metrics.recall_score(y_df_train, y_train_predict),
    "Recall_test": metrics.recall_score(y_df_test, y_test_predict),
    "Accuracy_train": metrics.accuracy_score(y_df_train, y_train_predict),
    "Accuracy_test": metrics.accuracy_score(y_df_test, y_test_predict),
    "F1_train": metrics.f1_score(y_df_train, y_train_predict),
    "F1_test": metrics.f1_score(y_df_test, y_test_predict),
    "ROC_AUC_test": metrics.roc_auc_score(y_df_test, y_test_predict),
    "Cohen_kappa_test": metrics.cohen_kappa_score(y_df_test, y_test_predict),
    "MCC_test": metrics.matthews_corrcoef(y_df_test, y_test_predict),
    "Confusion_matrix": metrics.confusion_matrix(y_df_test, y_test_predict),
}

# Модель с новыми гипермараметрами
optimized_model = RandomForestClassifier(
    random_state=42,
    criterion="gini",
    max_depth=5,
    max_features="sqrt",
    n_estimators=10,
)

# Создание конвейера для модели с новыми гипермараметрами
optimized_model_pipeline = Pipeline(
    [
        ("pipeline", pipeline_end), 
        ("model", optimized_model),
    ]
)
        
# Обучение модели с новыми гипермараметрами
optimized_model_pipeline.fit(X_df_train, y_df_train)
        
# Предсказание для обучающей и тестовой выборки
y_train_predict = optimized_model_pipeline.predict(X_df_train)
y_test_predict = optimized_model_pipeline.predict(X_df_test)
        
# Вычисление метрик для модели с новыми гипермараметрами
optimized_model_metrics: dict[str, Any] = {
    "Precision_train": metrics.precision_score(y_df_train, y_train_predict),
    "Precision_test": metrics.precision_score(y_df_test, y_test_predict),
    "Recall_train": metrics.recall_score(y_df_train, y_train_predict),
    "Recall_test": metrics.recall_score(y_df_test, y_test_predict),
    "Accuracy_train": metrics.accuracy_score(y_df_train, y_train_predict),
    "Accuracy_test": metrics.accuracy_score(y_df_test, y_test_predict),
    "F1_train": metrics.f1_score(y_df_train, y_train_predict),
    "F1_test": metrics.f1_score(y_df_test, y_test_predict),
    "ROC_AUC_test": metrics.roc_auc_score(y_df_test, y_test_predict),
    "Cohen_kappa_test": metrics.cohen_kappa_score(y_df_test, y_test_predict),
    "MCC_test": metrics.matthews_corrcoef(y_df_test, y_test_predict),
    "Confusion_matrix": metrics.confusion_matrix(y_df_test, y_test_predict),
}

# Вывод информации
print('Стоковая модель:')
for metric_name, value in base_model_metrics.items():
    print(f"\t{metric_name}: {value}")

print('\nОптимизированная модель:')
for metric_name, value in optimized_model_metrics.items():
    print(f"\t{metric_name}: {value}")
Стоковая модель:
	Precision_train: 1.0
	Precision_test: 1.0
	Recall_train: 1.0
	Recall_test: 1.0
	Accuracy_train: 1.0
	Accuracy_test: 1.0
	F1_train: 1.0
	F1_test: 1.0
	ROC_AUC_test: 1.0
	Cohen_kappa_test: 1.0
	MCC_test: 1.0
	Confusion_matrix: [[13  0]
 [ 0 19]]

Оптимизированная модель:
	Precision_train: 1.0
	Precision_test: 1.0
	Recall_train: 1.0
	Recall_test: 1.0
	Accuracy_train: 1.0
	Accuracy_test: 1.0
	F1_train: 1.0
	F1_test: 1.0
	ROC_AUC_test: 1.0
	Cohen_kappa_test: 1.0
	MCC_test: 1.0
	Confusion_matrix: [[13  0]
 [ 0 19]]