AIM-PIbd-31-Ievlewa-M-D/lab3/lab3.ipynb
2024-11-09 11:41:45 +04:00

652 KiB
Raw Blame History

Датасет: Цены на акции

https://www.kaggle.com/datasets/nancyalaswad90/yamana-gold-inc-stock-Volume

О наборе данных:

Yamana Gold Inc. — это канадская компания, которая занимается разработкой и управлением золотыми, серебряными и медными рудниками, расположенными в Канаде, Чили, Бразилии и Аргентине. Головной офис компании находится в Торонто.

Yamana Gold была основана в 1994 году и уже через год была зарегистрирована на фондовой бирже Торонто. В 2007 году она стала участником Нью-Йоркской фондовой биржи, а в 2020 году — Лондонской. В 2003 году компания претерпела значительные изменения: была проведена реструктуризация, в результате которой Питер Марроне занял пост главного исполнительного директора. Кроме того, Yamana объединилась с бразильской компанией Santa Elina Mines Corporation. Благодаря этому слиянию Yamana получила доступ к капиталу, накопленному Santa Elina, что позволило ей начать разработку и эксплуатацию рудника Чапада. Затем компания объединилась с другими организациями, зарегистрированными на бирже TSX: RNC Gold, Desert Sun Mining, Viceroy Exploration, Northern Orion Resources, Meridian Gold, Osisko Mining и Extorre Gold Mines. Каждая из них внесла свой вклад в разработку месторождения или проект, который в итоге был успешно запущен.

Таким образом:
  • Объект наблюдения - цены и объемы акций компании
  • Атрибуты: 'Date', 'Open', 'High', 'Low', 'Close', 'Adj Close', 'Volume'
Бизнес цели:
  • Прогнозирование будущей цены акций. Использование данных для создания модели, которая будет предсказывать цену акций компании в будущем.
  • Определение волатильности акций. Определение, колебаний цен акций, что поможет инвесторам понять риски.
Технические цели:
  • Разработать модель машинного обучения для прогноза цены акций на основе имеющихся данных.
  • Разработать метрику и модель для оценки волатильности акций на основе исторических данных.
In [71]:
import pandas as pd
df = pd.read_csv(".//static//csv//Stocks.csv", sep=",")
print('Количество колонок: ' + str(df.columns.size))  
print('Колонки: ' + ', '.join(df.columns)+'\n')
df['Date'] = pd.to_datetime(df['Date'], errors='coerce')

df.info()
df.head()
Количество колонок: 7
Колонки: Date, Open, High, Low, Close, Adj Close, Volume

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 5251 entries, 0 to 5250
Data columns (total 7 columns):
 #   Column     Non-Null Count  Dtype         
---  ------     --------------  -----         
 0   Date       5251 non-null   datetime64[ns]
 1   Open       5251 non-null   float64       
 2   High       5251 non-null   float64       
 3   Low        5251 non-null   float64       
 4   Close      5251 non-null   float64       
 5   Adj Close  5251 non-null   float64       
 6   Volume     5251 non-null   int64         
dtypes: datetime64[ns](1), float64(5), int64(1)
memory usage: 287.3 KB
Out[71]:
Date Open High Low Close Adj Close Volume
0 2001-06-22 3.428571 3.428571 3.428571 3.428571 2.806002 0
1 2001-06-25 3.428571 3.428571 3.428571 3.428571 2.806002 0
2 2001-06-26 3.714286 3.714286 3.714286 3.714286 3.039837 0
3 2001-06-27 3.714286 3.714286 3.714286 3.714286 3.039837 0
4 2001-06-28 3.714286 3.714286 3.714286 3.714286 3.039837 0

Подготовка данных:

1. Получение сведений о пропущенных данных

Типы пропущенных данных:

  • None - представление пустых данных в Python
  • NaN - представление пустых данных в Pandas
  • '' - пустая строка
In [72]:
import numpy as np
# Количество пустых значений признаков
print(df.isnull().sum())
print()

# Есть ли пустые значения признаков
print(df.isnull().any())
print()

# Проверка на бесконечные значения
print("Количество бесконечных значений в каждом столбце:")
print(np.isinf(df).sum())

# Процент пустых значений признаков
for i in df.columns:
    null_rate = df[i].isnull().sum() / len(df) * 100
    print(f"{i} процент пустых значений: %{null_rate:.2f}")
Date         0
Open         0
High         0
Low          0
Close        0
Adj Close    0
Volume       0
dtype: int64

Date         False
Open         False
High         False
Low          False
Close        False
Adj Close    False
Volume       False
dtype: bool

Количество бесконечных значений в каждом столбце:
Date         0
Open         0
High         0
Low          0
Close        0
Adj Close    0
Volume       0
dtype: int64
Date процент пустых значений: %0.00
Open процент пустых значений: %0.00
High процент пустых значений: %0.00
Low процент пустых значений: %0.00
Close процент пустых значений: %0.00
Adj Close процент пустых значений: %0.00
Volume процент пустых значений: %0.00

Таким образом, пропущенных значений не найдено.

2. Проверка выбросов данных и устранение их при наличии:

In [73]:
numeric_columns = ['Open', 'High', 'Low', 'Close', 'Adj Close', 'Volume']

for column in numeric_columns:
    if pd.api.types.is_numeric_dtype(df[column]):  # Проверяем, является ли колонка числовой
        q1 = df[column].quantile(0.25)  # Находим 1-й квартиль (Q1)
        q3 = df[column].quantile(0.75)  # Находим 3-й квартиль (Q3)
        iqr = q3 - q1  # Вычисляем межквартильный размах (IQR)

        # Определяем границы для выбросов
        lower_bound = q1 - 1.5 * iqr  # Нижняя граница
        upper_bound = q3 + 1.5 * iqr  # Верхняя граница

        # Подсчитываем количество выбросов
        outliers = df[(df[column] < lower_bound) | (df[column] > upper_bound)]
        outlier_count = outliers.shape[0]

        print("До устранения выбросов:")
        print(f"Колонка {column}:")
        print(f"  Есть выбросы: {'Да' if outlier_count > 0 else 'Нет'}")
        print(f"  Количество выбросов: {outlier_count}")
        print(f"  Минимальное значение: {df[column].min()}")
        print(f"  Максимальное значение: {df[column].max()}")
        print(f"  1-й квартиль (Q1): {q1}")
        print(f"  3-й квартиль (Q3): {q3}\n")

        # Устраняем выбросы: заменяем значения ниже нижней границы на саму нижнюю границу, а выше верхней — на верхнюю
        if outlier_count != 0:
            df[column] = df[column].apply(lambda x: lower_bound if x < lower_bound else upper_bound if x > upper_bound else x)
        
        # Подсчитываем количество выбросов
        outliers = df[(df[column] < lower_bound) | (df[column] > upper_bound)]
        outlier_count = outliers.shape[0]

        print("После устранения выбросов:")
        print(f"Колонка {column}:")
        print(f"  Есть выбросы: {'Да' if outlier_count > 0 else 'Нет'}")
        print(f"  Количество выбросов: {outlier_count}")
        print(f"  Минимальное значение: {df[column].min()}")
        print(f"  Максимальное значение: {df[column].max()}")
        print(f"  1-й квартиль (Q1): {q1}")
        print(f"  3-й квартиль (Q3): {q3}\n")
До устранения выбросов:
Колонка Open:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.42
  1-й квартиль (Q1): 2.857143
  3-й квартиль (Q3): 10.65

После устранения выбросов:
Колонка Open:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.42
  1-й квартиль (Q1): 2.857143
  3-й квартиль (Q3): 10.65

До устранения выбросов:
Колонка High:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.59
  1-й квартиль (Q1): 2.88
  3-й квартиль (Q3): 10.86

После устранения выбросов:
Колонка High:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.59
  1-й квартиль (Q1): 2.88
  3-й квартиль (Q3): 10.86

До устранения выбросов:
Колонка Low:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.09
  1-й квартиль (Q1): 2.81
  3-й квартиль (Q3): 10.425

После устранения выбросов:
Колонка Low:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.09
  1-й квартиль (Q1): 2.81
  3-й квартиль (Q3): 10.425

До устранения выбросов:
Колонка Close:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.389999
  1-й квартиль (Q1): 2.857143
  3-й квартиль (Q3): 10.64

После устранения выбросов:
Колонка Close:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 1.142857
  Максимальное значение: 20.389999
  1-й квартиль (Q1): 2.857143
  3-й квартиль (Q3): 10.64

До устранения выбросов:
Колонка Adj Close:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 0.935334
  Максимальное значение: 17.543156
  1-й квартиль (Q1): 2.537094
  3-й квартиль (Q3): 8.951944999999998

После устранения выбросов:
Колонка Adj Close:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 0.935334
  Максимальное значение: 17.543156
  1-й квартиль (Q1): 2.537094
  3-й квартиль (Q3): 8.951944999999998

До устранения выбросов:
Колонка Volume:
  Есть выбросы: Да
  Количество выбросов: 95
  Минимальное значение: 0
  Максимальное значение: 76714000
  1-й квартиль (Q1): 2845900.0
  3-й квартиль (Q3): 13272450.0

После устранения выбросов:
Колонка Volume:
  Есть выбросы: Нет
  Количество выбросов: 0
  Минимальное значение: 0.0
  Максимальное значение: 28912275.0
  1-й квартиль (Q1): 2845900.0
  3-й квартиль (Q3): 13272450.0

Выбросы присутствовали, но мы их устранили.

Разбиение на выборки:

Разобьем наш набор на обучающую, контрольную и тестовую выборки для устранения проблемы просачивания данных.

In [74]:
from sklearn.model_selection import train_test_split

# Разделение данных на обучающую и тестовую выборки (80% - обучение, 20% - тестовая)
X_train, X_test = train_test_split(df, test_size=0.2, random_state=42)

# Разделение данных на обучающую и контрольную выборки (80% - обучение, 20% - контроль)
X_train, X_val = train_test_split(df, test_size=0.2, random_state=42)

print("Размер обучающей выборки: ", len(X_train))
print("Размер контрольной выборки: ", len(X_test))
print("Размер тестовой выборки: ", len(X_val))
Размер обучающей выборки:  4200
Размер контрольной выборки:  1051
Размер тестовой выборки:  1051
In [75]:
import seaborn as sns
import matplotlib.pyplot as plt

# Гистограмма распределения цены закрытия в обучающей выборке
plt.figure(figsize=(12, 6))
sns.histplot(X_train['Close'], bins=30, kde=False)
plt.title("Распределение классов (до балансировки)")
plt.xlabel('Целевая переменная: Close')
plt.ylabel('Частота')
plt.show()

# Гистограмма распределения цены закрытия в контрольной выборке
plt.figure(figsize=(12, 6))
sns.histplot(X_val['Close'], bins=30, kde=False)
plt.title("Распределение классов (до балансировки)")
plt.xlabel('Целевая переменная: Close')
plt.ylabel('Частота')
plt.show()

# Гистограмма распределения цены закрытия в тестовой выборке
plt.figure(figsize=(12, 6))
sns.histplot(X_test['Close'], bins=30, kde=False)
plt.title("Распределение классов (до балансировки)")
plt.xlabel('Целевая переменная: Close')
plt.ylabel('Частота')
plt.show()
No description has been provided for this image
No description has been provided for this image
No description has been provided for this image
Применим овер- и андерсемплинг к обучающей выборке:
In [76]:
from sklearn.model_selection import train_test_split
from imblearn.over_sampling import RandomOverSampler
from imblearn.under_sampling import RandomUnderSampler
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt

# Преобразование целевой переменной (цены) в категориальные диапазоны с использованием квантилей
X_train['closePrice_category'] = pd.qcut(X_train['Close'], q=4, labels=['low', 'medium', 'high', 'very_high'])
print(X_train.head())

# Визуализация распределения цен после преобразования в категории
sns.countplot(x=X_train['closePrice_category'])
plt.title('Распределение категорий закрывающей цены в обучающей выборке')
plt.xlabel('Категория закрывающей цены')
plt.ylabel('Частота')
plt.show()

# Балансировка категорий с помощью RandomOverSampler (увеличение меньшинств)
ros = RandomOverSampler(random_state=42)
y_train = X_train['closePrice_category']
X_train = X_train.drop(columns=['closePrice_category'])


# Применяем oversampling. Здесь важно, что мы используем X_train как DataFrame и y_train_categories как целевую переменную
X_resampled, y_resampled = ros.fit_resample(X_train, y_train)

# Визуализация распределения цен после oversampling
sns.countplot(x=y_resampled)
plt.title('Распределение категорий закрывающей цены после oversampling')
plt.xlabel('Категория закрывающей цены')
plt.ylabel('Частота')
plt.show()

# Применение RandomUnderSampler для уменьшения большего класса
rus = RandomUnderSampler(random_state=42)
X_resampled, y_resampled = rus.fit_resample(X_resampled, y_resampled)

# Визуализация распределения цен после undersampling
sns.countplot(x=y_resampled)
plt.title('Распределение категорий закрывающей цены после undersampling')
plt.xlabel('Категория закрывающей цены')
plt.ylabel('Частота')
plt.show()


print("Размер обучающей выборки до oversampling и undersampling: ", len(X_train))


print("Размер обучающей выборки после oversampling и undersampling: ", len(X_resampled))
X_resampled.head()
           Date   Open   High    Low      Close  Adj Close      Volume  \
4789 2020-07-08   5.66   5.73   5.47   5.560000   5.341250  23355100.0   
3469 2015-04-10   3.86   3.93   3.81   3.880000   3.513961   7605300.0   
2503 2011-06-07  12.19  12.28  11.95  12.020000  10.138681   7243200.0   
1580 2007-10-08  11.77  11.84  11.53  11.570000   9.509553   3025900.0   
2759 2012-06-12  15.77  16.17  15.76  16.120001  13.771020   6113400.0   

     closePrice_category  
4789                high  
3469              medium  
2503           very_high  
1580           very_high  
2759           very_high  
No description has been provided for this image
No description has been provided for this image
No description has been provided for this image
Размер обучающей выборки до oversampling и undersampling:  4200
Размер обучающей выборки после oversampling и undersampling:  4232
Out[76]:
Date Open High Low Close Adj Close Volume
0 2020-07-08 5.66 5.73 5.47 5.56 5.341250 23355100.0
20 2021-01-19 5.15 5.15 5.02 5.13 4.966732 15906300.0
21 2010-04-08 10.60 10.65 10.48 10.52 8.794909 10456400.0
24 2020-12-07 5.47 5.80 5.47 5.75 5.541336 12929600.0
28 2021-01-05 6.15 6.16 5.98 6.04 5.847770 15080900.0

По сути, балансировка так то не требовалась, но все же мы ее провели, добавив в обучающую выборку 5 значений (ーー;)

Конструирование признаков

  1. Унитарное кодирование категориальных признаков. Преобразование категориальных признаков в бинарные векторы.
  • В данном датасете категориальные признаки отсутствуют, так что пропустим этот пункт.
  1. Дискретизация числовых признаков. Преобразование непрерывных числовых значений в дискретные категории или интервалы (бины).
In [77]:
#Пример дискретизации по цене закрытия
# Проверка на наличие числовых признаков
print("Названия столбцов в датасете:")
print(df.columns)

# Выводим основные статистические параметры для количественных признаков
print("Статистические параметры:")
print(df.describe())

# Дискретизация столбца 'Close' на группы
bins = [0, 2, 4, 6, 8, 10, 12, 14, 16, 30]  # Определяем границы корзин
labels = ['0-2', '2-4', '4-6', '6-8', '8-10', '10-12', '12-14', '14-16', '16+']  # Названия категорий

# Создание нового столбца 'Close_Disc' на основе дискретизации
df['Close_Disc'] = pd.cut(df['Close'], bins=bins, labels=labels, include_lowest=True) #pd.cut выполняет дискретизацию переменной
#include_lowest=True: Этот параметр гарантирует, что самое нижнее значение (в данном случае 0), будет входить в первую категорию.



# Проверка результата
print("После дискретизации 'Close':")
print(df.head())
n = len(df)
middle_index = n // 2
print(df.iloc[middle_index - 2: middle_index + 3])
print(df.tail())
Названия столбцов в датасете:
Index(['Date', 'Open', 'High', 'Low', 'Close', 'Adj Close', 'Volume'], dtype='object')
Статистические параметры:
                                Date         Open         High          Low  \
count                           5251  5251.000000  5251.000000  5251.000000   
mean   2011-12-01 11:59:51.772995840     6.863639     6.986071     6.720615   
min              2001-06-22 00:00:00     1.142857     1.142857     1.142857   
25%              2006-09-13 12:00:00     2.857143     2.880000     2.810000   
50%              2011-11-29 00:00:00     4.600000     4.710000     4.490000   
75%              2017-02-16 12:00:00    10.650000    10.860000    10.425000   
max              2022-05-05 00:00:00    20.420000    20.590000    20.090000   
std                              NaN     4.753836     4.832010     4.662891   

             Close    Adj Close        Volume  
count  5251.000000  5251.000000  5.251000e+03  
mean      6.850606     5.895644  8.976705e+06  
min       1.142857     0.935334  0.000000e+00  
25%       2.857143     2.537094  2.845900e+06  
50%       4.600000     4.337419  8.216200e+06  
75%      10.640000     8.951945  1.327245e+07  
max      20.389999    17.543156  2.891228e+07  
std       4.746055     3.941634  7.251098e+06  
После дискретизации 'Close':
        Date      Open      High       Low     Close  Adj Close  Volume  \
0 2001-06-22  3.428571  3.428571  3.428571  3.428571   2.806002     0.0   
1 2001-06-25  3.428571  3.428571  3.428571  3.428571   2.806002     0.0   
2 2001-06-26  3.714286  3.714286  3.714286  3.714286   3.039837     0.0   
3 2001-06-27  3.714286  3.714286  3.714286  3.714286   3.039837     0.0   
4 2001-06-28  3.714286  3.714286  3.714286  3.714286   3.039837     0.0   

  Close_Disc  
0        2-4  
1        2-4  
2        2-4  
3        2-4  
4        2-4  
           Date       Open       High    Low      Close  Adj Close     Volume  \
2623 2011-11-25  14.730000  15.050000  14.65  14.650000  12.429751  2433000.0   
2624 2011-11-28  15.150000  15.370000  15.04  15.200000  12.896397  4348600.0   
2625 2011-11-29  15.270000  15.710000  15.21  15.600000  13.235776  4576500.0   
2626 2011-11-30  16.120001  16.850000  16.07  16.830000  14.279361  9537100.0   
2627 2011-12-01  16.770000  16.940001  16.58  16.809999  14.262395  5111500.0   

     Close_Disc  
2623      14-16  
2624      14-16  
2625      14-16  
2626        16+  
2627        16+  
           Date  Open  High   Low  Close  Adj Close      Volume Close_Disc
5246 2022-04-29  5.66  5.69  5.50   5.51       5.51  16613300.0        4-6
5247 2022-05-02  5.33  5.39  5.18   5.30       5.30  27106700.0        4-6
5248 2022-05-03  5.32  5.53  5.32   5.47       5.47  18914200.0        4-6
5249 2022-05-04  5.47  5.61  5.37   5.60       5.60  20530700.0        4-6
5250 2022-05-05  5.63  5.66  5.34   5.44       5.44  19879200.0        4-6

Конструирование новых признаков:

In [78]:
print('\nИсходный датасет: ')
print(df.tail())
print('\nОбучающая выборка: ')
print(X_resampled.tail())
print('\nТестовая выборка: ')
print(X_test.tail())
print('\nКонтрольная выборка: ')
print(X_val.tail())

#Объем изменений
df['Volume_Change'] = df['Volume'].pct_change()
X_resampled['Volume_Change'] = X_resampled['Volume'].pct_change()
X_test['Volume_Change'] = X_test['Volume'].pct_change()
X_val['Volume_Change'] = X_val['Volume'].pct_change()
# Результатом работы pct_change() является серия, где каждое значение представляет собой 
# процентное изменение относительно предыдущего значения. Первое значение всегда будет NaN, 
# так как для него нет предшествующего значения для сравнения.

# Проверка создания новых признаков
print("\nНовые признаки в обучающей выборке:")
print(X_resampled[['Volume_Change']].tail())

print("\nНовые признаки в тестовой выборке:")
print(X_test[['Volume_Change']].tail())

print("\nНовые признаки в контрольной выборке:")
print(X_val[['Volume_Change']].tail())

print("\nНовые признаки в датасете:")
print(df[['Volume_Change']].tail())
Исходный датасет: 
           Date  Open  High   Low  Close  Adj Close      Volume Close_Disc
5246 2022-04-29  5.66  5.69  5.50   5.51       5.51  16613300.0        4-6
5247 2022-05-02  5.33  5.39  5.18   5.30       5.30  27106700.0        4-6
5248 2022-05-03  5.32  5.53  5.32   5.47       5.47  18914200.0        4-6
5249 2022-05-04  5.47  5.61  5.37   5.60       5.60  20530700.0        4-6
5250 2022-05-05  5.63  5.66  5.34   5.44       5.44  19879200.0        4-6

Обучающая выборка: 
           Date       Open   High        Low      Close  Adj Close      Volume
2435 2011-04-14  12.530000  12.84  12.480000  12.750000  10.754427  10527200.0
1756 2013-05-30  11.510000  11.76  11.480000  11.720000  10.166282   9028100.0
3296 2009-11-20  13.100000  13.28  12.870000  13.220000  11.031483  17024900.0
1243 2012-09-17  18.870001  19.00  18.469999  18.870001  16.178450   6652400.0
343  2006-12-12  12.920000  13.00  12.580000  12.800000  10.487218   3981100.0

Тестовая выборка: 
           Date       Open       High        Low      Close  Adj Close  \
3095 2013-10-14   9.290000   9.350000   9.070000   9.130000   8.025586   
859  2004-11-24   3.090000   3.160000   3.040000   3.100000   2.537094   
3134 2013-12-09   8.550000   8.770000   8.550000   8.770000   7.709136   
2577 2011-09-21  16.709999  17.070000  16.379999  16.400000  13.869872   
378  2002-12-27   2.571429   2.571429   2.571429   2.571429   2.104502   

          Volume  
3095   5861400.0  
859     211300.0  
3134   5335400.0  
2577  14524400.0  
378          0.0  

Контрольная выборка: 
           Date       Open       High        Low      Close  Adj Close  \
3095 2013-10-14   9.290000   9.350000   9.070000   9.130000   8.025586   
859  2004-11-24   3.090000   3.160000   3.040000   3.100000   2.537094   
3134 2013-12-09   8.550000   8.770000   8.550000   8.770000   7.709136   
2577 2011-09-21  16.709999  17.070000  16.379999  16.400000  13.869872   
378  2002-12-27   2.571429   2.571429   2.571429   2.571429   2.104502   

          Volume  
3095   5861400.0  
859     211300.0  
3134   5335400.0  
2577  14524400.0  
378          0.0  

Новые признаки в обучающей выборке:
      Volume_Change
2435       0.977868
1756      -0.142403
3296       0.885768
1243      -0.609255
343       -0.401554

Новые признаки в тестовой выборке:
      Volume_Change
3095            inf
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000

Новые признаки в контрольной выборке:
      Volume_Change
3095            inf
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000

Новые признаки в датасете:
      Volume_Change
5246      -0.218393
5247       0.631626
5248      -0.302232
5249       0.085465
5250      -0.031733
Проверим новые признаки:
In [79]:
print('\nИсходный датасет: ')
print(df[['Volume_Change']].isnull().sum())
print('\nОбучающая выборка: ')
print(X_resampled[['Volume_Change']].isnull().sum())
print('\nТестовая выборка: ')
print(X_test[['Volume_Change']].isnull().sum())
print('\nКонтрольная выборка: ')
print(X_val[['Volume_Change']].isnull().sum())
print()

# Есть ли пустые значения признаков
print('Есть ли пустые значения признаков: ')
print('\nИсходный датасет: ')
print(df[['Volume_Change']].isnull().any())
print('\nОбучающая выорка: ')
print(X_resampled[['Volume_Change']].isnull().any())
print('\nТестовая выборка: ')
print(X_test[['Volume_Change']].isnull().any())
print('\nКонтрольная выборка: ')
print(X_val[['Volume_Change']].isnull().any())
print()

# Проверка на бесконечные значения
print("Количество бесконечных значений в каждом столбце:")
print('\nИсходный датасет: ')
print(np.isinf(df[['Volume_Change']]).sum())
print('\nОбучающая выборка: ')
print(np.isinf(X_resampled[['Volume_Change']]).sum())
print('\nТестовая выборка: ')
print(np.isinf(X_test[['Volume_Change']]).sum())
print('\nКонтрольная выборка: ')
print(np.isinf(X_val[['Volume_Change']]).sum())

# Процент пустых значений признаков
for i in df[['Volume_Change']].columns:
    null_rate = df[['Volume_Change']][i].isnull().sum() / len(df[['Volume_Change']]) * 100
    print(f"{i} процент пустых значений в датасете: %{null_rate:.2f}")

# Процент пустых значений признаков
for i in X_resampled[['Volume_Change']].columns:
    null_rate = X_resampled[['Volume_Change']][i].isnull().sum() / len(X_resampled[['Volume_Change']]) * 100
    print(f"{i} процент пустых значений в обучающей выборке: %{null_rate:.2f}")

# Процент пустых значений признаков
for i in X_test[['Volume_Change']].columns:
    null_rate = X_test[['Volume_Change']][i].isnull().sum() / len(X_test[['Volume_Change']]) * 100
    print(f"{i} процент пустых значений в тестовой выборке: %{null_rate:.2f}")

# Процент пустых значений признаков
for i in X_val[['Volume_Change']].columns:
    null_rate = X_val[['Volume_Change']][i].isnull().sum() / len(X_val[['Volume_Change']]) * 100
    print(f"{i} процент пустых значений в контрольной выборке: %{null_rate:.2f}")
Исходный датасет: 
Volume_Change    501
dtype: int64

Обучающая выборка: 
Volume_Change    102
dtype: int64

Тестовая выборка: 
Volume_Change    16
dtype: int64

Контрольная выборка: 
Volume_Change    16
dtype: int64

Есть ли пустые значения признаков: 

Исходный датасет: 
Volume_Change    True
dtype: bool

Обучающая выорка: 
Volume_Change    True
dtype: bool

Тестовая выборка: 
Volume_Change    True
dtype: bool

Контрольная выборка: 
Volume_Change    True
dtype: bool

Количество бесконечных значений в каждом столбце:

Исходный датасет: 
Volume_Change    32
dtype: int64

Обучающая выборка: 
Volume_Change    310
dtype: int64

Тестовая выборка: 
Volume_Change    107
dtype: int64

Контрольная выборка: 
Volume_Change    107
dtype: int64
Volume_Change процент пустых значений в датасете: %9.54
Volume_Change процент пустых значений в обучающей выборке: %2.41
Volume_Change процент пустых значений в тестовой выборке: %1.52
Volume_Change процент пустых значений в контрольной выборке: %1.52

Заполним пустые данные

In [80]:
# Заменяем бесконечные значения на NaN
df.replace([np.inf, -np.inf], np.nan, inplace=True)
X_resampled.replace([np.inf, -np.inf], np.nan, inplace=True)
X_test.replace([np.inf, -np.inf], np.nan, inplace=True)
X_val.replace([np.inf, -np.inf], np.nan, inplace=True)

fillna_df = df[['Volume_Change']].fillna(0)
fillna_X_resampled = X_resampled[['Volume_Change']].fillna(0)
fillna_X_test = X_test[['Volume_Change']].fillna(0)
fillna_X_val = X_val[['Volume_Change']].fillna(0)
# используется для заполнения всех значений NaN 
# (Not a Number) в DataFrame или Series указанным значением. 
# В данном случае, fillna(0) заполняет все ячейки, содержащие NaN, значением 0.


print(fillna_df.shape)
print(fillna_X_resampled.shape)
print(fillna_X_test.shape)
print(fillna_X_val.shape)

print(fillna_df.isnull().any())
print(fillna_X_resampled.isnull().any())
print(fillna_X_test.isnull().any())
print(fillna_X_val.isnull().any())

# Замена пустых данных на 0
df["Volume_Change"] = df["Volume_Change"].fillna(0)
X_resampled["Volume_Change"] = X_resampled["Volume_Change"].fillna(0)
X_test["Volume_Change"] = X_test["Volume_Change"].fillna(0)
X_val["Volume_Change"] = X_val["Volume_Change"].fillna(0)

# Вычисляем медиану для колонки "Volume_Change"
median_Volume_Change_df = df["Volume_Change"].median()
median_Volume_Change_train = X_resampled["Volume_Change"].median()
median_Volume_Change_test = X_test["Volume_Change"].median()
median_Volume_Change_val = X_val["Volume_Change"].median()

# Заменяем значения 0 на медиану
df[['Volume_Change']].loc[df["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_df
X_resampled[['Volume_Change']].loc[X_resampled["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_train
X_test[['Volume_Change']].loc[X_test["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_test
X_val[['Volume_Change']].loc[X_val["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_val

print(df[['Volume_Change']].tail())
print(X_resampled[['Volume_Change']].tail())
print(X_test[['Volume_Change']].tail())
print(X_val[['Volume_Change']].tail())
(5251, 1)
(4232, 1)
(1051, 1)
(1051, 1)
Volume_Change    False
dtype: bool
Volume_Change    False
dtype: bool
Volume_Change    False
dtype: bool
Volume_Change    False
dtype: bool
      Volume_Change
5246      -0.218393
5247       0.631626
5248      -0.302232
5249       0.085465
5250      -0.031733
      Volume_Change
2435       0.977868
1756      -0.142403
3296       0.885768
1243      -0.609255
343       -0.401554
      Volume_Change
3095       0.000000
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000
      Volume_Change
3095       0.000000
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000
C:\Users\K\AppData\Local\Temp\ipykernel_26220\4038454119.py:39: FutureWarning: ChainedAssignmentError: behaviour will change in pandas 3.0!
You are setting values through chained assignment. Currently this works in certain cases, but when using Copy-on-Write (which will become the default behaviour in pandas 3.0) this will never work to update the original DataFrame or Series, because the intermediate object on which we are setting values will behave as a copy.
A typical example is when you are setting values in a column of a DataFrame, like:

df["col"][row_indexer] = value

Use `df.loc[row_indexer, "col"] = values` instead, to perform the assignment in a single step and ensure this keeps updating the original `df`.

See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy

  df[['Volume_Change']].loc[df["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_df
C:\Users\K\AppData\Local\Temp\ipykernel_26220\4038454119.py:40: FutureWarning: ChainedAssignmentError: behaviour will change in pandas 3.0!
You are setting values through chained assignment. Currently this works in certain cases, but when using Copy-on-Write (which will become the default behaviour in pandas 3.0) this will never work to update the original DataFrame or Series, because the intermediate object on which we are setting values will behave as a copy.
A typical example is when you are setting values in a column of a DataFrame, like:

df["col"][row_indexer] = value

Use `df.loc[row_indexer, "col"] = values` instead, to perform the assignment in a single step and ensure this keeps updating the original `df`.

See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy

  X_resampled[['Volume_Change']].loc[X_resampled["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_train
C:\Users\K\AppData\Local\Temp\ipykernel_26220\4038454119.py:41: FutureWarning: ChainedAssignmentError: behaviour will change in pandas 3.0!
You are setting values through chained assignment. Currently this works in certain cases, but when using Copy-on-Write (which will become the default behaviour in pandas 3.0) this will never work to update the original DataFrame or Series, because the intermediate object on which we are setting values will behave as a copy.
A typical example is when you are setting values in a column of a DataFrame, like:

df["col"][row_indexer] = value

Use `df.loc[row_indexer, "col"] = values` instead, to perform the assignment in a single step and ensure this keeps updating the original `df`.

See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy

  X_test[['Volume_Change']].loc[X_test["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_test
C:\Users\K\AppData\Local\Temp\ipykernel_26220\4038454119.py:42: FutureWarning: ChainedAssignmentError: behaviour will change in pandas 3.0!
You are setting values through chained assignment. Currently this works in certain cases, but when using Copy-on-Write (which will become the default behaviour in pandas 3.0) this will never work to update the original DataFrame or Series, because the intermediate object on which we are setting values will behave as a copy.
A typical example is when you are setting values in a column of a DataFrame, like:

df["col"][row_indexer] = value

Use `df.loc[row_indexer, "col"] = values` instead, to perform the assignment in a single step and ensure this keeps updating the original `df`.

See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy

  X_val[['Volume_Change']].loc[X_val["Volume_Change"] == 0, "Volume_Change"] = median_Volume_Change_val

Удалим наблюдения с пропусками

In [81]:
dropna_df = df[['Volume_Change']].dropna()
dropna_X_resampled = X_resampled[['Volume_Change']].dropna()
dropna_X_test = X_test[['Volume_Change']].dropna()
dropna_X_val = X_val[['Volume_Change']].dropna()

print(dropna_df.shape)
print(dropna_X_resampled.shape)
print(dropna_X_test.shape)
print(dropna_X_val.shape)

print(dropna_df.isnull().any())
print(df[['Volume_Change']].tail())
print(dropna_X_resampled.isnull().any())
print(X_resampled[['Volume_Change']].tail())
print(dropna_X_test.isnull().any())
print(X_test[['Volume_Change']].tail())
print(dropna_X_val.isnull().any())
print(X_val[['Volume_Change']].tail())
(5251, 1)
(4232, 1)
(1051, 1)
(1051, 1)
Volume_Change    False
dtype: bool
      Volume_Change
5246      -0.218393
5247       0.631626
5248      -0.302232
5249       0.085465
5250      -0.031733
Volume_Change    False
dtype: bool
      Volume_Change
2435       0.977868
1756      -0.142403
3296       0.885768
1243      -0.609255
343       -0.401554
Volume_Change    False
dtype: bool
      Volume_Change
3095       0.000000
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000
Volume_Change    False
dtype: bool
      Volume_Change
3095       0.000000
859       -0.963951
3134      24.250355
2577       1.722270
378       -1.000000
Масштабируем новые признаки:
In [82]:
from sklearn.preprocessing import StandardScaler, MinMaxScaler

# Пример масштабирования числовых признаков
numerical_features = ['Volume_Change']

scaler = StandardScaler()
df[numerical_features] = scaler.fit_transform(df[numerical_features])
X_resampled[numerical_features] = scaler.fit_transform(X_resampled[numerical_features])
X_val[numerical_features] = scaler.transform(X_val[numerical_features])
X_test[numerical_features] = scaler.transform(X_test[numerical_features])
#  fit() - вычисляет среднее и стандартное отклонение для каждого признака в наборе данных.
# transform() - применяет расчеты, чтобы стандартизировать данные по приведенной выше формуле.

# Вывод результатов после масштабирования
print("Результаты после масштабирования:")
print("\n Датафрейм:")
print(df[numerical_features].tail())
print("\n Обучающая:")
print(X_resampled[numerical_features].tail())
print("\n Тестовая:")
print(X_val[numerical_features].tail())
print("\n Контрольная:")
print(X_test[numerical_features].tail())
Результаты после масштабирования:

 Датафрейм:
      Volume_Change
5246      -0.176620
5247       0.224373
5248      -0.216171
5249      -0.033276
5250      -0.088564

 Обучающая:
      Volume_Change
2435      -0.033736
1756      -0.033805
3296      -0.033742
1243      -0.033834
343       -0.033821

 Тестовая:
      Volume_Change
3095      -0.033796
859       -0.033856
3134      -0.032301
2577      -0.033690
378       -0.033858

 Контрольная:
      Volume_Change
3095      -0.033796
859       -0.033856
3134      -0.032301
2577      -0.033690
378       -0.033858

Данные признаки предоставляют важную информацию о текущем тренде и возможных изменениях в будущих ценах. Положительные значения Price_Change и Percentage_Change, наряду с высоким Volume_Change, могут поддерживать гипотезу о росте цен на акции.

Также, эти признаки помогают понять уровень рискованности инвестиций. Высокие значения Price_Range и резкие изменения в Volume_Change могут указывать на склонность к большим колебаниям, что требует внимательного управления рисками.

Применим featuretools для конструирования признаков:

In [83]:
import featuretools as ft

# Добавляем уникальный идентификатор
df['id'] = df.index 
X_resampled['id'] = X_resampled.index
X_val['id'] = X_val.index
X_test['id'] = X_test.index

# Удаление дубликатов по идентификатору
df = df.drop_duplicates(subset='id')

# Удаление дубликатов из столбца "id", сохранив первое вхождение
df = df.drop_duplicates(subset='id', keep='first')

# Удаляем столбец 'Adj Close' из оригинального датафрейма
df = df.drop(columns=['Adj Close'], errors='ignore')

print(X_resampled.head())  # Убедитесь, что датафреймы содержат корректные данные перед удалением

# Создание EntitySet
es = ft.EntitySet(id='stock_data')

# Добавление датафрейма с акциями
es = es.add_dataframe(dataframe_name='stocks', dataframe=df, index='id')

# Генерация признаков с помощью глубокой синтезы признаков
feature_matrix, feature_defs = ft.dfs(entityset=es, target_dataframe_name='stocks', max_depth=2)

# Выводим первые 5 строк сгенерированного набора признаков
print(feature_matrix.head())

# Удаляем 'Adj Close' из X_resampled
X_resampled = X_resampled.drop(columns=['Adj Close'], errors='ignore')
X_resampled = X_resampled.drop_duplicates(subset='id')
X_resampled = X_resampled.drop_duplicates(subset='id', keep='first')  # or keep='last'

# Определение сущностей (Создание EntitySet)
es = ft.EntitySet(id='stock_data')

# Добавление датафрейма X_resampled
es = es.add_dataframe(dataframe_name='stocks', dataframe=X_resampled, index='id')

# Генерация признаков для X_resampled
feature_matrix, feature_defs = ft.dfs(entityset=es, target_dataframe_name='stocks', max_depth=2)

# Преобразование признаков для контрольной и тестовой выборок
val_feature_matrix = ft.calculate_feature_matrix(features=feature_defs, entityset=es, instance_ids=X_val.index)
test_feature_matrix = ft.calculate_feature_matrix(features=feature_defs, entityset=es, instance_ids=X_test.index)

# Удаляем 'Adj Close' из X_val и X_test (если необходимо)
X_val = X_val.drop(columns=['Adj Close'], errors='ignore')
X_test = X_test.drop(columns=['Adj Close'], errors='ignore')

print(feature_matrix.head())
print(val_feature_matrix.head())
print(test_feature_matrix.head())
         Date   Open   High    Low  Close  Adj Close      Volume  \
0  2020-07-08   5.66   5.73   5.47   5.56   5.341250  23355100.0   
20 2021-01-19   5.15   5.15   5.02   5.13   4.966732  15906300.0   
21 2010-04-08  10.60  10.65  10.48  10.52   8.794909  10456400.0   
24 2020-12-07   5.47   5.80   5.47   5.75   5.541336  12929600.0   
28 2021-01-05   6.15   6.16   5.98   6.04   5.847770  15080900.0   

    Volume_Change  id  
0       -0.033796   0  
20      -0.033816  20  
21      -0.033817  21  
24      -0.033782  24  
28      -0.033786  28  
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\woodwork\type_sys\utils.py:33: UserWarning: Could not infer format, so each element will be parsed individually, falling back to `dateutil`. To ensure parsing is consistent and as-expected, please specify a format.
  pd.to_datetime(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\featuretools\synthesis\deep_feature_synthesis.py:169: UserWarning: Only one dataframe in entityset, changing max_depth to 1 since deeper features cannot be created
  warnings.warn(
        Open      High       Low     Close  Volume Close_Disc  Volume_Change  \
id                                                                             
0   3.428571  3.428571  3.428571  3.428571     0.0        2-4      -0.073594   
1   3.428571  3.428571  3.428571  3.428571     0.0        2-4      -0.073594   
2   3.714286  3.714286  3.714286  3.714286     0.0        2-4      -0.073594   
3   3.714286  3.714286  3.714286  3.714286     0.0        2-4      -0.073594   
4   3.714286  3.714286  3.714286  3.714286     0.0        2-4      -0.073594   

   DAY(Date) MONTH(Date) WEEKDAY(Date) YEAR(Date)  
id                                                 
0         22           6             4       2001  
1         25           6             0       2001  
2         26           6             1       2001  
3         27           6             2       2001  
4         28           6             3       2001  
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\featuretools\synthesis\deep_feature_synthesis.py:169: UserWarning: Only one dataframe in entityset, changing max_depth to 1 since deeper features cannot be created
  warnings.warn(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\featuretools\computational_backends\feature_set_calculator.py:143: FutureWarning: The behavior of DataFrame concatenation with empty or all-NA entries is deprecated. In a future version, this will no longer exclude empty or all-NA columns when determining the result dtypes. To retain the old behavior, exclude the relevant entries before the concat operation.
  df = pd.concat([df, default_df], sort=True)
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\featuretools\computational_backends\feature_set_calculator.py:143: FutureWarning: The behavior of DataFrame concatenation with empty or all-NA entries is deprecated. In a future version, this will no longer exclude empty or all-NA columns when determining the result dtypes. To retain the old behavior, exclude the relevant entries before the concat operation.
  df = pd.concat([df, default_df], sort=True)
     Open   High    Low  Close      Volume  Volume_Change DAY(Date)  \
id                                                                    
0    5.66   5.73   5.47   5.56  23355100.0      -0.033796         8   
20   5.15   5.15   5.02   5.13  15906300.0      -0.033816        19   
21  10.60  10.65  10.48  10.52  10456400.0      -0.033817         8   
24   5.47   5.80   5.47   5.75  12929600.0      -0.033782         7   
28   6.15   6.16   5.98   6.04  15080900.0      -0.033786         5   

   MONTH(Date) WEEKDAY(Date) YEAR(Date)  
id                                       
0            7             2       2020  
20           1             1       2021  
21           4             3       2010  
24          12             0       2020  
28           1             1       2021  
       Open   High    Low      Close      Volume  Volume_Change DAY(Date)  \
id                                                                          
1437  18.25  18.68  17.90  18.559999   6853000.0      -0.033812        26   
2700   3.09   3.11   2.98   3.100000  10015600.0      -0.031587         5   
3647  12.89  12.98  12.54  12.650000   3031800.0      -0.033849        26   
2512   2.93   2.93   2.87   2.910000   6872900.0      -0.033823         7   
2902  15.22  15.63  15.18  15.520000   8104600.0      -0.033743        17   

     MONTH(Date) WEEKDAY(Date) YEAR(Date)  
id                                         
1437           9             2       2012  
2700           4             1       2016  
3647          12             1       2006  
2512           6             3       2018  
2902           8             2       2011  
       Open   High    Low      Close      Volume  Volume_Change DAY(Date)  \
id                                                                          
1437  18.25  18.68  17.90  18.559999   6853000.0      -0.033812        26   
2700   3.09   3.11   2.98   3.100000  10015600.0      -0.031587         5   
3647  12.89  12.98  12.54  12.650000   3031800.0      -0.033849        26   
2512   2.93   2.93   2.87   2.910000   6872900.0      -0.033823         7   
2902  15.22  15.63  15.18  15.520000   8104600.0      -0.033743        17   

     MONTH(Date) WEEKDAY(Date) YEAR(Date)  
id                                         
1437           9             2       2012  
2700           4             1       2016  
3647          12             1       2006  
2512           6             3       2018  
2902           8             2       2011  

Система сгенерировала следующие признаки:

  1. Open, High, Low, Close, Adj Close: Это стандартные финансовые параметры акций, отражающие цены открытия, максимальные, минимальные и закрытия за определенный период. Volume: Объем торгов акциями, который показывает, сколько акций было куплено/продано за определенный период.

  2. Сложные признаки: Close_Disc: Это диапазон цены закрытия. Price_Change: Изменение цены, т.е. разница между ценой закрытия и ценой открытия акций. Percentage_Change: Процентное изменение цен, которое позволяет оценить относительное изменение стоимости акций. Average_Price: Средняя цена акций за указанный период. Этот показатель может быть использован для оценки общей тенденции рынка.

  3. Также произошло разбиение даты на месяц, день недели и год, что может помочь в анализе сезонных и временных закономерностей.

Оценим качество каждого набора признаков:

In [84]:
import time
from sklearn.model_selection import train_test_split
from sklearn.metrics import r2_score, mean_absolute_error
from sklearn.linear_model import LinearRegression
from sklearn.tree import DecisionTreeRegressor
from sklearn.ensemble import RandomForestRegressor
from sklearn.linear_model import Lasso
from sklearn.linear_model import Ridge
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import cross_val_score

# Разделение данных на обучающую и тестовую выборки. Удаляем целевую переменную
#y = feature_matrix['Close'] #- целевая переменная
#X = feature_matrix.drop('Close', axis=1)

# Удаление строк с NaN
feature_matrix = feature_matrix.dropna()
val_feature_matrix = val_feature_matrix.dropna()
test_feature_matrix = test_feature_matrix.dropna()

# Разделение данных на обучающую и тестовую выборки
y_train = feature_matrix['Close']
X_train = feature_matrix.drop('Close', axis=1)
y_test = test_feature_matrix['Close']
X_test = test_feature_matrix.drop('Close', axis=1)

print(X_train.head())

# Обучение модели
model1 = LinearRegression()
#Линейная регрессия — это простая модель, которая пытается установить связь между двумя переменными, рисуя прямую линию на графике. 
# Она прогнозирует значение зависимой переменной (Y) на основе одной или нескольких независимых переменных (X).
model2 = DecisionTreeRegressor()
#Это модель, которая принимает решения, дробя данные на «ветви», как дерево. На каждом уровне дерева модель выбирает, 
# какой признак (фактор) использовать для разделения данных.
model3 = RandomForestRegressor(n_estimators=100) 
#Случайный лес — это ансамблевая модель, которая использует множество деревьев решений. 
# Вместо того чтобы полагаться на одно дерево, она комбинирует результаты нескольких деревьев, чтобы получить более точные предсказания.
model4 = Lasso(alpha=0.1)
#Lasso регрессия — это разновидность линейной регрессии с добавлением регуляризации. 
# Она помогает избежать переобучения модели, уменьшая влияние некоторых признаков.
model5 = Ridge(alpha=0.1)
#Ridge регрессия похожа на Lasso, но вместо полного исключения некоторых переменных она уменьшает значения всех коэффициентов.

print('\nLinearRegression:')
start_time = time.time()
model1.fit(X_train, y_train)
#Метод fit обучает модель на обучающем наборе данных, состоящем из X_train (набор данных) и y_train (целевая переменная).

# Время обучения модели
train_time = time.time() - start_time

y_predict = model1.predict(X_test)

mse = mean_squared_error(y_test, y_predict, squared=False)
# Этот показатель показывает, насколько в среднем наши предсказания отклоняются от фактических значений. Чем меньше RMSE, тем лучше модель.
r2 = r2_score(y_test, y_predict)
# Коффициент детерминации - показывает, насколько модель объясняет разброс значений в наборе данных
mae = mean_absolute_error(y_test, y_predict)
# Измеряет среднее расстояние между предсказанными значениями и фактическими значениями, игнорируя направление ошибок.
print(f'Коэффициент детерминации R²: {r2:.2f}')
print(f'Время обучения модели: {train_time:.2f} секунд')
print(f'Среднеквадратичная ошибка: {mse:.2f}')
print(f'Средняя абсолютная ошибка: {mae:.2f}')
# Кросс-валидация
scores = cross_val_score(model1, X_train, y_train, cv=5, scoring='neg_mean_squared_error')
rmse_cv = (-scores.mean())**0.5
print(f"Кросс-валидация RMSE: {rmse_cv} \n")
# Здесь мы используем метод cross_val_score для оценки модели с помощью кросс-валидации. 
# cv=5 означает, что мы будем разбивать наш обучающий набор на 5 частей (фолдов) и 
# использовать каждую часть для тестирования модели, обученной на остальных частях. 
# (по сути разбивка на выборки но несколько раз с использованием разных разбиений, чтобы получить норм оценку)

# Параметр scoring='neg_mean_squared_error' говорит о том, что мы хотим получать отрицательные значения среднеквадратичной ошибки, 
# так как cross_val_score возвращает лучшие результаты как положительные значения. Таким образом, использование отрицательного 
# значения MSE позволяет "перевернуть" метрику так, чтобы более низкие значения (более точные предсказания) приводили 
# к более высоким (в терминах абсолютного значения) результатам.

# После этого мы берем среднее значение отрицательной MSE и берем его корень (RMSE) 
# для получения усредненной оценки ошибки модели через кросс-валидацию.


# Визуализация результатов
plt.figure(figsize=(10, 6))
plt.scatter(y_test, y_predict, alpha=0.5)
plt.plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'k--', lw=2)
plt.xlabel('Фактическая цена')
plt.ylabel('Прогнозируемая цена')
plt.title('Фактическая цена по сравнению с прогнозируемой')
plt.show()

#//////////////////////////

print('\nDecisionTreeRegressor:')
start_time = time.time()
model2.fit(X_train, y_train)

# Время обучения модели
train_time = time.time() - start_time

y_predict = model2.predict(X_test)

mse = mean_squared_error(y_test, y_predict, squared=False)
r2 = r2_score(y_test, y_predict)
mae = mean_absolute_error(y_test, y_predict)
print(f'Коэффициент детерминации R²: {r2:.2f}')
print(f'Время обучения модели: {train_time:.2f} секунд')
print(f'Среднеквадратичная ошибка: {mse:.2f}')
print(f'Средняя абсолютная ошибка: {mae:.2f}')
# Кросс-валидация
scores = cross_val_score(model2, X_train, y_train, cv=5, scoring='neg_mean_squared_error')
rmse_cv = (-scores.mean())**0.5
print(f"Кросс-валидация RMSE: {rmse_cv} \n")

# Анализ важности признаков
feature_importances = model2.feature_importances_
feature_names = X_train.columns
# Визуализация результатов
plt.figure(figsize=(10, 6))
plt.scatter(y_test, y_predict, alpha=0.5)
plt.plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'k--', lw=2)
plt.xlabel('Фактическая цена')
plt.ylabel('Прогнозируемая цена')
plt.title('Фактическая цена по сравнению с прогнозируемой')
plt.show()

#//////////////////////////

print('\nRandomForestRegressor:')
start_time = time.time()
model3.fit(X_train, y_train)

# Время обучения модели
train_time = time.time() - start_time

y_predict = model3.predict(X_test)

mse = mean_squared_error(y_test, y_predict, squared=False)
r2 = r2_score(y_test, y_predict)
mae = mean_absolute_error(y_test, y_predict)
print(f'Коэффициент детерминации R²: {r2:.2f}')
print(f'Время обучения модели: {train_time:.2f} секунд')
print(f'Среднеквадратичная ошибка: {mse:.2f}')
print(f'Средняя абсолютная ошибка: {mae:.2f}')
# Кросс-валидация
scores = cross_val_score(model3, X_train, y_train, cv=5, scoring='neg_mean_squared_error')
rmse_cv = (-scores.mean())**0.5
print(f"Кросс-валидация RMSE: {rmse_cv} \n")

# Анализ важности признаков
feature_importances = model3.feature_importances_
feature_names = X_train.columns
# Визуализация результатов
plt.figure(figsize=(10, 6))
plt.scatter(y_test, y_predict, alpha=0.5)
plt.plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'k--', lw=2)
plt.xlabel('Фактическая цена')
plt.ylabel('Прогнозируемая цена')
plt.title('Фактическая цена по сравнению с прогнозируемой')
plt.show()

#//////////////////////////

print('\nLasso:')
start_time = time.time()
model4.fit(X_train, y_train)

# Время обучения модели
train_time = time.time() - start_time

y_predict = model4.predict(X_test)

mse = mean_squared_error(y_test, y_predict, squared=False)
r2 = r2_score(y_test, y_predict)
mae = mean_absolute_error(y_test, y_predict)
print(f'Коэффициент детерминации R²: {r2:.2f}')
print(f'Время обучения модели: {train_time:.2f} секунд')
print(f'Среднеквадратичная ошибка: {mse:.2f}')
print(f'Средняя абсолютная ошибка: {mae:.2f}')
# Кросс-валидация
scores = cross_val_score(model4, X_train, y_train, cv=5, scoring='neg_mean_squared_error')
rmse_cv = (-scores.mean())**0.5
print(f"Кросс-валидация RMSE: {rmse_cv} \n")

# Визуализация результатов
plt.figure(figsize=(10, 6))
plt.scatter(y_test, y_predict, alpha=0.5)
plt.plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'k--', lw=2)
plt.xlabel('Фактическая цена')
plt.ylabel('Прогнозируемая цена')
plt.title('Фактическая цена по сравнению с прогнозируемой')
plt.show()

#//////////////////////////

print('\nRidge:')
start_time = time.time()
model5.fit(X_train, y_train)

# Время обучения модели
train_time = time.time() - start_time

y_predict = model5.predict(X_test)
print(y_predict)
print(y_test.head())

mse = mean_squared_error(y_test, y_predict, squared=False)
r2 = r2_score(y_test, y_predict)
mae = mean_absolute_error(y_test, y_predict)
print(f'Коэффициент детерминации R²: {r2:.2f}')
print(f'Время обучения модели: {train_time:.2f} секунд')
print(f'Среднеквадратичная ошибка: {mse:.2f}')
print(f'Средняя абсолютная ошибка: {mae:.2f}')
# Кросс-валидация
scores = cross_val_score(model5, X_train, y_train, cv=5, scoring='neg_mean_squared_error')
rmse_cv = (-scores.mean())**0.5
print(f"Кросс-валидация RMSE: {rmse_cv} \n")

# Визуализация результатов
plt.figure(figsize=(10, 6))
plt.scatter(y_test, y_predict, alpha=0.5)
plt.plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'k--', lw=2)
plt.xlabel('Фактическая цена')
plt.ylabel('Прогнозируемая цена')
plt.title('Фактическая цена по сравнению с прогнозируемой')
plt.show()
     Open   High    Low      Volume  Volume_Change DAY(Date) MONTH(Date)  \
id                                                                         
0    5.66   5.73   5.47  23355100.0      -0.033796         8           7   
20   5.15   5.15   5.02  15906300.0      -0.033816        19           1   
21  10.60  10.65  10.48  10456400.0      -0.033817         8           4   
24   5.47   5.80   5.47  12929600.0      -0.033782         7          12   
28   6.15   6.16   5.98  15080900.0      -0.033786         5           1   

   WEEKDAY(Date) YEAR(Date)  
id                           
0              2       2020  
20             1       2021  
21             3       2010  
24             0       2020  
28             1       2021  

LinearRegression:
Коэффициент детерминации R²: 1.00
Время обучения модели: 0.05 секунд
Среднеквадратичная ошибка: 0.09
Средняя абсолютная ошибка: 0.06
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\metrics\_regression.py:492: FutureWarning: 'squared' is deprecated in version 1.4 and will be removed in 1.6. To calculate the root mean squared error, use the function'root_mean_squared_error'.
  warnings.warn(
Кросс-валидация RMSE: 0.08938664892927554 

No description has been provided for this image
DecisionTreeRegressor:
Коэффициент детерминации R²: 1.00
Время обучения модели: 0.05 секунд
Среднеквадратичная ошибка: 0.00
Средняя абсолютная ошибка: 0.00
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\metrics\_regression.py:492: FutureWarning: 'squared' is deprecated in version 1.4 and will be removed in 1.6. To calculate the root mean squared error, use the function'root_mean_squared_error'.
  warnings.warn(
Кросс-валидация RMSE: 0.1802140124251679 

No description has been provided for this image
RandomForestRegressor:
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\metrics\_regression.py:492: FutureWarning: 'squared' is deprecated in version 1.4 and will be removed in 1.6. To calculate the root mean squared error, use the function'root_mean_squared_error'.
  warnings.warn(
Коэффициент детерминации R²: 1.00
Время обучения модели: 3.28 секунд
Среднеквадратичная ошибка: 0.04
Средняя абсолютная ошибка: 0.03
Кросс-валидация RMSE: 0.13929243803791755 

No description has been provided for this image
Lasso:
Коэффициент детерминации R²: 1.00
Время обучения модели: 0.02 секунд
Среднеквадратичная ошибка: 0.15
Средняя абсолютная ошибка: 0.09
Кросс-валидация RMSE: 0.14781881296011543 

c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 2.283e+01, tolerance: 9.545e+00
  model = cd_fast.enet_coordinate_descent(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\metrics\_regression.py:492: FutureWarning: 'squared' is deprecated in version 1.4 and will be removed in 1.6. To calculate the root mean squared error, use the function'root_mean_squared_error'.
  warnings.warn(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 2.283e+01, tolerance: 9.123e+00
  model = cd_fast.enet_coordinate_descent(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 1.777e+01, tolerance: 7.834e+00
  model = cd_fast.enet_coordinate_descent(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 1.716e+01, tolerance: 7.848e+00
  model = cd_fast.enet_coordinate_descent(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 1.801e+01, tolerance: 7.706e+00
  model = cd_fast.enet_coordinate_descent(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_coordinate_descent.py:697: ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations, check the scale of the features or consider increasing regularisation. Duality gap: 8.478e+00, tolerance: 4.075e+00
  model = cd_fast.enet_coordinate_descent(
No description has been provided for this image
Ridge:
[18.32722123  3.0107936  12.6847593   2.87696207 15.52981848  3.48194544
  4.53098976  4.58990992  8.55918054  1.71694281  9.10822415  8.40752737
  2.55937943 17.00035263  8.5683403  15.2286672  16.48759661  2.64328782
 14.35748458 12.31290367  9.18390836 12.55374573 11.94125633  5.63035597
  2.42612661 12.21701737  5.89097154  2.70327352  2.71025583  5.88467691
  6.18495597 10.41194006 11.74058835  5.66495824  8.63860471  2.32680261
  4.25343744  5.2432205   1.14830738  1.72497365 16.34541382 15.46871272
  2.85962121  2.30344579  5.65496708  1.92032975 11.16954884  9.45732656
  3.02702328  8.7593053  16.29196128  9.14135635 11.67985565  2.93153544
  5.25600956  2.04094627 11.01252369 15.56616586  9.17103507  8.37553299
  2.00616581  2.1215906   2.9696912   4.12823341  4.16293466  4.06749422
 13.4970923   1.41292202  2.46751547  6.27820521  2.81149324  3.19217976
 15.48506179  5.80541842  9.63517226 10.44588766  1.72088075 19.0229673
  7.97420514  3.54378077  3.84646413 12.44758703  5.96056526 12.07860988
  1.72342917  5.51538196  2.28724266  3.70750799  6.35093254 11.23979499
  5.44158532  3.14961345  1.44146004 12.3629413   2.0369365   2.653985
  4.38821694  2.86791114  4.36303521  7.77605572  1.6223479   2.74020297
  2.92511993  3.96494258  1.44296481  6.5874516  10.2366303  12.2951812
  5.76265943  8.84323802  2.61169285  2.8650806   1.71448408  3.84116443
 10.27423177  2.13438867  9.71588695  5.87075642  6.55998543  4.01717677
  2.49161305  4.92076646 14.71785247 13.03487059  4.19637943  4.12280758
  9.53833488  4.36984794  2.30435943  2.35286733  9.83632877  1.71672432
  3.0790716  10.17767211  8.49247673 12.90571486 11.46719152 15.61927112
 13.87151069 12.22130308  1.60054527  2.2925814   8.77186654  3.14831016
  3.43659687  3.69635824  3.98611212  1.43750507  1.72273422 16.09455883
  5.52081983 12.01068013  2.91301752 14.32208531  3.15080861  8.2657655
 12.93407876  1.82653829  6.83263136 13.79486528  3.26175027  5.79487874
 11.94414316 12.98191364 14.47550566  5.32553162 10.28129845 17.37413521
  2.49622968  4.0074591  18.25192405  9.90052442  1.41478482 10.68641859
  9.11578983 17.58319025  3.5779263   2.80777855  3.72334889  9.48123556
  4.00253311  2.50851055  3.14725992  1.88480232  5.66582446  4.70190489
  2.29057556  3.4425988  16.47818856  2.61829716  3.04047372  3.65158322
  9.9697805   2.59514454  3.4319669  12.70570616  2.09688785  2.2249029
  5.64255812 10.51420545  9.81358192  5.25856628  9.47732466  9.10028075
  3.3194552  14.63525856  2.96062829  2.54155985 11.96331849 10.44282616
  3.70419454 14.53535116  1.43558882  5.48292316 14.79396409  5.17119502
 11.8387389   4.7281767   2.74742947  3.89148373  9.15393279 13.16546132
  9.74668684  3.00362808 17.70317768 11.05084012  9.46590928  4.65493814
  2.29413516 12.8961292   4.21372965 13.24823607  1.15054761  3.52127164
  4.00415437 14.2052063   1.88592957 18.87168748  2.35635132 13.21057174
  3.85142815  9.30387653  6.0170587   2.13101031 18.52228946  3.90643655
  7.94204889  2.86442427 16.04111643  3.47149236 10.65180971  2.81664073
  8.87805443  4.95091871  2.39311808  4.00678958  3.0577783   9.68889681
  2.92780012  9.77211671  2.12647041  8.37581821  2.58051123  5.77277617
 11.63880937 14.80034104  9.79433136  2.06559445  7.44744145  2.28989505
  6.71762151 12.68385509  2.98532405  9.78190262  4.03934245 14.97313774
  5.52721683 11.76555051  2.5411544   4.34622969  3.015949    8.07698343
  2.9374955   1.43564729  2.6248958  10.17953738  4.4233589   4.28687843
  6.12715504  3.57780437 14.26214236 10.10197497  7.57548007  4.29275405
  4.00647401  7.15121533  3.49070553  2.89562089  4.87079254  3.65335177
  1.98276004 12.21285304  3.80075313  1.60545458 10.9162067   5.88391728
 12.21920604 10.51094481  3.14849044  2.82357915  3.83022847  2.45718634
  9.32414072  2.14939107  2.91632385  8.52646224  2.61797119  4.98654586
  5.63720191  2.33693799  2.80849777 13.2974269  16.94742485  8.87053874
  2.51840058 15.18609256  4.41520206  8.17249811  3.50445626 15.83736599
 12.39381531 18.78524005  2.51074177  1.72609665 11.90800331  2.29281582
  4.37636745  8.77104754  8.85386525  3.71534887  9.0174119   3.83050688
  2.13860817  9.07451634  7.22838033  8.78669158 12.84500737  3.82724111
 11.60215407  9.62647822  3.18537771  4.38413336  3.38858381 11.07807859
  4.57342873  3.62605304 14.13067537  2.97358525  2.80824007  2.60264335
  2.85543948 10.42505871 11.17897442  4.9551702   1.43771498  4.5699936
  3.92533082 16.41889465  2.1709318   3.59116878  5.12679239 13.54208216
  6.4900012   2.70668023  5.41869081  9.4076443   3.35718526  3.88477761
 12.59921378 12.45690744  1.72196407  5.42504719  1.59211472 18.38656896
 12.05774811  1.81328658  2.60812509  2.70641661 14.63689067 10.1231312
  3.19718051  2.64870297  2.5922311   3.6667811   2.86745846 10.74807782
  7.34653952  3.0257806   1.26915484  3.90973225  1.14757191 15.30102494
  2.8388904  10.10477021 11.33861902  3.59179238  2.59204053  1.27139508
 12.75370589 11.83447587  2.2282411   1.14611468  2.44167877  2.58179507
  4.21622913  4.01778848 15.37576704  2.77757243  4.02608739  3.06976841
 13.03625384  2.82489613 19.18767186  3.72319075  2.07102046  4.80970213
  2.29713549 12.29220855  2.11357083  2.64336908 17.1744381  12.47864336
 11.69760866  2.00646536  2.04917214 16.41397044  9.16973529 12.95993122
  5.86877613  2.2468947   2.46717077 10.30357811  5.86081991 16.33232632
  8.25391682 16.93006673  2.04444389  2.76610558  4.33679861  2.98011323
 10.28818282  3.71219997  3.76573281  4.27291475 11.05404335 11.35363208
 12.65547427 15.35903285  3.10943919  4.11863028  2.04139352  3.44169724
 14.15719058  3.71007754  2.60839298  9.40803854  7.965787    5.72961304
 11.32356401  4.03859843 11.26824897 10.81440803 11.2887788   2.85992
  4.76882445 10.52593601  9.29548328  1.9204114   3.34590612  1.71958594
  2.01488465  9.13635507  3.03568843  5.24678712  2.86704456 17.41498095
  2.81527421  9.10469504  3.59359429  3.09393291  2.14025116 10.12501543
  2.35302801 10.84937595 13.63837995 11.09919982  5.96236267 15.14528057
 14.83369739  3.32998139  8.56563887 17.23015189  8.38381052 14.41813023
 15.36999687  2.74058072 14.3923915   2.71595583 10.22863526  7.36383598
  2.46400848 16.57392824  2.57781562  3.41926645  3.26749619  3.17635754
  2.57118678 14.75146822  3.90070952  2.5422388   3.25627717  6.15681406
  3.01206209  3.72110863  4.81275181  4.17754395  3.37907416 16.67083867
  2.96639092  8.31861646 19.5928038   2.59001085 11.73172582  2.53080388
 16.10939211  9.55281074  4.89147294  3.77039723  4.00053916 11.89179237
  2.56927393 15.1382684   2.57432876 16.86059854 12.26777022  2.21304502
  3.42883782  9.03406082  9.35980603  2.94004971  3.65403247  2.25539194
  2.51560397  1.86858304  3.90730135  2.90162905 11.33281109  3.07493559
  3.15457744  4.18287376 11.24267304  3.14165207  4.17388857  8.72188417
  1.85582758  2.20106313  4.05432171  8.87105029  8.25713815  7.4982045
  5.31099181  2.03252885  2.35380106  2.90833172  5.27744197  2.17862018
 10.59979178 11.67659365  2.86590528  2.09763582  9.82317744  2.90241731
 16.46282977  5.26638038  3.05806445  6.09927815 10.13120605  9.52575222
  4.25604601  3.14696785  2.00463723  5.04334856  3.84137804 14.25459319
 15.19262069 13.81042232  8.69746497 10.20117907 10.44016043  9.20203708
  8.71833373 12.93418185  9.28551261 17.96015086  2.19455615  3.91631872
  9.59075942 15.12231599 16.98194811 11.24424247  5.95905356  2.50041082
  4.47796826 19.95913906 12.81342182  5.63047224  2.69892087  5.43626143
 12.46475017 14.56422072  1.69619261  9.7081645  10.36442387  2.00400579
 11.90183282 11.45347863  3.04380204  4.39388834 18.2592019  10.16132727
 11.81919909 11.7150185   6.10742334  5.70336903 10.81056606  2.67050571
 14.3015793   5.20797712  4.19400473  2.44345517 12.926497    2.82576306
  3.52995951  9.08843842 10.79776541  2.1054964  11.8111336   5.53884535
  8.42241261  2.13193761 17.25708399  5.26646335 12.92020654  3.15086709
 14.42222551 11.24062861 15.18238417  8.29062296 19.18811532 10.75429813
  6.09171082  5.51060657  3.38282565 15.16024941  1.72118892  1.8841125
 15.75713605 10.00156083  1.82383918 15.17370047  2.76597514 12.97800436
  2.00911775 14.65916569  1.80074335  4.1277356   3.18348842  3.13512011
  2.86072911 14.03376005  5.90289278  1.41908883 15.16040243  3.21897769
  2.86368881  2.28948292  2.86396836  3.61071167 15.61242608 11.64838829
  4.85794237  3.15039497  2.57324047 11.66309006  3.67598898  2.53054004
  4.72814742  3.22933023  2.18218159  4.0139289   2.57884396 10.38283196
  3.43718286  3.36874742  4.27099997  2.10418287  2.29338051 20.29371949
  2.56748636 15.58927323  2.49890628  9.75547704 11.41633048  8.99062199
  2.91620698  2.00690127  9.84708901  2.20853016  1.6000834   2.36301124
 14.13997031 13.40623928 14.37827182  1.43777928  2.77851552  2.80842233
  4.06616654  3.85792485  9.37734454  3.89462333  4.04386877  4.12924573
  9.80364686  5.27666885  9.49792776  2.04498024  8.39342772 12.43929111
  3.33066377 10.10553764 11.50080194 14.15645551  3.53308783  7.23569727
  4.24063666 11.93546104  1.4341425   4.73309817  3.39423613  3.15689465
  2.48179631  3.90472832  4.1746958  18.57109419  9.08110507  2.97701524
  2.51687935  5.91769028  2.08750654  1.95767093  2.72859734  2.57603073
 11.05087488  2.83452257 12.74139073 10.27409885  2.09043978 15.38054965
 11.11194565 12.44357901 11.21301652 14.62181777 12.86121086  3.03239726
  1.14981215 10.95406398  8.09016551 11.30190626  8.72749802 11.48987906
  2.73349591  1.81491824  2.75723715 11.00142742  9.26644724 10.80686206
  5.47401715  1.5233777   2.68723787 12.21653822 11.67249167 11.73429027
 12.65422229  3.29490981 10.73473701  1.58175851  3.36260784 10.43117767
  4.74239496  9.31321539  1.53214498  9.36787631  3.17960608 11.33815015
  1.4944268   2.55231257  3.4338913   4.88079947  5.54352484  9.44755779
  5.47553143  2.2867321   3.35788652  3.03689751 13.69364835  2.16172887
  8.82221604  7.2449377   5.91869505  1.9524711   5.08923505  2.29223848
 15.42311306  4.14145758 11.86010012  3.02606217  3.87950275  5.41448186
  8.92537914  3.43315584  8.60694749 15.05033692  2.28146164 18.8219829
  4.04083324 11.22431607  4.54687533  5.77312967 16.68722862 12.3673102
  2.77424166  5.0751549   2.60859918]
id
1437    18.559999
2700     3.100000
3647    12.650000
2512     2.910000
2902    15.520000
Name: Close, dtype: float64
Коэффициент детерминации R²: 1.00
Время обучения модели: 0.00 секунд
Среднеквадратичная ошибка: 0.09
Средняя абсолютная ошибка: 0.06
Кросс-валидация RMSE: 0.08939608015848853 

c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\metrics\_regression.py:492: FutureWarning: 'squared' is deprecated in version 1.4 and will be removed in 1.6. To calculate the root mean squared error, use the function'root_mean_squared_error'.
  warnings.warn(
c:\Users\K\source\repos\AIM-PIbd-31-Ievlewa-M-D\aimenv\Lib\site-packages\sklearn\linear_model\_ridge.py:216: LinAlgWarning: Ill-conditioned matrix (rcond=7.51858e-17): result may not be accurate.
  return linalg.solve(A, Xy, assume_a="pos", overwrite_a=True).T
No description has been provided for this image

На основании представленных данных можно сделать несколько выводов:

  1. Общие выводы по точности В данном случае среднеквадратичные ошибки близки или равны нулю, к тому же коэффициент детерминации 1.00 - это говорит либо о том, что модель обучается идеально, либо о том, что модель запомнила значения. Поэтому я проверила ее на нескольких моделях и отдельно вывела для сравнения список предсказанной целевой переменной и тестовую(с которой сравниваем) целевую переменную - результаты оказались весьма близки к тестовым показателям, но не точь в точь, что, скорее всего, говорит о том, что модель все же обучается идеально... Среднеквадратичная ошибка (RMSE) и Средняя абсолютная ошибка (MAE)
  • LinearRegression: MAE = 0.04 и RMSE = 0.05 указывает на весьма точные предсказания.
  • DecisionTreeRegressor: MAE и RMSE равны 0.00, что может указывать на чрезмерное подстраивание модели к обучающим данным.
  • RandomForestRegressor: MAE = 0.02 и RMSE = 0.03 показывают высокую точность прогнозов, но не столь идеальные результаты, как у дерева решений.
  • Lasso и Ridge: Обе модели имеют MAE = 0.10 и 0.04 соответственно, что также предполагает приемлемую точность, но с возможностью недопущения переобучения.
  1. Переобучение модели Высокие значения R² и нулевые ошибки (MAE и RMSE) у DecisionTreeRegressor могут указывать на переобучение модели. Это значит, что модель отлично работает на обучающих данных, но может быть неэффективной на новых, невидимых данных. Для линейной регрессии и других регуляризованных моделей (например, Lasso и Ridge) результаты более сбалансированы, что делает их менее подверженными переобучению.
  2. Производительность модели Время обучения у моделей достаточно быстрое, что свидетельствует об их высокой производительности.
  3. Соответствие бизнес-целям Учитывая высокую точность модели и ее способность к обучению на исторических данных, можно использовать ее для прогнозирования цен на акции. Однако рекомендуется дополнительно проверять результаты на тестовых данных, чтобы избежать проблем с переобучением.