58 KiB
Вариант: Экономика стран
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import LabelEncoder
from imblearn.over_sampling import RandomOverSampler
from imblearn.under_sampling import RandomUnderSampler
import featuretools as ft
import numpy as np
label_encoder = LabelEncoder()
# Функция для применения oversampling
def apply_oversampling(X, y):
oversampler = RandomOverSampler(random_state=42)
X_resampled, y_resampled = oversampler.fit_resample(X, y)
return X_resampled, y_resampled
# Функция для применения undersampling
def apply_undersampling(X, y):
undersampler = RandomUnderSampler(random_state=42)
X_resampled, y_resampled = undersampler.fit_resample(X, y)
return X_resampled, y_resampled
def split_stratified_into_train_val_test(
df_input,
stratify_colname="y",
frac_train=0.6,
frac_val=0.15,
frac_test=0.25,
random_state=None,
):
"""
Splits a Pandas dataframe into three subsets (train, val, and test)
following fractional ratios provided by the user, where each subset is
stratified by the values in a specific column (that is, each subset has
the same relative frequency of the values in the column). It performs this
splitting by running train_test_split() twice.
Parameters
----------
df_input : Pandas dataframe
Input dataframe to be split.
stratify_colname : str
The name of the column that will be used for stratification. Usually
this column would be for the label.
frac_train : float
frac_val : float
frac_test : float
The ratios with which the dataframe will be split into train, val, and
test data. The values should be expressed as float fractions and should
sum to 1.0.
random_state : int, None, or RandomStateInstance
Value to be passed to train_test_split().
Returns
-------
df_train, df_val, df_test :
Dataframes containing the three splits.
"""
if frac_train + frac_val + frac_test != 1.0:
raise ValueError(
"fractions %f, %f, %f do not add up to 1.0"
% (frac_train, frac_val, frac_test)
)
if stratify_colname not in df_input.columns:
raise ValueError("%s is not a column in the dataframe" % (stratify_colname))
X = df_input # Contains all columns.
y = df_input[
[stratify_colname]
] # Dataframe of just the column on which to stratify.
# Split original dataframe into train and temp dataframes.
df_train, df_temp, y_train, y_temp = train_test_split(
X, y, stratify=y, test_size=(1.0 - frac_train), random_state=random_state
)
# Split the temp dataframe into val and test dataframes.
relative_frac_test = frac_test / (frac_val + frac_test)
df_val, df_test, y_val, y_test = train_test_split(
df_temp,
y_temp,
stratify=y_temp,
test_size=relative_frac_test,
random_state=random_state,
)
assert len(df_input) == len(df_train) + len(df_val) + len(df_test)
return df_train, df_val, df_test
data = pd.read_csv("../data/Economic.csv")
data.info()
Определение бизнес-целей
Прогнозирование ВВП на душу населения (GDP per capita) для каждой из 9 стран на следующие 5 лет. Это позволит бизнесу и правительствам принимать обоснованные решения в области экономической политики и инвестиций.
Определение факторов, наиболее сильно влияющих на ВВП на душу населения. Это поможет выявить области, требующие особого внимания для стимулирования экономического роста.
Определение целей технического проекта
Разработка модели машинного обучения, способной с высокой точностью прогнозировать ВВП на душу населения на основе исторических данных.
Анализ корреляции между различными экономическими показателями и ВВП на душу населения, выявление наиболее значимых факторов.
Дополнение данных
print(data.isnull().sum())
data.fillna({"index_price": 1, "inflationrate": 0, "gpdpercent": 0, "percapitaincome": 100,"unemploymentrate": 0, "manufacturingoutput": 1, "tradebalance": -350})
Разбиение данных на выборки и оценка сбалансированности выборки
main_data = data.copy()
value_counts = data["country"].value_counts()
df_train, df_val, df_test = split_stratified_into_train_val_test(
data, stratify_colname="country", frac_train=0.60, frac_val=0.20, frac_test=0.20)
print("Обучающая выборка: ", df_train.shape)
print(df_train["country"].value_counts())
print("Контрольная выборка: ", df_val.shape)
print(df_val["country"].value_counts())
print("Тестовая выборка: ", df_test.shape)
print(df_test["country"].value_counts())
Конструирование признаков
- Унитарное кодирование категориальных признаков
# Пример для кодирования стран
data = pd.get_dummies(data, columns=['country'], prefix='country')
data.head()
data.tail()
- Дискретизация числовых признаков
# Пример для дискретизации года
bin = [0, 40, 70, float('inf')]
label = ["cheap", "normal", "rich"]
data["oil_price_category"] = pd.cut(data['oil prices'], bins=bin, labels=label)
print(data[["oil prices", "oil_price_category"]].head(30))
- "Ручной" синтез признаков
# Пример синтеза признака "Экономический рост"
data['Economic_Growth'] = data['gdppercent'].diff()
data.head()
- Масштабирование признаков
Масштабирование признаков на основе нормировки и стандартизации в рамках данного набора данных не является необходимым
Конструирование признаков с использованием Featuretools
# Определение сущностей
es = ft.EntitySet(id='economic')
es = es.add_dataframe(dataframe_name="dataEconomic", dataframe=data, index='index', make_index=False)
# Автоматическое конструирование признаков
feature_matrix, feature_defs = ft.dfs(entityset=es, target_dataframe_name="dataEconomic", max_depth=2, verbose=1, n_jobs=1)
print(feature_matrix.head(10))
Оценка качества наборов признаков
Все наборы признаков имеют неплохую предсказательную способность, высокую скорость вычисления, высокую надежность, при правильности их предварительной обработки, высокую корреляцию и цельность. Данные могут быть использованы для дальнейшего улучшения модели и принятия обоснованных бизнес-решений в области экономики.