Predicted progress! From "very bad" to just "bad".
This commit is contained in:
parent
65dfaec1a5
commit
c6ad3a213a
@ -6,9 +6,11 @@ import os
|
|||||||
router = APIRouter()
|
router = APIRouter()
|
||||||
|
|
||||||
# Инициализация сервиса
|
# Инициализация сервиса
|
||||||
MODEL_PATH = os.getenv("MODEL_PATH", "services/laptop_price_model.pkl")
|
MODEL_PATH = os.getenv("MODEL_PATH", "services/ml/laptop_price_model.pkl")
|
||||||
FEATURE_COLUMNS_PATH = os.getenv("FEATURE_COLUMNS_PATH", "services/feature_columns.pkl")
|
FEATURE_COLUMNS_PATH = os.getenv("FEATURE_COLUMNS_PATH", "services/ml/feature_columns.pkl")
|
||||||
laptop_service = LaptopService(model_path=MODEL_PATH, feature_columns_path=FEATURE_COLUMNS_PATH)
|
POLY_PATH = os.getenv("POLY_PATH", "services/ml/poly_transformer.pkl")
|
||||||
|
SCALER_PATH = os.getenv("SCALER_PATH", "services/ml/scaler.pkl")
|
||||||
|
laptop_service = LaptopService(model_path=MODEL_PATH, feature_columns_path=FEATURE_COLUMNS_PATH, poly_path=POLY_PATH, scaler_path=SCALER_PATH)
|
||||||
|
|
||||||
@router.post("/predict_price/", response_model=PredictPriceResponse, summary="Predict laptop price", description="Predict the price of a laptop based on its specifications.", response_description="The predicted price of the laptop.")
|
@router.post("/predict_price/", response_model=PredictPriceResponse, summary="Predict laptop price", description="Predict the price of a laptop based on its specifications.", response_description="The predicted price of the laptop.")
|
||||||
def predict_price(data: LaptopCreate):
|
def predict_price(data: LaptopCreate):
|
||||||
|
10
main.py
10
main.py
@ -1,7 +1,17 @@
|
|||||||
from fastapi import FastAPI
|
from fastapi import FastAPI
|
||||||
|
from fastapi.middleware.cors import CORSMiddleware
|
||||||
from controllers import controller
|
from controllers import controller
|
||||||
|
|
||||||
app = FastAPI()
|
app = FastAPI()
|
||||||
|
|
||||||
|
# Настройка CORS
|
||||||
|
app.add_middleware(
|
||||||
|
CORSMiddleware,
|
||||||
|
allow_origins=["*"], # Замените на список допустимых доменов, например: ["http://localhost:8080"]
|
||||||
|
allow_credentials=True,
|
||||||
|
allow_methods=["*"], # Разрешить все методы (GET, POST, PUT и т.д.)
|
||||||
|
allow_headers=["*"], # Разрешить все заголовки
|
||||||
|
)
|
||||||
|
|
||||||
# Подключение маршрутов
|
# Подключение маршрутов
|
||||||
app.include_router(controller.router)
|
app.include_router(controller.router)
|
||||||
|
@ -74,81 +74,55 @@ def generate_release_year():
|
|||||||
def calculate_price(brand, processor, ram, os, ssd, display, gpu, weight, battery_size, release_year, display_type):
|
def calculate_price(brand, processor, ram, os, ssd, display, gpu, weight, battery_size, release_year, display_type):
|
||||||
base_price = 30000 # базовая цена в условных единицах
|
base_price = 30000 # базовая цена в условных единицах
|
||||||
|
|
||||||
# Добавление стоимости в зависимости от бренда
|
# Бренд
|
||||||
brand_premium = {
|
brand_premium = {
|
||||||
'Apple': 40000,
|
'Apple': 40000, 'MSI': 35000, 'Dell': 15000, 'HP': 12000, 'Lenovo': 10000,
|
||||||
'MSI': 35000,
|
'Microsoft': 18000, 'Asus': 8000, 'Acer': 7000, 'Samsung': 9000, 'Toshiba': 8500
|
||||||
'Dell': 15000,
|
|
||||||
'HP': 12000,
|
|
||||||
'Lenovo': 10000,
|
|
||||||
'Microsoft': 18000,
|
|
||||||
'Asus': 8000,
|
|
||||||
'Acer': 7000,
|
|
||||||
'Samsung': 9000,
|
|
||||||
'Toshiba': 8500
|
|
||||||
}
|
}
|
||||||
base_price += brand_premium.get(brand, 10000) # дефолтный премиум
|
base_price += brand_premium.get(brand, 10000)
|
||||||
|
|
||||||
# Добавление стоимости в зависимости от процессора
|
# Процессор
|
||||||
if 'i3' in processor or 'Ryzen 3' in processor:
|
processor_premium = {
|
||||||
base_price += 5000
|
'Intel Core i3': 5000, 'Intel Core i5': 10000, 'Intel Core i7': 15000,
|
||||||
elif 'i5' in processor or 'Ryzen 5' in processor:
|
'AMD Ryzen 3': 5000, 'AMD Ryzen 5': 10000, 'AMD Ryzen 7': 15000
|
||||||
base_price += 10000
|
|
||||||
elif 'i7' in processor or 'Ryzen 7' in processor:
|
|
||||||
base_price += 15000
|
|
||||||
|
|
||||||
# Добавление стоимости за RAM
|
|
||||||
base_price += ram * 2000 # 2000 условных единиц за каждый GB RAM
|
|
||||||
|
|
||||||
# Добавление стоимости за ОС
|
|
||||||
if os == 'Windows 11':
|
|
||||||
base_price += 5000
|
|
||||||
elif os == 'macOS':
|
|
||||||
base_price += 15000
|
|
||||||
elif os == 'Linux':
|
|
||||||
base_price += 3000
|
|
||||||
# Windows 10 считается стандартной и не добавляет стоимости
|
|
||||||
|
|
||||||
# Добавление стоимости за SSD
|
|
||||||
if ssd > 0:
|
|
||||||
base_price += ssd * 100 # 100 условных единиц за каждый GB SSD
|
|
||||||
|
|
||||||
# Добавление стоимости за размер дисплея
|
|
||||||
base_price += (display - 13) * 5000 # 5000 условных единиц за каждый дюйм больше 13"
|
|
||||||
|
|
||||||
# Добавление стоимости за тип дисплея
|
|
||||||
display_type_premium = {
|
|
||||||
'HD': 0,
|
|
||||||
'Full HD': 5000,
|
|
||||||
'4K': 15000,
|
|
||||||
'OLED': 20000
|
|
||||||
}
|
}
|
||||||
|
for key, value in processor_premium.items():
|
||||||
|
if key in processor:
|
||||||
|
base_price += value
|
||||||
|
break
|
||||||
|
|
||||||
|
# RAM - уменьшаем его коэффициент
|
||||||
|
base_price += ram * 1000
|
||||||
|
|
||||||
|
# SSD - также уменьшаем его коэффициент
|
||||||
|
base_price += ssd * 50
|
||||||
|
|
||||||
|
# Дисплей
|
||||||
|
base_price += (display - 13) * 5000
|
||||||
|
|
||||||
|
# Тип дисплея
|
||||||
|
display_type_premium = {'HD': 0, 'Full HD': 12000, '4K': 30000, 'OLED': 35000}
|
||||||
base_price += display_type_premium.get(display_type, 0)
|
base_price += display_type_premium.get(display_type, 0)
|
||||||
|
|
||||||
# Добавление стоимости за GPU
|
# GPU
|
||||||
gpu_premium = {
|
gpu_premium = {'Integrated': 0, 'NVIDIA GeForce GTX 1650': 25000, 'NVIDIA GeForce RTX 3060': 40000, 'AMD Radeon RX 5600M': 35000}
|
||||||
'Integrated': 0,
|
|
||||||
'NVIDIA GeForce GTX 1650': 15000,
|
|
||||||
'NVIDIA GeForce RTX 3060': 25000,
|
|
||||||
'AMD Radeon RX 5600M': 20000
|
|
||||||
}
|
|
||||||
base_price += gpu_premium.get(gpu, 0)
|
base_price += gpu_premium.get(gpu, 0)
|
||||||
|
|
||||||
# Добавление стоимости за вес (легкие ноутбуки дороже)
|
# Вес
|
||||||
base_price += (3.0 - weight) * 5000 # Чем легче, тем дороже
|
base_price += (3.0 - weight) * 8000 # Чем легче, тем дороже
|
||||||
|
|
||||||
# Добавление стоимости за размер батареи
|
# Батарея
|
||||||
base_price += battery_size * 100 # 100 условных единиц за каждый Вт⋅ч батареи
|
base_price += battery_size * 250
|
||||||
|
|
||||||
# Добавление стоимости за год выпуска (новые модели дороже)
|
# Год выпуска
|
||||||
current_year = datetime.now().year
|
current_year = datetime.now().year
|
||||||
base_price += (current_year - release_year) * 2000 # 2000 условных единиц за каждый год назад
|
base_price += (current_year - release_year) * 5000
|
||||||
|
|
||||||
# Добавление случайного шума для реалистичности
|
# Добавление случайного шума
|
||||||
noise = np.random.normal(0, 5000) # среднее 0, стандартное отклонение 5000
|
noise = np.random.normal(0, 5000) # Шум для увеличения разброса
|
||||||
final_price = base_price + noise
|
final_price = base_price + noise
|
||||||
|
|
||||||
return max(round(final_price, 2), 5000) # минимальная цена 5000 условных единиц
|
return max(round(final_price, 2), 5000)
|
||||||
|
|
||||||
|
|
||||||
# Функция для генерации синтетических данных
|
# Функция для генерации синтетических данных
|
||||||
|
@ -1,23 +1,17 @@
|
|||||||
import pandas as pd
|
import pandas as pd
|
||||||
from sklearn.model_selection import train_test_split
|
from sklearn.model_selection import train_test_split, GridSearchCV
|
||||||
from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressor
|
from sklearn.ensemble import RandomForestRegressor
|
||||||
from sklearn.linear_model import LinearRegression
|
|
||||||
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score
|
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score
|
||||||
|
from sklearn.preprocessing import PolynomialFeatures, StandardScaler
|
||||||
import matplotlib.pyplot as plt
|
import matplotlib.pyplot as plt
|
||||||
import joblib
|
import joblib
|
||||||
import numpy as np
|
import numpy as np
|
||||||
|
|
||||||
# Шаг 1: Загрузка данных
|
# Шаг 1: Загрузка данных
|
||||||
df = pd.read_csv('../../datasets/synthetic_laptops.csv') # Убедитесь, что путь к файлу правильный
|
df = pd.read_csv('../../datasets/synthetic_laptops.csv')
|
||||||
|
|
||||||
# Шаг 2: Проверка и очистка имен столбцов
|
# Шаг 2: Проверка и очистка имен столбцов
|
||||||
print("Имена столбцов до очистки:")
|
|
||||||
print(df.columns.tolist())
|
|
||||||
|
|
||||||
# Приведение имен столбцов к нижнему регистру и удаление пробелов
|
|
||||||
df.columns = df.columns.str.strip().str.lower()
|
df.columns = df.columns.str.strip().str.lower()
|
||||||
print("\nИмена столбцов после очистки:")
|
|
||||||
print(df.columns.tolist())
|
|
||||||
|
|
||||||
# Шаг 3: Проверка наличия необходимых столбцов
|
# Шаг 3: Проверка наличия необходимых столбцов
|
||||||
required_columns = [
|
required_columns = [
|
||||||
@ -25,20 +19,13 @@ required_columns = [
|
|||||||
'gpu', 'weight', 'battery_size', 'release_year', 'display_type', 'price'
|
'gpu', 'weight', 'battery_size', 'release_year', 'display_type', 'price'
|
||||||
]
|
]
|
||||||
missing_columns = [col for col in required_columns if col not in df.columns]
|
missing_columns = [col for col in required_columns if col not in df.columns]
|
||||||
|
|
||||||
if missing_columns:
|
if missing_columns:
|
||||||
print(f"\nОтсутствуют следующие столбцы: {missing_columns}")
|
|
||||||
raise Exception(f"Отсутствуют столбцы: {missing_columns}")
|
raise Exception(f"Отсутствуют столбцы: {missing_columns}")
|
||||||
else:
|
|
||||||
print("\nВсе необходимые столбцы присутствуют.")
|
|
||||||
|
|
||||||
# Шаг 4: Удаление строк с пропущенными значениями
|
# Шаг 4: Удаление строк с пропущенными значениями
|
||||||
df = df.dropna(subset=required_columns)
|
df = df.dropna(subset=required_columns)
|
||||||
print(f"\nКоличество строк после удаления пропусков: {df.shape[0]}")
|
|
||||||
|
|
||||||
# Шаг 5: Очистка и преобразование колонок
|
# Шаг 5: Очистка и преобразование колонок
|
||||||
|
|
||||||
# Функция для очистки числовых колонок, если они строковые
|
|
||||||
def clean_numeric_column(column, remove_chars=['₹', ',', ' ']):
|
def clean_numeric_column(column, remove_chars=['₹', ',', ' ']):
|
||||||
if column.dtype == object:
|
if column.dtype == object:
|
||||||
for char in remove_chars:
|
for char in remove_chars:
|
||||||
@ -47,77 +34,81 @@ def clean_numeric_column(column, remove_chars=['₹', ',', ' ']):
|
|||||||
else:
|
else:
|
||||||
return column
|
return column
|
||||||
|
|
||||||
# Очистка числовых колонок (исключая 'price', если уже числовая)
|
|
||||||
numerical_columns = ['ram', 'ssd', 'display', 'weight', 'battery_size', 'release_year']
|
numerical_columns = ['ram', 'ssd', 'display', 'weight', 'battery_size', 'release_year']
|
||||||
for col in numerical_columns:
|
for col in numerical_columns:
|
||||||
df[col] = clean_numeric_column(df[col])
|
df[col] = clean_numeric_column(df[col])
|
||||||
|
|
||||||
# Проверка на пропущенные значения после очистки
|
|
||||||
df = df.dropna(subset=['price'] + numerical_columns)
|
df = df.dropna(subset=['price'] + numerical_columns)
|
||||||
print(f"\nКоличество строк после очистки числовых колонок: {df.shape[0]}")
|
|
||||||
|
|
||||||
# Шаг 6: Выбор необходимых столбцов (все уже включены)
|
# Шаг 6: Преобразование категориальных переменных с помощью One-Hot Encoding
|
||||||
# df уже содержит все необходимые столбцы
|
|
||||||
|
|
||||||
print("\nПример данных после предобработки:")
|
|
||||||
print(df.head())
|
|
||||||
|
|
||||||
# Шаг 7: Преобразование категориальных переменных с помощью One-Hot Encoding
|
|
||||||
categorical_features = ['brand', 'processor', 'os', 'gpu', 'display_type']
|
categorical_features = ['brand', 'processor', 'os', 'gpu', 'display_type']
|
||||||
df = pd.get_dummies(df, columns=categorical_features, drop_first=True)
|
df = pd.get_dummies(df, columns=categorical_features, drop_first=True)
|
||||||
print("\nИмена колонок после One-Hot Encoding:")
|
|
||||||
print(df.columns.tolist())
|
|
||||||
|
|
||||||
# Шаг 8: Разделение данных на обучающую и тестовую выборки
|
# Шаг 7: Разделение данных на X и y
|
||||||
X = df.drop('price', axis=1)
|
X = df.drop('price', axis=1)
|
||||||
y = df['price']
|
y = df['price']
|
||||||
|
|
||||||
X_train, X_test, y_train, y_test = train_test_split(
|
# Шаг 8: Создание полиномиальных и интерактивных признаков степени 2
|
||||||
X, y, test_size=0.2, random_state=42
|
poly = PolynomialFeatures(degree=2, interaction_only=True, include_bias=False)
|
||||||
)
|
X_poly = poly.fit_transform(X)
|
||||||
|
|
||||||
print(f"\nРазмер обучающей выборки: {X_train.shape}")
|
# Шаг 9: Масштабирование признаков
|
||||||
print(f"Размер тестовой выборки: {X_test.shape}")
|
scaler = StandardScaler()
|
||||||
|
X_poly_scaled = scaler.fit_transform(X_poly)
|
||||||
|
|
||||||
# Шаг 9: Обучение моделей
|
# Шаг 10: Разделение на обучающую и тестовую выборки
|
||||||
model_rf = RandomForestRegressor(n_estimators=100, random_state=42)
|
X_train, X_test, y_train, y_test = train_test_split(X_poly_scaled, y, test_size=0.5, random_state=42)
|
||||||
model_rf.fit(X_train, y_train)
|
|
||||||
|
|
||||||
print("\nМодели успешно обучены.")
|
# Шаг 11: Настройка гиперпараметров с использованием GridSearchCV
|
||||||
|
param_grid = {
|
||||||
# Шаг 10: Оценка моделей
|
'n_estimators': [100, 200],
|
||||||
models = {
|
'max_depth': [10, 20],
|
||||||
'Random Forest': model_rf,
|
'max_features': ['sqrt', 'log2', 0.5],
|
||||||
|
'min_samples_split': [5, 10],
|
||||||
|
'min_samples_leaf': [2, 4]
|
||||||
}
|
}
|
||||||
|
|
||||||
for name, mdl in models.items():
|
grid_search = GridSearchCV(RandomForestRegressor(random_state=42), param_grid, cv=3, scoring='neg_mean_absolute_error')
|
||||||
y_pred = mdl.predict(X_test)
|
grid_search.fit(X_train, y_train)
|
||||||
|
|
||||||
|
# Лучшая модель
|
||||||
|
best_model = grid_search.best_estimator_
|
||||||
|
|
||||||
|
# Шаг 12: Предсказания и оценка
|
||||||
|
y_pred = best_model.predict(X_test)
|
||||||
mae = mean_absolute_error(y_test, y_pred)
|
mae = mean_absolute_error(y_test, y_pred)
|
||||||
rmse = mean_squared_error(y_test, y_pred, squared=False)
|
rmse = mean_squared_error(y_test, y_pred, squared=False)
|
||||||
r2 = r2_score(y_test, y_pred)
|
r2 = r2_score(y_test, y_pred)
|
||||||
print(f"{name} - MAE: {mae}, RMSE: {rmse}, R²: {r2}")
|
print(f"Лучшие параметры: {grid_search.best_params_}")
|
||||||
|
print(f"Random Forest - MAE: {mae}, RMSE: {rmse}, R²: {r2}")
|
||||||
# Шаг 11: Сохранение модели и списка признаков
|
|
||||||
joblib.dump(model_rf, 'laptop_price_model.pkl')
|
|
||||||
print("\nМодель Random Forest сохранена как 'laptop_price_model.pkl'.")
|
|
||||||
|
|
||||||
|
# Шаг 13: Сохранение модели
|
||||||
feature_columns = X.columns.tolist()
|
feature_columns = X.columns.tolist()
|
||||||
joblib.dump(feature_columns, 'feature_columns.pkl')
|
joblib.dump(feature_columns, 'feature_columns.pkl')
|
||||||
print("Сохранены названия признаков в 'feature_columns.pkl'.")
|
joblib.dump(best_model, 'laptop_price_model.pkl')
|
||||||
|
joblib.dump(poly, 'poly_transformer.pkl')
|
||||||
|
joblib.dump(scaler, 'scaler.pkl')
|
||||||
|
print("Модель, трансформер и скейлер сохранены.")
|
||||||
|
|
||||||
# Получение важности признаков
|
# Шаг 14: Важность признаков
|
||||||
importances = model_rf.feature_importances_
|
# Количество признаков, которые нужно отобразить
|
||||||
|
top_n = 15
|
||||||
|
|
||||||
|
# Важность признаков
|
||||||
|
importances = best_model.feature_importances_
|
||||||
indices = np.argsort(importances)[::-1]
|
indices = np.argsort(importances)[::-1]
|
||||||
|
|
||||||
# Вывод наиболее важных признаков
|
# Отображаем только топ-N признаков
|
||||||
print("Важность признаков:")
|
top_indices = indices[:top_n]
|
||||||
for f in range(X_train.shape[1]):
|
top_importances = importances[top_indices]
|
||||||
print(f"{f + 1}. {feature_columns[indices[f]]} ({importances[indices[f]]})")
|
top_features = np.array(poly.get_feature_names_out())[top_indices]
|
||||||
|
|
||||||
# Визуализация важности признаков
|
# Построение графика
|
||||||
plt.figure(figsize=(12, 8))
|
plt.figure(figsize=(12, 8))
|
||||||
plt.title("Важность признаков (Random Forest)")
|
plt.title(f"Топ-{top_n} признаков по важности (Random Forest)")
|
||||||
plt.bar(range(X_train.shape[1]), importances[indices], align='center')
|
plt.bar(range(top_n), top_importances, align='center')
|
||||||
plt.xticks(range(X_train.shape[1]), [feature_columns[i] for i in indices], rotation=90)
|
plt.xticks(range(top_n), top_features, rotation=45, ha='right')
|
||||||
|
plt.xlabel("Признаки")
|
||||||
|
plt.ylabel("Важность")
|
||||||
plt.tight_layout()
|
plt.tight_layout()
|
||||||
plt.show()
|
plt.show()
|
@ -4,7 +4,7 @@ from typing import List, Dict
|
|||||||
from schemas.schemas import LaptopCreate, LaptopResponse, PredictPriceResponse
|
from schemas.schemas import LaptopCreate, LaptopResponse, PredictPriceResponse
|
||||||
|
|
||||||
class LaptopService:
|
class LaptopService:
|
||||||
def __init__(self, model_path: str, feature_columns_path: str):
|
def __init__(self, model_path: str, feature_columns_path: str, poly_path: str, scaler_path: str):
|
||||||
try:
|
try:
|
||||||
self.model = joblib.load(model_path)
|
self.model = joblib.load(model_path)
|
||||||
except FileNotFoundError:
|
except FileNotFoundError:
|
||||||
@ -19,6 +19,14 @@ class LaptopService:
|
|||||||
except Exception as e:
|
except Exception as e:
|
||||||
raise Exception(f"Error loading feature columns: {str(e)}")
|
raise Exception(f"Error loading feature columns: {str(e)}")
|
||||||
|
|
||||||
|
try:
|
||||||
|
self.poly_transformer = joblib.load(poly_path)
|
||||||
|
self.scaler = joblib.load(scaler_path)
|
||||||
|
except FileNotFoundError:
|
||||||
|
raise Exception("Polynomial transformer or scaler file not found.")
|
||||||
|
except Exception as e:
|
||||||
|
raise Exception(f"Error loading polynomial transformer or scaler: {str(e)}")
|
||||||
|
|
||||||
def predict_price(self, data: Dict[str, any]) -> PredictPriceResponse:
|
def predict_price(self, data: Dict[str, any]) -> PredictPriceResponse:
|
||||||
# Преобразование данных в DataFrame
|
# Преобразование данных в DataFrame
|
||||||
input_df = pd.DataFrame([data])
|
input_df = pd.DataFrame([data])
|
||||||
@ -26,15 +34,21 @@ class LaptopService:
|
|||||||
# Применение One-Hot Encoding к категориальным признакам
|
# Применение One-Hot Encoding к категориальным признакам
|
||||||
input_df = pd.get_dummies(input_df, columns=['processor', 'os'], drop_first=True)
|
input_df = pd.get_dummies(input_df, columns=['processor', 'os'], drop_first=True)
|
||||||
|
|
||||||
# Добавление отсутствующих признаков, если они есть
|
# Добавление отсутствующих признаков
|
||||||
for col in self.feature_columns:
|
for col in self.feature_columns:
|
||||||
if col not in input_df.columns and col != 'price':
|
if col not in input_df.columns and col != 'price':
|
||||||
input_df[col] = 0
|
input_df[col] = 0
|
||||||
|
|
||||||
# Упорядочивание колонок согласно обучающей выборке
|
# Упорядочивание колонок
|
||||||
input_df = input_df[self.feature_columns]
|
input_df = input_df[self.feature_columns]
|
||||||
|
|
||||||
|
# Преобразование с использованием PolynomialFeatures
|
||||||
|
input_poly = self.poly_transformer.transform(input_df)
|
||||||
|
|
||||||
|
# Масштабирование данных
|
||||||
|
input_scaled = self.scaler.transform(input_poly)
|
||||||
|
|
||||||
# Предсказание цены
|
# Предсказание цены
|
||||||
predicted_price = self.model.predict(input_df)[0]
|
predicted_price = self.model.predict(input_scaled)[0]
|
||||||
|
|
||||||
return PredictPriceResponse(predicted_price=round(predicted_price, 2))
|
return PredictPriceResponse(predicted_price=round(predicted_price, 2))
|
||||||
|
Loading…
Reference in New Issue
Block a user