# 12 вариант
# Данные: make_classification (n_samples=500, n_features=2, n_redundant=0,
#         n_informative=2, random_state=rs, n_clusters_per_class=1)
# Модели:
# -- Линейную регрессию
# -- Персептрон
# -- Гребневую полиномиальную регрессию (со степенью 4, alpha = 1.0)

import numpy as np
from sklearn.datasets import make_classification
from sklearn.linear_model import LinearRegression, Perceptron, Ridge
from sklearn.model_selection import train_test_split
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import PolynomialFeatures
from matplotlib import pyplot as plt
from matplotlib.colors import ListedColormap



cm_bright_1 = ListedColormap(['#7FFFD4', '#00FFFF'])
cm_bright_2 = ListedColormap(['#FF69B4', '#FF1493'])

def main():
    X, y = make_classification(
        n_samples=500,
        n_features=2,
        n_redundant=0,
        n_informative=2,
        random_state=0,
        n_clusters_per_class=1)
    rng = np.random.RandomState(2)
    X += 2 * rng.uniform(size=X.shape)
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=10, random_state=40)

    # модели на основе сгенерированных данных
    my_linear_regression(X_train, X_test, y_train, y_test)
    my_perceptron(X_train, X_test, y_train, y_test)
    my_poly_ridge(X_train, X_test, y_train, y_test)


# Линейная регрессия
def my_linear_regression(X_train, X_test, y_train, y_test):
    lin_reg_model = LinearRegression()  # создание модели регрессии
    lin_reg_model.fit(X_train, y_train)  # обучение
    y_pred = lin_reg_model.predict(X_test)  # предсказание по тестовым даннным

    # вывод в консоль
    print()
    print('===> Линейная регрессия <===')
    print('Оценка точности: ', lin_reg_model.score(X_train, y_train))

    # вывод в график
    plt.title('Линейная регрессия')
    plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright_1)
    plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright_2, alpha=0.8)
    plt.plot(X_test, y_pred, color='red', linewidth=1)
    plt.savefig('1_linear_regression.png')
    plt.show()


# Персептрон
def my_perceptron(X_train, X_test, y_train, y_test):
    perceptron_model = Perceptron()
    perceptron_model.fit(X_train, y_train)
    y_pred = perceptron_model.predict(X_test)

    # вывод в консоль
    print()
    print('===> Персептрон <===')
    print('Оценка точности: ', perceptron_model.score(X_train, y_train))

    # вывод в график
    plt.title('Персептрон')
    plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright_1)
    plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright_2, alpha=0.8)
    plt.plot(X_test, y_pred, color='red', linewidth=1)
    plt.savefig('2_perceptron.png')
    plt.show()


# Гребневая полиномиальная регрессия (степень=4, alpha=1.0)
def my_poly_ridge(X_train, X_test, y_train, y_test):
    poly_rige_model = make_pipeline(PolynomialFeatures(degree=4), Ridge(alpha=1.0))
    poly_rige_model.fit(X_train, y_train)
    y_pred = poly_rige_model.predict(X_test)

    # вывод в консоль
    print()
    print('===> Гребневая полиномиальная регрессия <===')
    print('Оценка точности: ', poly_rige_model.score(X_train, y_train))

    # вывод в график
    plt.title('Гребневая полиномиальная регрессия')
    plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright_1)
    plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright_2, alpha=0.8)
    plt.plot(X_test, y_pred, color='red', linewidth=1)
    plt.savefig('3_poly_ridge.png')
    plt.show()


main()