2.7 MiB
Лабораторная работа №5¶
Вариант задания:
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from scipy.cluster.hierarchy import dendrogram, linkage, fcluster
from sklearn.cluster import KMeans
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import silhouette_score
df = pd.read_csv("../../datasets/nuforc_reports.csv")
df = df.iloc[:1000].dropna()
print(df.columns)
df.head()
df.describe()
# Процент пропущенных значений признаков
for i in df.columns:
null_rate = df[i].isnull().sum() / len(df) * 100
if null_rate > 0:
print(f'{i} Процент пустых значений: %{null_rate:.2f}')
print(df.isnull().sum())
print(df.isnull().any())
# Проверка типов столбцов
df.dtypes
Атрибуты¶
Атрибуты и их описание¶
city
(object)
- Описание: Город, где произошло наблюдение.
- Применение: Географическая группировка или создание карт по популярности наблюдений в различных городах.
state
(object)
- Описание: Штат, где произошло наблюдение.
- Применение: Анализ распределения по штатам, создание региональных кластеров наблюдений.
city_latitude
(float64)
- Описание: Географическая широта города наблюдения.
- Применение: Географический анализ и кластеризация наблюдений.
city_longitude
(float64)
- Описание: Географическая долгота города наблюдения.
- Применение: Географический анализ и визуализация наблюдений на карте.
Бизнес-цель:¶
**Выявление географических кластеров активности наблюдений НЛО для исследования и стратегического планирования.
Описание цели:¶
Разделить географические области (широты) на кластеры, чтобы определить зоны с разной интенсивностью наблюдений.
Потенциальное применение:¶
- Научные организации могут использовать результаты для анализа феноменов НЛО.
- Туристические компании могут разработать маршруты в популярные зоны наблюдений.
- СМИ и исследовательские проекты могут строить прогнозы о возможных местах будущих наблюдений.
Очистка данных¶
Цель: Упростить набор данных, удалив несущественные столбцы, чтобы сосредоточиться на ключевых атрибутах, которые будут использоваться для кластеризации и анализа.
Столбцы (такието) несущественны для анализа, они не содержат ценной информации для решения задачи.
# Удаление несущественных столбцов
columns_to_drop = [ "summary", "stats", "report_link", "duration", "text"] # Столбцы, которые можно удалить
#"date_time", "posted", "city", "state",
df_cleaned = df.drop(columns=columns_to_drop)
print(df_cleaned.head()) # Вывод очищенного DataFrame
Визуализация парных взаимосвязей¶
Визуализировать ключевые атрибуты миллиардеров для выявления закономерностей и связей между ними.
import seaborn as sns
import matplotlib.pyplot as plt
# Настройка стиля графиков
sns.set(style="whitegrid")
# Создание фигуры
plt.figure(figsize=(16, 45))
# График 1: Категория vs Цена
plt.subplot(4, 1, 1)
sns.scatterplot(x=df_cleaned['state'], y=df_cleaned['city_latitude'], alpha=0.6, color='blue')
plt.title('state vs city_latitude')
plt.xlabel('state')
plt.ylabel('city_latitude')
plt.xticks(rotation=90)
# График 2: Подкатегория vs Цена
plt.subplot(4, 1, 2)
sns.boxplot(x=df_cleaned['city'], y=df_cleaned['city_latitude'], color='green')
plt.title('city vs city_latitude')
plt.xlabel('city')
plt.ylabel('city_latitude')
plt.xticks(rotation=90)
# График 3: Категория vs Подкатегория
plt.subplot(4, 1, 3)
sns.countplot(x=df_cleaned['city'], hue=df_cleaned['state'], palette='Set3')
plt.title('state vs city')
plt.xlabel('state')
plt.ylabel('Count')
plt.xticks(rotation=90)
# Упорядочиваем графики
plt.tight_layout()
plt.show()
Стандартизация данных для кластеризации¶
from sklearn.preprocessing import OneHotEncoder, StandardScaler
import pandas as pd
# Выделяем числовые и категориальные признаки
numerical_cols = ['city_latitude']
categorical_cols = ['state', 'city']
# Масштабирование числовых признаков
scaler = StandardScaler()
df_numerical_scaled = scaler.fit_transform(df_cleaned[numerical_cols])
# Кодирование категориальных признаков с помощью OneHotEncoder
encoder = OneHotEncoder(handle_unknown='ignore', sparse_output=False) # sparse=False для удобства
encoded_data = encoder.fit_transform(df_cleaned[categorical_cols])
# Создаем новые столбцы для закодированных категориальных признаков
encoded_df = pd.DataFrame(encoded_data, columns=encoder.get_feature_names_out(categorical_cols))
# Объединяем числовые и закодированные категориальные данные
df_encoded = pd.concat([pd.DataFrame(df_numerical_scaled, columns=numerical_cols), encoded_df], axis=1)
# Выводим результат
print(df_encoded.head())
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt
# Применение PCA ТОЛЬКО к числовым данным
pca = PCA(n_components=1)
kc_pca = pca.fit_transform(df_numerical_scaled)
# Визуализация
plt.figure(figsize=(16, 12))
plt.scatter(range(len(kc_pca)), kc_pca, alpha=0.6)
plt.title("PCA Visualization of city_latitude Feature")
plt.xlabel("Sample Index")
plt.ylabel("Principal Component 1")
plt.show()
Агломеративная (иерархическая) кластеризация¶
# Построение дендрограммы (только для числовых данных)
linkage_matrix = linkage(df_numerical_scaled, method='ward')
plt.figure(figsize=(16, 12))
dendrogram(linkage_matrix)
plt.title('Дендрограмма агломеративной кластеризации (числовой признак "city_latitude")')
plt.xlabel('Индекс образца')
plt.ylabel('Расстояние')
plt.show()
# Получение результатов кластеризации (только для числовых данных)
result = fcluster(linkage_matrix, t=100, criterion='distance')
print(result) # Вывод результатов кластеризации (номера кластеров для каждого образца)
# Выбираем подмножество данных для кластеризации
features = df_encoded[['city_latitude']]
# Масштабирование числовых признаков
scaled_features = scaler.fit_transform(features)
# Построение дендрограммы
linkage_matrix = linkage(scaled_features, method='ward')
plt.figure(figsize=(12, 8))
dendrogram(linkage_matrix, labels=df.index, leaf_rotation=90, leaf_font_size=10)
plt.title('Иерархическая кластеризация (дендрограмма) по цене')
plt.xlabel('Индекс товара')
plt.ylabel('Евклидово расстояние')
plt.tight_layout()
plt.show()
Визуализация распределения кластеров
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
import seaborn as sns
import matplotlib.pyplot as plt
# Закодирование категориальных переменных
df_encoded = pd.get_dummies(df_cleaned, drop_first=True)
# Выбор подмножества данных для кластеризации
features = df_encoded[['city_latitude']]
# Масштабирование данных
scaler = StandardScaler()
scaled_features = scaler.fit_transform(features)
# Кластеризация данных
kmeans = KMeans(n_clusters=3)
df_encoded['Cluster'] = kmeans.fit_predict(scaled_features)
# Визуализация кластеров
plt.figure(figsize=(25, 30))
# Парный график 1: city_latitude vs state
state_columns = [col for col in df_encoded.columns if col.startswith('state_')]
if state_columns:
plt.subplot(4, 1, 1)
sns.scatterplot(x=df_encoded['city_latitude'], y=df_encoded[state_columns[0]], hue=df_encoded['Cluster'], palette='Set1', alpha=0.6)
plt.title('city_latitude vs state Clusters')
plt.xlabel('city_latitude')
plt.ylabel(f'state ({state_columns[0]})')
else:
plt.subplot(4, 1, 1)
plt.text(0.5, 0.5, 'No state columns found', ha='center', va='center', fontsize=12)
plt.title('city_latitude vs state Clusters')
# Парный график 2: city_latitude vs city
city_columns = [col for col in df_encoded.columns if col.startswith('city_')]
if city_columns:
plt.subplot(4, 1, 2)
sns.scatterplot(x=df_encoded['city_latitude'], y=df_encoded[city_columns[0]], hue=df_encoded['Cluster'], palette='Set1', alpha=0.6)
plt.title('city_latitude vs city Clusters')
plt.xlabel('city_latitude')
plt.ylabel(f'city ({city_columns[0]})')
else:
plt.subplot(4, 1, 2)
plt.text(0.5, 0.5, 'No city columns found', ha='center', va='center', fontsize=12)
plt.title('city_latitude vs city Clusters')
# Парный график 3: city_latitude vs state (другая категория)
if len(state_columns) > 1:
plt.subplot(4, 1, 3)
sns.scatterplot(x=df_encoded['city_latitude'], y=df_encoded[state_columns[1]], hue=df_encoded['Cluster'], palette='Set1', alpha=0.6)
plt.title('city_latitude vs state Clusters')
plt.xlabel('city_latitude')
plt.ylabel(f'state ({state_columns[1]})')
else:
plt.subplot(4, 1, 3)
plt.text(0.5, 0.5, 'Not enough state columns found', ha='center', va='center', fontsize=12)
plt.title('city_latitude vs state Clusters')
# Парный график 4: city_latitude vs city (другая подкатегория)
if len(city_columns) > 1:
plt.subplot(4, 1, 4)
sns.scatterplot(x=df_encoded['city_latitude'], y=df_encoded[city_columns[1]], hue=df_encoded['Cluster'], palette='Set1', alpha=0.6)
plt.title('city_latitude vs city Clusters')
plt.xlabel('city_latitude')
plt.ylabel(f'city ({city_columns[1]})')
else:
plt.subplot(4, 1, 4)
plt.text(0.5, 0.5, 'Not enough city columns found', ha='center', va='center', fontsize=12)
plt.title('city_latitude vs city Clusters')
# Настройка графиков
plt.tight_layout()
plt.show()
KMeans (неиерархическая кластеризация) для сравнения¶
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
import seaborn as sns
import matplotlib.pyplot as plt
# Загрузка данных
df = pd.read_csv("../../datasets/nuforc_reports.csv")
df = df.iloc[:1000].dropna()
# Удаление несущественных столбцов
columns_to_drop = ['summary', 'stats', 'report_link', 'posted', "duration"]
df_cleaned = df.drop(columns=columns_to_drop)
# Закодирование категориальных переменных
df_encoded = pd.get_dummies(df_cleaned, drop_first=True)
# Выбор подмножества данных для кластеризации
features_used = ['city_latitude']
data_to_scale = df_encoded[features_used]
# Масштабирование данных
scaler = StandardScaler()
data_scaled = scaler.fit_transform(data_to_scale)
# Кластеризация данных
random_state = 42
kmeans = KMeans(n_clusters=4, random_state=random_state)
labels = kmeans.fit_predict(data_scaled)
centers = kmeans.cluster_centers_
# Отображение центроидов
centers_original = scaler.inverse_transform(centers) # Обратная стандартизация
print("Центры кластеров:\n", centers_original)
# Визуализация результатов кластеризации KMeans
plt.figure(figsize=(16, 12))
# Парный график 1: city_latitude vs state
plt.subplot(2, 2, 1)
state_columns = [col for col in df_encoded.columns if col.startswith('state_')]
if state_columns:
sns.scatterplot(x=df_cleaned['city_latitude'], y=df_encoded[state_columns[0]], hue=labels, palette='Set1', alpha=0.6)
plt.title('KMeans Clustering: city_latitude vs state')
plt.xlabel('city_latitude')
plt.ylabel(f'state ({state_columns[0]})')
else:
plt.title('KMeans Clustering: city_latitude vs state (No Data)')
plt.xlabel('city_latitude')
plt.ylabel('state')
# Парный график 2: city_latitude vs city
plt.subplot(2, 2, 2)
city_columns = [col for col in df_encoded.columns if col.startswith('city_')]
if city_columns:
sns.scatterplot(x=df_cleaned['city_latitude'], y=df_encoded[city_columns[0]], hue=labels, palette='Set1', alpha=0.6)
plt.title('KMeans Clustering: city_latitude vs city')
plt.xlabel('city_latitude')
plt.ylabel(f'city ({city_columns[0]})')
else:
plt.title('KMeans Clustering: city_latitude vs city (No Data)')
plt.xlabel('city_latitude')
plt.ylabel('city')
# Парный график 3: city_latitude vs state (другая категория)
plt.subplot(2, 2, 3)
if len(state_columns) > 1:
sns.scatterplot(x=df_cleaned['city_latitude'], y=df_encoded[state_columns[1]], hue=labels, palette='Set1', alpha=0.6)
plt.title('KMeans Clustering: city_latitude vs state')
plt.xlabel('city_latitude')
plt.ylabel(f'state ({state_columns[1]})')
else:
plt.title('KMeans Clustering: city_latitude vs state (No Data)')
plt.xlabel('city_latitude')
plt.ylabel('state')
# Парный график 4: city_latitude vs city (другая подкатегория)
plt.subplot(2, 2, 4)
if len(city_columns) > 1:
sns.scatterplot(x=df_cleaned['city_latitude'], y=df_encoded[city_columns[1]], hue=labels, palette='Set1', alpha=0.6)
plt.title('KMeans Clustering: city_latitude vs city')
plt.xlabel('city_latitude')
plt.ylabel(f'city ({city_columns[1]})')
else:
plt.title('KMeans Clustering: city_latitude vs city (No Data)')
plt.xlabel('city_latitude')
plt.ylabel('city')
# Настройка графиков
plt.tight_layout()
plt.show()
PCA для визуализации сокращенной размерности¶
# Применение PCA ТОЛЬКО к числовым данным
pca = PCA(n_components=1)
reduced_data = pca.fit_transform(data_scaled)
# Визуализация сокращенных данных
plt.figure(figsize=(16, 6))
# График 1: PCA reduced data: Agglomerative Clustering
plt.subplot(1, 2, 1)
sns.scatterplot(x=range(len(reduced_data)), y=reduced_data[:, 0], hue=result, palette='Set1', alpha=0.6)
plt.title('PCA reduced data: Agglomerative Clustering')
plt.xlabel('Sample Index')
plt.ylabel('Principal Component 1')
# График 2: PCA reduced data: KMeans Clustering
plt.subplot(1, 2, 2)
sns.scatterplot(x=range(len(reduced_data)), y=reduced_data[:, 0], hue=labels, palette='Set1', alpha=0.6)
plt.title('PCA reduced data: KMeans Clustering')
plt.xlabel('Sample Index')
plt.ylabel('Principal Component 1')
plt.tight_layout()
plt.show()
Анализ инерции для метода локтя (метод оценки суммы квадратов расстояний)¶
# Список для хранения инерций
inertias = []
clusters_range = range(1, 11)
# Вычисление инерции для каждого количества кластеров
for i in clusters_range:
kmeans = KMeans(n_clusters=i, random_state=random_state)
kmeans.fit(data_scaled)
inertias.append(kmeans.inertia_)
# Визуализация метода локтя
plt.figure(figsize=(10, 6))
plt.plot(clusters_range, inertias, marker='o')
plt.title('Метод локтя для оптимального k')
plt.xlabel('Количество кластеров')
plt.ylabel('Инерция')
plt.grid(True)
plt.show()
Расчет коэффициентов силуэта¶
# Список для хранения коэффициентов силуэта
silhouette_scores = []
# Вычисление коэффициентов силуэта для каждого количества кластеров
for i in clusters_range[1:]:
kmeans = KMeans(n_clusters=i, random_state=random_state)
labels = kmeans.fit_predict(data_scaled)
score = silhouette_score(data_scaled, labels)
silhouette_scores.append(score)
# Построение диаграммы значений силуэта
plt.figure(figsize=(10, 6))
plt.plot(clusters_range[1:], silhouette_scores, marker='o')
plt.title('Коэффициенты силуэта для разных k')
plt.xlabel('Количество кластеров')
plt.ylabel('Коэффициент силуэта')
plt.grid(True)
plt.show()
# Добавляем индекс строки как дополнительный признак
data_scaled_with_index = np.hstack((data_scaled, np.arange(data_scaled.shape[0]).reshape(-1, 1)))
# ========================
# Применение K-Means
# ========================
kmeans = KMeans(n_clusters=3, random_state=42)
df_clusters = kmeans.fit_predict(data_scaled)
# ========================
# Оценка качества кластеризации
# ========================
silhouette_avg = silhouette_score(data_scaled, df_clusters)
print(f'Средний коэффициент силуэта: {silhouette_avg:.3f}')
# ========================
# Визуализация кластеров
# ========================
pca = PCA(n_components=2)
df_pca = pca.fit_transform(data_scaled_with_index)
plt.figure(figsize=(10, 7))
sns.scatterplot(x=df_pca[:, 0], y=df_pca[:, 1], hue=df_clusters, palette='viridis', alpha=0.7)
plt.title('Визуализация кластеров с помощью K-Means')
plt.xlabel('Первая компонента PCA')
plt.ylabel('Вторая компонента PCA')
plt.legend(title='Кластер', loc='upper right')
plt.show()
Средний коэффициент силуэта, равный 0.544, указывает на хорошую кластеризацию.
Средний коэффициент силуэта (silhouette score) указывает на качество кластеризации, измеряя, насколько хорошо точки внутри одного кластера близки друг к другу по сравнению с точками из других кластеров. Значения коэффициента силуэта находятся в диапазоне от -1 до 1:
1: Указывает на идеально плотные и четко разделенные кластеры.
0: Указывает на перекрытие кластеров или слабую структуру кластеризации.
Отрицательные значения: Указывают, что точки в кластере расположены ближе к другому кластеру, чем к своему.
from sklearn.cluster import AgglomerativeClustering
# Добавляем индекс строки как дополнительный признак
data_scaled_with_index = np.hstack((data_scaled, np.arange(data_scaled.shape[0]).reshape(-1, 1)))
# ========================
# Агломеративная кластеризация
# ========================
agg_cluster = AgglomerativeClustering(n_clusters=3)
labels_agg = agg_cluster.fit_predict(data_scaled)
# ========================
# Оценка качества кластеризации
# ========================
silhouette_avg_agg = silhouette_score(data_scaled, labels_agg)
print(f'Средний коэффициент силуэта (агломеративная кластеризация): {silhouette_avg_agg:.3f}')
# ========================
# Визуализация кластеров
# ========================
pca = PCA(n_components=2)
df_pca = pca.fit_transform(data_scaled_with_index)
plt.figure(figsize=(10, 7))
sns.scatterplot(x=df_pca[:, 0], y=df_pca[:, 1], hue=labels_agg, palette='viridis', alpha=0.7)
plt.title('Визуализация кластеров с помощью агломеративной кластеризации')
plt.xlabel('Первая компонента PCA')
plt.ylabel('Вторая компонента PCA')
plt.legend(title='Кластер', loc='upper right')
plt.show()
Значение коэффициента силуэта лежит в диапазоне от -1 до 1. Ближе к 1: Хорошо сформированные, плотные кластеры, четко отделенные друг от друга.
Ближе к 0: Кластеры пересекаются или слабо разделены, не имеют четких границ. Точки расположены одинаково близко как к своему кластеру, так и к соседним.
Ближе к -1 (Отрицательные значения): Некоторые точки скорее относятся к другим кластерам, чем к текущему (ближе к центрам других кластеров). Очень плохая кластеризация.
Ближе к 1: Все точки внутри каждого кластера плотно сгруппированы и значительно удалены от точек других кластеров. Свидетельствует о четкой и хорошо разделенной структуре данных. Единица говорит об идеальной кластеризации.
Средний коэффициент силуэта, равный 0.542, указывает на то, что кластеры имеют хорошее разделение и четкие границы. Точки внутри каждого кластера достаточно плотно сгруппированы и значительно удалены от точек других кластеров, что свидетельствует о четкой и хорошо разделенной структуре данных.