diff --git a/romanova_adelina_lab_5/README.md b/romanova_adelina_lab_5/README.md new file mode 100644 index 0000000..6368931 --- /dev/null +++ b/romanova_adelina_lab_5/README.md @@ -0,0 +1,33 @@ +# Лабораторная работа 5. Параллельное умножение матриц + +## Задание + +Требуется сделать два алгоритма: обычный и параллельный. В параллельном алгоритме предусмотреть ручное задание количества потоков, каждый из которых будет выполнять умножение элементов матрицы в рамках своей зоны ответственности. + +### Запуск программы + +Для запуска программы необходимо с помощью командной строки в корневой директории файлов прокета прописать: +``` +python main.py +``` + +### Описание работы программы + +Метод ```benchmark``` выполняет бенчмарк для матриц заданного размера. + +Далее генерируются две матрицы ```matrix1``` и ```matrix2``` заданного размера. + +После этого вызываются соответствующие методы для вычисления произведения матриц: ```multiply_matrices``` для обычного умножения и ```multiply_matrices_parallel``` для параллельного умножения. + +Измеряется время выполнения каждого из методов с использованием функции ```time.time()```. + +### Результат работы программы: + +![](result.png "") + +#### Вывод + +Параллельное выполнение матричного умножения имеет смысл применять при работе с крупными матрицами, где выигрыш от параллельных вычислений компенсирует затраты на управление потоками. Для небольших матриц может быть эффективнее использовать обычное выполнение + +# Youtube +https://youtu.be/kX6FrGL9DP0 \ No newline at end of file diff --git a/romanova_adelina_lab_5/main.py b/romanova_adelina_lab_5/main.py new file mode 100644 index 0000000..e621c71 --- /dev/null +++ b/romanova_adelina_lab_5/main.py @@ -0,0 +1,48 @@ +import numpy as np +import time +import concurrent.futures + +def multiply_matrices(matrix1, matrix2): + return np.dot(matrix1, matrix2) + +def multiply_matrices_parallel(matrix1, matrix2, num_threads): + result = np.zeros_like(matrix1) + chunk_size = matrix1.shape[0] // num_threads + + def multiply_chunk(start, end): + nonlocal result + for i in range(start, end): + result[i] = np.dot(matrix1[i], matrix2) + + with concurrent.futures.ThreadPoolExecutor(max_workers=num_threads) as executor: + futures = [] + for i in range(0, matrix1.shape[0], chunk_size): + futures.append(executor.submit(multiply_chunk, i, i + chunk_size)) + + for future in concurrent.futures.as_completed(futures): + future.result() + + return result + +def benchmark(matrix_size, num_threads=1): + # Генерация матриц + matrix1 = np.random.rand(matrix_size, matrix_size) + matrix2 = np.random.rand(matrix_size, matrix_size) + + # Бенчмарк для обычного умножения + start_time = time.time() + result = multiply_matrices(matrix1, matrix2) + end_time = time.time() + print(f"Размер матрицы {matrix_size}x{matrix_size}") + print(f"Время при обычном выполнении: {end_time - start_time} секунд") + + # Бенчмарк для параллельного умножения + start_time = time.time() + result_parallel = multiply_matrices_parallel(matrix1, matrix2, num_threads) + end_time = time.time() + print(f"Время при параллельном выполнении ({num_threads} потоков): {end_time - start_time} секунд\n") + +# Запуск бенчмарков +benchmark(100) +benchmark(300) +benchmark(500) diff --git a/romanova_adelina_lab_5/result.png b/romanova_adelina_lab_5/result.png new file mode 100644 index 0000000..938e8a1 Binary files /dev/null and b/romanova_adelina_lab_5/result.png differ