romanova_adelina_lab_5_ready #130
33
romanova_adelina_lab_5/README.md
Normal file
33
romanova_adelina_lab_5/README.md
Normal file
@ -0,0 +1,33 @@
|
||||
# Лабораторная работа 5. Параллельное умножение матриц
|
||||
|
||||
## Задание
|
||||
|
||||
Требуется сделать два алгоритма: обычный и параллельный. В параллельном алгоритме предусмотреть ручное задание количества потоков, каждый из которых будет выполнять умножение элементов матрицы в рамках своей зоны ответственности.
|
||||
|
||||
### Запуск программы
|
||||
|
||||
Для запуска программы необходимо с помощью командной строки в корневой директории файлов прокета прописать:
|
||||
```
|
||||
python main.py
|
||||
```
|
||||
|
||||
### Описание работы программы
|
||||
|
||||
Метод ```benchmark``` выполняет бенчмарк для матриц заданного размера.
|
||||
|
||||
Далее генерируются две матрицы ```matrix1``` и ```matrix2``` заданного размера.
|
||||
|
||||
После этого вызываются соответствующие методы для вычисления произведения матриц: ```multiply_matrices``` для обычного умножения и ```multiply_matrices_parallel``` для параллельного умножения.
|
||||
|
||||
Измеряется время выполнения каждого из методов с использованием функции ```time.time()```.
|
||||
|
||||
### Результат работы программы:
|
||||
|
||||
![](result.png "")
|
||||
|
||||
#### Вывод
|
||||
|
||||
Параллельное выполнение матричного умножения имеет смысл применять при работе с крупными матрицами, где выигрыш от параллельных вычислений компенсирует затраты на управление потоками. Для небольших матриц может быть эффективнее использовать обычное выполнение
|
||||
|
||||
# Youtube
|
||||
https://youtu.be/kX6FrGL9DP0
|
48
romanova_adelina_lab_5/main.py
Normal file
48
romanova_adelina_lab_5/main.py
Normal file
@ -0,0 +1,48 @@
|
||||
import numpy as np
|
||||
import time
|
||||
import concurrent.futures
|
||||
|
||||
def multiply_matrices(matrix1, matrix2):
|
||||
return np.dot(matrix1, matrix2)
|
||||
|
||||
def multiply_matrices_parallel(matrix1, matrix2, num_threads):
|
||||
result = np.zeros_like(matrix1)
|
||||
chunk_size = matrix1.shape[0] // num_threads
|
||||
|
||||
def multiply_chunk(start, end):
|
||||
nonlocal result
|
||||
for i in range(start, end):
|
||||
result[i] = np.dot(matrix1[i], matrix2)
|
||||
|
||||
with concurrent.futures.ThreadPoolExecutor(max_workers=num_threads) as executor:
|
||||
futures = []
|
||||
for i in range(0, matrix1.shape[0], chunk_size):
|
||||
futures.append(executor.submit(multiply_chunk, i, i + chunk_size))
|
||||
|
||||
for future in concurrent.futures.as_completed(futures):
|
||||
future.result()
|
||||
|
||||
return result
|
||||
|
||||
def benchmark(matrix_size, num_threads=1):
|
||||
# Генерация матриц
|
||||
matrix1 = np.random.rand(matrix_size, matrix_size)
|
||||
matrix2 = np.random.rand(matrix_size, matrix_size)
|
||||
|
||||
# Бенчмарк для обычного умножения
|
||||
start_time = time.time()
|
||||
result = multiply_matrices(matrix1, matrix2)
|
||||
end_time = time.time()
|
||||
print(f"Размер матрицы {matrix_size}x{matrix_size}")
|
||||
print(f"Время при обычном выполнении: {end_time - start_time} секунд")
|
||||
|
||||
# Бенчмарк для параллельного умножения
|
||||
start_time = time.time()
|
||||
result_parallel = multiply_matrices_parallel(matrix1, matrix2, num_threads)
|
||||
end_time = time.time()
|
||||
print(f"Время при параллельном выполнении ({num_threads} потоков): {end_time - start_time} секунд\n")
|
||||
|
||||
# Запуск бенчмарков
|
||||
benchmark(100)
|
||||
benchmark(300)
|
||||
benchmark(500)
|
BIN
romanova_adelina_lab_5/result.png
Normal file
BIN
romanova_adelina_lab_5/result.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 21 KiB |
Loading…
Reference in New Issue
Block a user