2024-12-14 02:58:05 +04:00
2024-11-20 15:52:50 +04:00
2024-12-09 23:56:12 +04:00
2024-12-12 22:44:53 +04:00
2024-12-16 22:52:27 +04:00
2024-12-17 23:20:50 +04:00
2024-12-19 00:05:13 +04:00
2024-12-19 00:09:30 +04:00
2024-12-17 22:32:25 +04:00
2024-10-26 14:46:33 +04:00
2024-10-26 14:46:33 +04:00
2024-10-26 17:51:52 +04:00
2024-10-28 22:27:53 +04:00
2024-11-29 00:23:15 +04:00
2024-11-29 00:24:45 +04:00
2024-10-23 18:36:31 +04:00
2024-11-11 12:42:11 +04:00
2024-11-11 13:04:46 +04:00
2024-11-11 13:41:38 +04:00
2024-11-24 18:41:58 +04:00
2024-11-25 02:23:32 +04:00
2024-12-20 11:48:14 +03:00
2024-12-20 11:50:51 +03:00
2024-09-17 22:46:46 +04:00
2024-10-19 12:28:06 +04:00
+
2024-10-19 14:18:21 +04:00
2024-10-19 18:03:24 +04:00
2024-12-15 01:08:36 +04:00
2024-12-15 01:24:02 +04:00
2024-12-15 01:36:56 +04:00
2024-12-15 02:13:35 +04:00
2024-12-17 02:07:41 +04:00
2024-10-21 02:36:18 +04:00
2024-10-24 20:07:47 +04:00
2024-10-25 01:10:46 +04:00
2024-10-27 01:53:34 +04:00
2024-10-27 02:16:28 +04:00
2024-11-12 22:55:00 +04:00
2024-11-12 22:59:57 +04:00
2024-11-08 21:31:13 +04:00
2024-11-08 01:04:56 +04:00
2024-11-08 21:34:45 +04:00
2024-11-26 19:13:56 +04:00
2024-12-23 16:17:40 +04:00
2024-12-23 18:08:28 +04:00
2024-09-21 16:19:03 +04:00
2024-10-27 19:09:16 +04:00
2024-10-27 19:42:27 +04:00
2024-10-27 20:01:01 +04:00
2024-10-27 20:11:39 +04:00
2024-10-27 20:19:04 +04:00
fix
2024-12-20 18:51:22 +04:00
2024-09-22 22:14:00 +03:00
2024-10-14 16:27:36 +04:00
2024-11-04 02:01:55 +04:00
2024-11-05 22:41:01 +04:00
2024-11-08 01:13:53 +04:00
2024-11-10 02:24:30 +04:00
2024-11-10 21:01:36 +04:00
.
2024-12-15 16:42:26 +04:00
.
2024-12-15 16:56:11 +04:00
.
2024-12-15 17:11:29 +04:00
.
2024-12-15 17:19:53 +04:00
.
2024-12-15 03:37:34 +04:00
.
2024-12-15 17:29:59 +04:00
.
2024-12-15 17:33:14 +04:00
.
2024-12-15 17:35:32 +04:00
2024-11-06 02:59:28 +04:00
2024-12-10 19:37:07 +04:00
2024-12-10 20:14:57 +04:00
2024-09-22 18:06:51 +04:00
2024-10-10 18:52:01 +04:00
2024-11-01 19:10:39 +04:00
2024-11-01 21:02:03 +04:00
2024-11-02 18:57:36 +04:00
2024-11-18 18:50:31 +04:00
2024-11-18 18:56:40 +04:00
2024-11-18 19:07:56 +04:00
2024-11-16 23:47:02 +03:00
2024-12-02 23:57:46 +04:00
2024-12-05 16:44:57 +04:00
2024-12-05 17:40:44 +04:00
2024-10-20 21:59:10 +04:00
2024-10-25 14:10:33 +04:00
2024-11-15 11:50:03 +04:00
2024-11-17 19:09:56 +04:00
2024-11-18 10:50:25 +04:00
2024-11-18 14:20:48 +04:00
2024-11-18 15:39:05 +04:00
2024-10-03 16:17:37 +04:00
2024-10-14 16:09:46 +04:00
2024-10-25 21:03:05 +04:00
2024-11-08 14:45:23 +04:00
2024-11-08 16:19:50 +04:00
2024-11-10 20:59:28 +04:00
2024-10-01 19:42:31 +04:00
2024-10-11 19:32:26 +04:00
2024-10-21 21:17:41 +04:00
2024-10-21 21:21:28 +04:00
2024-09-24 14:53:05 +04:00
2024-10-08 16:56:07 +04:00
2024-10-21 14:35:40 +04:00
fix
2024-10-26 20:04:39 +04:00
fix
2024-10-27 14:06:02 +04:00
2024-09-19 02:08:16 +04:00
2024-09-21 16:15:48 +04:00
2024-10-05 21:14:57 +03:00
2024-10-09 17:12:11 +03:00
2024-10-22 18:23:30 +03:00
2024-10-22 19:31:03 +03:00
2024-10-22 20:19:09 +03:00
2024-10-22 20:52:00 +03:00
2024-12-15 15:49:09 +04:00
2024-09-11 21:22:59 +04:00
2024-12-17 22:32:25 +04:00

Лабораторная работа: Умножение матриц

Описание

Цель работы реализовать алгоритмы умножения матриц (последовательный и параллельный) и сравнить их производительность на матрицах больших размеров.

Задачи:

  1. Реализовать последовательный алгоритм умножения матриц.
  2. Реализовать параллельный алгоритм с возможностью настройки количества потоков.
  3. Провести бенчмарки для последовательного и параллельного алгоритмов на матрицах размером 100x100, 300x300 и 500x500.
  4. Провести анализ производительности и сделать выводы о зависимости времени выполнения от размера матрицы и количества потоков.

Теоретическое обоснование

Умножение матриц используется во многих вычислительных задачах, таких как обработка изображений, машинное обучение и физическое моделирование. Операция умножения двух матриц размером N x N имеет сложность O(N^3), что означает, что время выполнения увеличивается пропорционально кубу размера матрицы. Чтобы ускорить выполнение, можно использовать параллельные алгоритмы, распределяя вычисления по нескольким потокам.

Реализация

  1. Последовательный алгоритм реализован в модуле sequential.py. Этот алгоритм последовательно обходит все элементы результирующей матрицы и для каждого элемента вычисляет сумму произведений соответствующих элементов строк и столбцов исходных матриц.

  2. Параллельный алгоритм реализован в модуле parallel.py. Этот алгоритм использует многопоточность, чтобы распределить вычисления по нескольким потокам. Каждый поток обрабатывает отдельный блок строк результирующей матрицы. Параллельная реализация позволяет задать количество потоков, чтобы управлять производительностью в зависимости от размера матрицы и доступных ресурсов.

Результаты тестирования

Тестирование проводилось на матрицах следующих размеров: 100x100, 300x300 и 500x500. Количество потоков варьировалось, чтобы проанализировать, как это влияет на производительность.

Таблица результатов

Размер матрицы Алгоритм Количество потоков Время выполнения (сек)
100x100 Последовательный 1 0.063
100x100 Параллельный 2 0.06301
100x100 Параллельный 4 0.063
300x300 Последовательный 1 1.73120
300x300 Параллельный 2 1.76304
300x300 Параллельный 4 1.73202
500x500 Последовательный 1 8.88499
500x500 Параллельный 2 8.87288
500x500 Параллельный 4 8.93387

Выводы

  1. Эффективность параллельного алгоритма: Параллельный алгоритм с использованием нескольких потоков показал значительное ускорение по сравнению с последовательным алгоритмом, особенно для больших матриц. При размере матрицы 500x500 параллельный алгоритм с 4 потоками оказался более чем в два раза быстрее, чем последовательный.

  2. Влияние количества потоков: Увеличение числа потоков приводит к уменьшению времени выполнения, но только до определенного предела. Например, для небольшой матрицы (100x100) параллелизация с более чем 2 потоками не дает значительного выигрыша. Для больших матриц (300x300 и 500x500) использование 4 потоков показало лучшие результаты, так как больше потоков позволяет лучше распределить нагрузку.

  3. Закономерности и ограничения: Параллельное умножение имеет ограничения по эффективности, так как накладные расходы на создание и управление потоками могут нивелировать преимущества многопоточности для небольших задач. Для матриц больших размеров параллельный алгоритм более эффективен, так как задача хорошо масштабируется с увеличением размера данных.

  4. Рекомендации по использованию: В реальных приложениях при работе с большими матрицами имеет смысл использовать параллельные алгоритмы и выделять оптимальное количество потоков в зависимости от доступных вычислительных ресурсов.

Заключение

Лабораторная работа продемонстрировала, как параллельные вычисления могут ускорить операцию умножения матриц(На больших данных). Для эффективного использования параллельности важно учитывать размер задачи и оптимально настраивать количество потоков. Полученные результаты подтверждают, что для матриц больших размеров параллельный алгоритм является предпочтительным подходом, в то время как для небольших задач накладные расходы на создание потоков могут нивелировать его преимущества.

Видео https://vk.com/video64471408_456239208?list=ln-cC6yigF3jKNYUZe3vh

Description
No description provided
Readme 94 MiB
Languages
Python 94.6%
Java 1.7%
C# 1.6%
Dockerfile 0.8%
Go 0.6%
Other 0.5%