Compare commits
4 Commits
main
...
ismailov_r
Author | SHA1 | Date | |
---|---|---|---|
0b5101e85b | |||
305b628e5d | |||
3a4cfd1425 | |||
8baf0356d2 |
@ -1 +0,0 @@
|
|||||||
main.py
|
|
@ -1,12 +0,0 @@
|
|||||||
<component name="InspectionProjectProfileManager">
|
|
||||||
<profile version="1.0">
|
|
||||||
<option name="myName" value="Project Default" />
|
|
||||||
<inspection_tool class="PyUnresolvedReferencesInspection" enabled="true" level="WARNING" enabled_by_default="true">
|
|
||||||
<option name="ignoredIdentifiers">
|
|
||||||
<list>
|
|
||||||
<option value="str.__pos__" />
|
|
||||||
</list>
|
|
||||||
</option>
|
|
||||||
</inspection_tool>
|
|
||||||
</profile>
|
|
||||||
</component>
|
|
@ -1,6 +0,0 @@
|
|||||||
<component name="InspectionProjectProfileManager">
|
|
||||||
<settings>
|
|
||||||
<option name="USE_PROJECT_PROFILE" value="false" />
|
|
||||||
<version value="1.0" />
|
|
||||||
</settings>
|
|
||||||
</component>
|
|
@ -1,4 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.9 (tukaeva_alfiya_lab_4)" project-jdk-type="Python SDK" />
|
|
||||||
</project>
|
|
@ -1,32 +0,0 @@
|
|||||||
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
|
||||||
## ПИбд-42 || Алейкин Артем
|
|
||||||
|
|
||||||
### Описание
|
|
||||||
В данной лабораторной работе мы разворачиваем три популярных сервиса — MediaWiki и Redmine — с использованием Docker Compose. Каждый сервис работает в своем контейнере и использует общую базу данных PostgreSQL для хранения данных. Мы также настраиваем проброс портов для доступа к веб-интерфейсам сервисов и используем Docker volumes для сохранения данных вне контейнеров.
|
|
||||||
|
|
||||||
### Цель проекта
|
|
||||||
изучение современных технологий контейнеризации
|
|
||||||
|
|
||||||
### Шаги для запуска:
|
|
||||||
1. Клонирование репозитория:
|
|
||||||
```
|
|
||||||
git clone <ссылка-на-репозиторий>
|
|
||||||
cd <папка репозитория>
|
|
||||||
```
|
|
||||||
|
|
||||||
2. Запуск контейнеров:
|
|
||||||
```
|
|
||||||
docker-compose up -d
|
|
||||||
```
|
|
||||||
|
|
||||||
3. После запуска должны быть доступны следующие контейнеры:
|
|
||||||
|
|
||||||
MediaWiki: http://localhost:8080
|
|
||||||
Redmine: http://localhost:8081
|
|
||||||
|
|
||||||
4. Чтобы остановить контейнеры:
|
|
||||||
```
|
|
||||||
docker-compose down
|
|
||||||
```
|
|
||||||
|
|
||||||
Видео демонстрации работы: https://vk.com/video248424990_456239601?list=ln-sCRa9IIiV1VpInn2d1
|
|
@ -1,45 +0,0 @@
|
|||||||
services:
|
|
||||||
mediawiki:
|
|
||||||
image: mediawiki
|
|
||||||
container_name: mediawiki
|
|
||||||
ports:
|
|
||||||
- "8080:80" # Пробрасываем порт 8080 на хост для доступа к MediaWiki
|
|
||||||
volumes:
|
|
||||||
- mediawiki_data:/var/www/html/images # Создаем volume для хранения данных MediaWiki
|
|
||||||
environment:
|
|
||||||
- MEDIAWIKI_DB_HOST=db
|
|
||||||
- MEDIAWIKI_DB_NAME=mediawiki
|
|
||||||
- MEDIAWIKI_DB_USER=root
|
|
||||||
- MEDIAWIKI_DB_PASSWORD=example
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
|
|
||||||
redmine:
|
|
||||||
image: redmine
|
|
||||||
container_name: redmine
|
|
||||||
ports:
|
|
||||||
- "8081:3000" # Пробрасываем порт 8081 на хост для доступа к Redmine
|
|
||||||
volumes:
|
|
||||||
- redmine_data:/usr/src/redmine/files # Создаем volume для хранения данных Redmine
|
|
||||||
environment:
|
|
||||||
- REDMINE_DB_POSTGRESQL=db
|
|
||||||
- REDMINE_DB_DATABASE=redmine
|
|
||||||
- REDMINE_DB_USERNAME=root
|
|
||||||
- REDMINE_DB_PASSWORD=example
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
|
|
||||||
db:
|
|
||||||
image: postgres:latest
|
|
||||||
container_name: db
|
|
||||||
environment:
|
|
||||||
POSTGRES_USER: postgres
|
|
||||||
POSTGRES_PASSWORD: example
|
|
||||||
POSTGRES_DB: postgres
|
|
||||||
volumes:
|
|
||||||
- db_data:/var/lib/postgresql # Volume для базы данных
|
|
||||||
|
|
||||||
volumes:
|
|
||||||
mediawiki_data: # volume для MediaWiki
|
|
||||||
redmine_data: # volume для Redmine
|
|
||||||
db_data: # volume для базы данных
|
|
@ -1,48 +0,0 @@
|
|||||||
## Отчет по Docker Compose конфигурации
|
|
||||||
|
|
||||||
### Краткое описание:
|
|
||||||
|
|
||||||
Данная конфигурация Docker Compose запускает набор сервисов, необходимых для работы WordPress и MediaWiki. Она включает в себя:
|
|
||||||
|
|
||||||
- **WordPress:** веб-сервис для блогов и CMS
|
|
||||||
- **MySQL:** база данных для хранения данных WordPress
|
|
||||||
- **RabbitMQ:** брокер сообщений для потенциального использования в будущем
|
|
||||||
- **MediaWiki:** вики-движок для создания и редактирования вики-страниц
|
|
||||||
|
|
||||||
### Запуск лабораторной работы:
|
|
||||||
|
|
||||||
1. Установить Docker и Docker Compose.
|
|
||||||
2. Сохранить конфигурацию в файл docker-compose.yml.
|
|
||||||
3. Запустить команду docker-compose up --build
|
|
||||||
|
|
||||||
### Используемые технологии:
|
|
||||||
|
|
||||||
- **Docker Compose:** инструмент для определения и запуска многоконтейнерных приложений.
|
|
||||||
- **Docker:** платформа для создания, развертывания и запуска контейнеров.
|
|
||||||
- **WordPress:** популярная платформа для создания блогов и CMS.
|
|
||||||
- **MySQL:** популярная система управления базами данных.
|
|
||||||
- **RabbitMQ:** брокер сообщений, используемый для асинхронного обмена сообщениями.
|
|
||||||
- **MediaWiki:** свободное программное обеспечение для создания и редактирования вики-страниц.
|
|
||||||
|
|
||||||
### Функциональность:
|
|
||||||
|
|
||||||
Конфигурация запускает следующие сервисы:
|
|
||||||
|
|
||||||
- **WordPress:** работает на порту 8080, доступен по адресу http://localhost:8080.
|
|
||||||
- **MySQL:** предоставляет базу данных для WordPress и MediaWiki.
|
|
||||||
- **RabbitMQ:** работает на порту 5672, доступен по адресу http://localhost:15672 для управления.
|
|
||||||
- **MediaWiki:** работает на порту 8081, доступен по адресу http://localhost:8081.
|
|
||||||
|
|
||||||
### Дополнительные сведения
|
|
||||||
|
|
||||||
- **Volumes**: используются для хранения данных сервисов, чтобы они не терялись при перезапуске контейнеров.
|
|
||||||
- **Depends_on**: указывает на зависимость между сервисами, например, WordPress зависит от MySQL.
|
|
||||||
- **Restart policy**: определяет, как сервисы будут перезапускаться после сбоя.
|
|
||||||
|
|
||||||
### Видео
|
|
||||||
|
|
||||||
https://vk.com/video/@artamonovat?z=video212084908_456239356%2Fpl_212084908_-2
|
|
||||||
|
|
||||||
### Заключение:
|
|
||||||
|
|
||||||
Данная конфигурация Docker Compose обеспечивает простой и удобный способ запуска и управления несколькими сервисами, связанными с WordPress и MediaWiki. Она позволяет разработчикам легко развертывать и управлять приложениями в изолированной среде.
|
|
@ -1,61 +0,0 @@
|
|||||||
version: '3.7'
|
|
||||||
|
|
||||||
services:
|
|
||||||
wordpress:
|
|
||||||
image: wordpress:latest
|
|
||||||
ports:
|
|
||||||
- "8080:80"
|
|
||||||
volumes:
|
|
||||||
- wordpress_data:/var/www/html
|
|
||||||
environment:
|
|
||||||
WORDPRESS_DB_HOST: db
|
|
||||||
WORDPRESS_DB_NAME: wordpress
|
|
||||||
WORDPRESS_DB_USER: wordpress
|
|
||||||
WORDPRESS_DB_PASSWORD: password
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
db:
|
|
||||||
image: mysql:latest
|
|
||||||
volumes:
|
|
||||||
- db_data:/var/lib/mysql
|
|
||||||
environment:
|
|
||||||
MYSQL_DATABASE: wordpress
|
|
||||||
MYSQL_USER: wordpress
|
|
||||||
MYSQL_PASSWORD: dbpassword
|
|
||||||
MYSQL_ROOT_PASSWORD: rootpassword
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management
|
|
||||||
ports:
|
|
||||||
- "5672:5672"
|
|
||||||
- "15672:15672"
|
|
||||||
volumes:
|
|
||||||
- rabbitmq_data:/var/lib/rabbitmq
|
|
||||||
environment:
|
|
||||||
RABBITMQ_DEFAULT_USER: guest
|
|
||||||
RABBITMQ_DEFAULT_PASS: password
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
mediawiki:
|
|
||||||
image: mediawiki:latest
|
|
||||||
ports:
|
|
||||||
- "8081:80"
|
|
||||||
volumes:
|
|
||||||
- mediawiki_data:/var/www/html
|
|
||||||
environment:
|
|
||||||
MW_DB_SERVER: db
|
|
||||||
MW_DB_NAME: mediawiki
|
|
||||||
MW_DB_USER: mediawiki
|
|
||||||
MW_DB_PASSWORD: mediawiki_password
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
volumes:
|
|
||||||
wordpress_data:
|
|
||||||
db_data:
|
|
||||||
rabbitmq_data:
|
|
||||||
mediawiki_data:
|
|
5
artamonova_tatyana_lab_2/.gitignore
vendored
@ -1,5 +0,0 @@
|
|||||||
*.pyc
|
|
||||||
__pycache__
|
|
||||||
*.egg-info
|
|
||||||
*.dist-info
|
|
||||||
.DS_Store
|
|
@ -1,22 +0,0 @@
|
|||||||
## Лабораторная работа №2
|
|
||||||
### Выполнила Артамонова Татьяна ПИбд-42
|
|
||||||
|
|
||||||
**Вариант 1: Программа 4 - Количество символов в именах файлов из каталога /var/data**
|
|
||||||
|
|
||||||
- Формирует файл /var/result/data1.txt так, что каждая строка файла - количество символов в именах файлов из каталога /var/data.
|
|
||||||
|
|
||||||
**Вариант 2: Программа 3 - Количество чисел в последовательности**
|
|
||||||
|
|
||||||
- Ищет набольшее число из файла /var/result/data1.txt и сохраняет количество таких чисел из последовательности в /var/result/data2.txt.
|
|
||||||
|
|
||||||
**Структура проекта:**
|
|
||||||
|
|
||||||
1. В папках worker-1, worker-2 лежат выполняемые файлы .py и Dockerfile-ы с необходимым набором инструкций.
|
|
||||||
2. В папке data лежат файлы, длину имен которых нужно посчитать.
|
|
||||||
3. В папке result лежат файлы с результатами выполнения программ. data1.txt - результат выполнения main1.py (worker-1), data2.txt - результат выполнения main2.py (worker-2). Данные в data2 рассчитываются из данных data1.
|
|
||||||
4. Файл .gitignore - для указания, какие файлы отслеживать, а какие - нет.
|
|
||||||
5. docker-compose.yml - для определения и управления контейнерами Docker.
|
|
||||||
|
|
||||||
**Команда для запуска** - docker-compose up --build
|
|
||||||
|
|
||||||
**Ссылка на видео:** https://vk.com/artamonovat?z=video212084908_456239357%2Fvideos212084908%2Fpl_212084908_-2
|
|
@ -1,22 +0,0 @@
|
|||||||
services:
|
|
||||||
worker-1:
|
|
||||||
build:
|
|
||||||
context: ./worker-1
|
|
||||||
volumes:
|
|
||||||
- ./worker-1:/app
|
|
||||||
- ./data:/var/data
|
|
||||||
- ./result:/var/result
|
|
||||||
depends_on:
|
|
||||||
- worker-2
|
|
||||||
|
|
||||||
worker-2:
|
|
||||||
build:
|
|
||||||
context: ./worker-2
|
|
||||||
volumes:
|
|
||||||
- ./worker-2:/app
|
|
||||||
- ./data:/var/data
|
|
||||||
- ./result:/var/result
|
|
||||||
|
|
||||||
volumes:
|
|
||||||
data:
|
|
||||||
result:
|
|
@ -1,3 +0,0 @@
|
|||||||
15
|
|
||||||
18
|
|
||||||
18
|
|
@ -1 +0,0 @@
|
|||||||
2
|
|
@ -1,14 +0,0 @@
|
|||||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
|
||||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
|
||||||
FROM python:3.10-slim
|
|
||||||
|
|
||||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
|
||||||
# Все последующие команды будут выполняться в этой директории.
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
# Копируем файл main1.py из текущей директории в директорию /app в контейнере.
|
|
||||||
COPY main1.py .
|
|
||||||
|
|
||||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
|
||||||
# В данном случае запускается Python-скрипт main1.py.
|
|
||||||
CMD ["python", "main1.py"]
|
|
@ -1,21 +0,0 @@
|
|||||||
import os
|
|
||||||
import glob
|
|
||||||
|
|
||||||
# Формирует файл data1.txt так, что каждая строка файла - кол-во символов в именах файла из каталога /data
|
|
||||||
def main():
|
|
||||||
data_dir = "/var/data"
|
|
||||||
result_file = "/var/result/data1.txt"
|
|
||||||
|
|
||||||
result_dir = os.path.dirname(result_file)
|
|
||||||
if not os.path.exists(result_dir):
|
|
||||||
os.makedirs(result_dir)
|
|
||||||
|
|
||||||
files = glob.glob(os.path.join(data_dir, '*'))
|
|
||||||
|
|
||||||
with open(result_file, 'w') as f:
|
|
||||||
for file in files:
|
|
||||||
filename = os.path.basename(file)
|
|
||||||
f.write(f"{len(filename)}\n")
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
main()
|
|
@ -1,14 +0,0 @@
|
|||||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
|
||||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
|
||||||
FROM python:3.10-slim
|
|
||||||
|
|
||||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
|
||||||
# Все последующие команды будут выполняться в этой директории.
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
# Копируем файл main2.py из текущей директории в директорию /app в контейнере.
|
|
||||||
COPY main2.py .
|
|
||||||
|
|
||||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
|
||||||
# В данном случае запускается Python-скрипт main2.py.
|
|
||||||
CMD ["python", "main2.py"]
|
|
@ -1,26 +0,0 @@
|
|||||||
import os
|
|
||||||
|
|
||||||
# Ищет наибольшее число из файла data1.txt и сохраняет количество таких чисел из последовательности в data2.txt
|
|
||||||
def main():
|
|
||||||
data_file_path = "/var/result/data1.txt"
|
|
||||||
result_file_path = "/var/result/data2.txt"
|
|
||||||
|
|
||||||
if not os.path.exists(data_file_path):
|
|
||||||
data_dir = os.path.dirname(data_file_path)
|
|
||||||
|
|
||||||
if not os.path.exists(result_file_path):
|
|
||||||
result_dir = os.path.dirname(result_file_path)
|
|
||||||
|
|
||||||
with open(data_file_path, 'r') as f:
|
|
||||||
numbers = [int(x.strip()) for x in f.read().splitlines()]
|
|
||||||
|
|
||||||
max_number = max(numbers)
|
|
||||||
count = numbers.count(max_number)
|
|
||||||
|
|
||||||
with open(result_file_path, 'w') as f:
|
|
||||||
f.write(str(count))
|
|
||||||
|
|
||||||
print(f"Количество наибольших чисел: {count}")
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
main()
|
|
2
bogdanov_dmitry_lab_3/.gitignore
vendored
@ -1,2 +0,0 @@
|
|||||||
/.idea
|
|
||||||
/.venv
|
|
@ -1,22 +0,0 @@
|
|||||||
# Лабораторная работа №3
|
|
||||||
|
|
||||||
## Богданов Дмитрий ПИбд-42
|
|
||||||
|
|
||||||
### Для выполнения были выбраны следующие сущности:
|
|
||||||
|
|
||||||
* Message - содержит uuid (генерируется), text, datetime_sent, user_id
|
|
||||||
* User - содержит uuid (генерируется), name, surname
|
|
||||||
|
|
||||||
Одному пользователю может быть присвоено несколько сообщений.
|
|
||||||
|
|
||||||
Соответственно были развернуты 2 сервиса для управления этими сущностями.
|
|
||||||
|
|
||||||
### Запуск лабораторной:
|
|
||||||
Необходимо перейти в папку с файлом compose.yaml и ввести следующую команду:
|
|
||||||
```
|
|
||||||
docker-compose up --build -d
|
|
||||||
```
|
|
||||||
|
|
||||||
## Видео с результатом запуска и тестами...
|
|
||||||
|
|
||||||
...можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1cJz0z4KduSz1oltmAuieUW7GxxVLNPNo/view).
|
|
@ -1,27 +0,0 @@
|
|||||||
services:
|
|
||||||
|
|
||||||
user_service:
|
|
||||||
container_name: userService
|
|
||||||
build:
|
|
||||||
context: .
|
|
||||||
dockerfile: ./userService/Dockerfile
|
|
||||||
expose:
|
|
||||||
- 20001
|
|
||||||
|
|
||||||
message_service:
|
|
||||||
container_name: messageService
|
|
||||||
build:
|
|
||||||
context: .
|
|
||||||
dockerfile: ./messageService/Dockerfile
|
|
||||||
expose:
|
|
||||||
- 20002
|
|
||||||
|
|
||||||
nginx:
|
|
||||||
image: nginx:latest
|
|
||||||
ports:
|
|
||||||
- "80:80"
|
|
||||||
volumes:
|
|
||||||
- ./nginx.conf:/etc/nginx/nginx.conf
|
|
||||||
depends_on:
|
|
||||||
- user_service
|
|
||||||
- message_service
|
|
@ -1,11 +0,0 @@
|
|||||||
FROM python:latest
|
|
||||||
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
COPY requirements.txt .
|
|
||||||
|
|
||||||
RUN pip install --no-cache-dir -r requirements.txt
|
|
||||||
|
|
||||||
COPY messageService/messageService.py .
|
|
||||||
|
|
||||||
CMD ["python", "messageService.py"]
|
|
@ -1,138 +0,0 @@
|
|||||||
from flask import Flask, request, jsonify
|
|
||||||
from uuid import uuid4
|
|
||||||
import uuid
|
|
||||||
import datetime
|
|
||||||
import requests
|
|
||||||
|
|
||||||
class Message:
|
|
||||||
def __init__(self, text: str, datetime_sent: datetime, uuid_: uuid, user_id: uuid):
|
|
||||||
if uuid_ is None:
|
|
||||||
self.uuid_ = uuid4()
|
|
||||||
else:
|
|
||||||
self.uuid_ = uuid.UUID(uuid_)
|
|
||||||
self.text = text
|
|
||||||
self.datetime_sent = datetime_sent
|
|
||||||
self.user_id = uuid.UUID(user_id)
|
|
||||||
|
|
||||||
def to_dict(self):
|
|
||||||
return {
|
|
||||||
'text': self.text,
|
|
||||||
'datetime_sent': self.datetime_sent,
|
|
||||||
'user_id': self.user_id,
|
|
||||||
'uuid': self.uuid_
|
|
||||||
}
|
|
||||||
|
|
||||||
def to_dict_for_users(self):
|
|
||||||
return {
|
|
||||||
'title': self.text,
|
|
||||||
'datetime_sent': self.datetime_sent,
|
|
||||||
'uuid': self.uuid_
|
|
||||||
}
|
|
||||||
|
|
||||||
def to_dict_with_info(self, user: dict):
|
|
||||||
return {
|
|
||||||
'title': self.text,
|
|
||||||
'datetime_sent': self.datetime_sent,
|
|
||||||
'user_id': self.user_id,
|
|
||||||
'user_info': user,
|
|
||||||
'uuid': self.uuid_
|
|
||||||
}
|
|
||||||
|
|
||||||
messages = [
|
|
||||||
Message(text='Hi!', datetime_sent=datetime.datetime.now(), uuid_='4add0525-1857-477d-ad35-56790d400b72', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
|
||||||
Message(text='Hello this is a message', datetime_sent=datetime.datetime.now(), uuid_='dd69758d-89e8-49b5-86bf-54ae2adb64e8', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
|
||||||
Message(text='Test', datetime_sent=datetime.datetime.now(), uuid_='92389e8d-4365-457e-b37e-78abbc07f194', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
|
||||||
Message(text='Anyone here?', datetime_sent=datetime.datetime.now(), uuid_='f3a1c526-aca2-47e2-afd3-a1c2eac92458', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
|
||||||
Message(text='Mambo', datetime_sent=datetime.datetime.now(), uuid_='00abbdb5-e480-4842-bc32-f916894757eb', user_id='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
|
||||||
]
|
|
||||||
|
|
||||||
def list_jsonify():
|
|
||||||
return jsonify([message.to_dict() for message in messages])
|
|
||||||
|
|
||||||
|
|
||||||
app = Flask(__name__)
|
|
||||||
users_url = 'http://userService:20001/'
|
|
||||||
|
|
||||||
@app.route('/', methods=['GET'])
|
|
||||||
def get_all():
|
|
||||||
return list_jsonify(), 200
|
|
||||||
|
|
||||||
@app.route('/info', methods=['GET'])
|
|
||||||
def get_all_full():
|
|
||||||
users: list[dict] = requests.get(users_url).json()
|
|
||||||
response = []
|
|
||||||
for message in messages:
|
|
||||||
for user in users:
|
|
||||||
if message.user_id == uuid.UUID(user.get('uuid')):
|
|
||||||
response.append(message.to_dict_with_info(user))
|
|
||||||
|
|
||||||
return response, 200
|
|
||||||
|
|
||||||
@app.route('/by-user/<uuid:user_uuid>', methods=['GET'])
|
|
||||||
def get_by_user_id(user_uuid):
|
|
||||||
return [message.to_dict_for_users() for message in messages if message.user_id == user_uuid], 200
|
|
||||||
|
|
||||||
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
|
||||||
def get_one_full(uuid_):
|
|
||||||
for message in messages:
|
|
||||||
if message.uuid_ == uuid_:
|
|
||||||
response = requests.get(users_url + str(message.user_id))
|
|
||||||
return message.to_dict_with_info(response.json()), 200
|
|
||||||
|
|
||||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
|
||||||
|
|
||||||
@app.route('/', methods=['POST'])
|
|
||||||
def create():
|
|
||||||
data = request.json
|
|
||||||
text = data.get('text', None)
|
|
||||||
datetime_sent = datetime.datetime.now()
|
|
||||||
user_id = data.get('user_id', None)
|
|
||||||
checking = requests.get(users_url + f'/check/{user_id}')
|
|
||||||
print(checking)
|
|
||||||
if checking.status_code == 200:
|
|
||||||
new_message = Message(text, datetime_sent, None, user_id)
|
|
||||||
messages.append(new_message)
|
|
||||||
return get_one(new_message.uuid_)
|
|
||||||
if checking.status_code == 404:
|
|
||||||
return f'Пользователь с uuid {user_id} не существует', 404
|
|
||||||
|
|
||||||
return 'Неизвестная ошибка', 500
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
|
||||||
def update_by_id(uuid_):
|
|
||||||
data = request.json
|
|
||||||
new_text = data.get('text', None)
|
|
||||||
|
|
||||||
for message in messages:
|
|
||||||
print(message.uuid_)
|
|
||||||
|
|
||||||
if message.uuid_ == uuid_:
|
|
||||||
if new_text is not None:
|
|
||||||
message.text = new_text
|
|
||||||
return get_one(message.uuid_)
|
|
||||||
|
|
||||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
|
||||||
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
|
||||||
def delete(uuid_):
|
|
||||||
for message in messages:
|
|
||||||
if message.uuid_ == uuid_:
|
|
||||||
messages.remove(message)
|
|
||||||
return 'Сообщение успешно удалено', 200
|
|
||||||
|
|
||||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['GET'])
|
|
||||||
def get_one(uuid_):
|
|
||||||
for message in messages:
|
|
||||||
if message.uuid_ == uuid_:
|
|
||||||
return message.to_dict(), 200
|
|
||||||
|
|
||||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
app.run(host='0.0.0.0', port=20002, debug=True)
|
|
@ -1,25 +0,0 @@
|
|||||||
events { worker_connections 1024; }
|
|
||||||
|
|
||||||
http {
|
|
||||||
server {
|
|
||||||
listen 80;
|
|
||||||
listen [::]:80;
|
|
||||||
server_name localhost;
|
|
||||||
|
|
||||||
location /userService/ {
|
|
||||||
proxy_pass http://userService:20001/;
|
|
||||||
proxy_set_header Host $host;
|
|
||||||
proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
}
|
|
||||||
|
|
||||||
location /messageService/ {
|
|
||||||
proxy_pass http://messageService:20002/;
|
|
||||||
proxy_set_header Host $host;
|
|
||||||
proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,2 +0,0 @@
|
|||||||
Flask==3.0.3
|
|
||||||
requests==2.32.3
|
|
@ -1,11 +0,0 @@
|
|||||||
FROM python:latest
|
|
||||||
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
COPY requirements.txt .
|
|
||||||
|
|
||||||
RUN pip install --no-cache-dir -r requirements.txt
|
|
||||||
|
|
||||||
COPY userService/userService.py .
|
|
||||||
|
|
||||||
CMD ["python", "userService.py"]
|
|
@ -1,115 +0,0 @@
|
|||||||
from flask import Flask, jsonify, request
|
|
||||||
from uuid import uuid4
|
|
||||||
import uuid
|
|
||||||
import requests
|
|
||||||
|
|
||||||
|
|
||||||
class User:
|
|
||||||
def __init__(self, name, surname, uuid_: uuid):
|
|
||||||
if uuid_ is None:
|
|
||||||
self.uuid_: uuid = uuid4()
|
|
||||||
else:
|
|
||||||
self.uuid_: uuid = uuid.UUID(uuid_)
|
|
||||||
self.name: str = name
|
|
||||||
self.surname: str = surname
|
|
||||||
|
|
||||||
def to_dict(self):
|
|
||||||
return {
|
|
||||||
"uuid": self.uuid_,
|
|
||||||
"name": self.name,
|
|
||||||
"surname": self.surname
|
|
||||||
}
|
|
||||||
|
|
||||||
def to_dict_with_messages(self, messages: list):
|
|
||||||
return {
|
|
||||||
"uuid": self.uuid_,
|
|
||||||
"name": self.name,
|
|
||||||
"surname": self.surname,
|
|
||||||
"messages": messages
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
app = Flask(__name__)
|
|
||||||
|
|
||||||
users: list[User] = [
|
|
||||||
User(name='Dr.', surname='Kino', uuid_='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
|
||||||
User(name='Caspian', surname='Holstrom', uuid_='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
|
||||||
User(name='Admin', surname='Admin', uuid_='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
|
||||||
]
|
|
||||||
|
|
||||||
messages_url = 'http://messageService:20002/'
|
|
||||||
|
|
||||||
|
|
||||||
def list_jsonify():
|
|
||||||
return jsonify([user.to_dict() for user in users])
|
|
||||||
|
|
||||||
@app.route('/', methods=['GET'])
|
|
||||||
def get_all():
|
|
||||||
return list_jsonify(), 200
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['GET'])
|
|
||||||
def get_one(uuid_):
|
|
||||||
for user in users:
|
|
||||||
if user.uuid_ == uuid_:
|
|
||||||
return user.to_dict(), 200
|
|
||||||
|
|
||||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
|
||||||
|
|
||||||
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
|
||||||
def get_one_with_messages(uuid_):
|
|
||||||
for user in users:
|
|
||||||
if user.uuid_ == uuid_:
|
|
||||||
response = requests.get(messages_url + f'by-user/{uuid_}')
|
|
||||||
print(response.json())
|
|
||||||
return user.to_dict_with_messages(response.json()), 200
|
|
||||||
|
|
||||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
|
||||||
|
|
||||||
@app.route('/check/<uuid:uuid_>', methods=['GET'])
|
|
||||||
def check_exist(uuid_):
|
|
||||||
for user in users:
|
|
||||||
if user.uuid_ == uuid_:
|
|
||||||
return '', 200
|
|
||||||
return '', 404
|
|
||||||
|
|
||||||
@app.route('/', methods=['POST'])
|
|
||||||
def create():
|
|
||||||
data = request.json
|
|
||||||
name = data.get('name', None)
|
|
||||||
surname = data.get('surname', None)
|
|
||||||
if name is None or surname is None:
|
|
||||||
return 'Недостаточно информации для создания пользователя', 404
|
|
||||||
|
|
||||||
new_user = User(name, surname, None)
|
|
||||||
users.append(new_user)
|
|
||||||
return get_one(new_user.uuid_)
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
|
||||||
def update_by_id(uuid_):
|
|
||||||
data = request.json
|
|
||||||
new_name = data.get('name', None)
|
|
||||||
new_surname = data.get('surname', None)
|
|
||||||
|
|
||||||
for user in users:
|
|
||||||
if user.uuid_ == uuid_:
|
|
||||||
if new_name is not None:
|
|
||||||
user.name = new_name
|
|
||||||
if new_surname is not None:
|
|
||||||
user.surname = new_surname
|
|
||||||
return get_one(user.uuid_)
|
|
||||||
|
|
||||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
|
||||||
|
|
||||||
|
|
||||||
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
|
||||||
def delete(uuid_):
|
|
||||||
for user in users:
|
|
||||||
if user.uuid_ == uuid_:
|
|
||||||
users.remove(user)
|
|
||||||
return 'Пользователь удален', 200
|
|
||||||
|
|
||||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
app.run(host='0.0.0.0', port=20001, debug=True)
|
|
@ -1,34 +0,0 @@
|
|||||||
# Богданов Дмитрий ПИбд-42
|
|
||||||
# Лабораторная работа №4
|
|
||||||
|
|
||||||
|
|
||||||
## Предметная область:
|
|
||||||
Автоматизация работы теплицы
|
|
||||||
|
|
||||||
## Результаты выполнения туториалов:
|
|
||||||
|
|
||||||
- Первый туториал:
|
|
||||||
![изображение 1](./images/tut1.png)
|
|
||||||
|
|
||||||
- Второй туториал:
|
|
||||||
![изображение 2](./images/tut2.png)
|
|
||||||
|
|
||||||
- Третий туториал:
|
|
||||||
![изображение 3](./images/tut3.png)
|
|
||||||
|
|
||||||
|
|
||||||
## Данные из RabbitMQ:
|
|
||||||
|
|
||||||
![изображение 1](./images/rmq1.png)
|
|
||||||
![изображение 2](./images/rmq2.png)
|
|
||||||
![изображение 3](./images/rmq3.png)
|
|
||||||
![изображение 3](./images/rmq4.png)
|
|
||||||
|
|
||||||
### Вывод:
|
|
||||||
Из-за моментальной обработки сообщений в Consumer2, его очередь никогда не заполняется.
|
|
||||||
Consumer1 же тратит на обработку 2 секунды, из-за чего соответствующая очередь существенно заполняется при одном
|
|
||||||
запущенном экземпляре.
|
|
||||||
При нескольких запущенных экземплярах Consumer1 очередь заполняется существенно медленнее, и перестаёт заполняться совсем при определенном кол-ве запущенных экземпляров.
|
|
||||||
|
|
||||||
|
|
||||||
## [Видео](https://drive.google.com/file/d/1KWHHYWiK8OX48OfhDnEKDtMz-Umfs0uj/view?usp=sharing)
|
|
@ -1,27 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f'Receiver 1: получено сообщение. {body.decode()}')
|
|
||||||
|
|
||||||
time.sleep(3)
|
|
||||||
|
|
||||||
print('Receiver 1 закончил обработку')
|
|
||||||
|
|
||||||
|
|
||||||
def consume_events_1():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='receiver1_queue')
|
|
||||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver1_queue')
|
|
||||||
|
|
||||||
channel.basic_consume(queue='receiver1_queue', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print('Ожидание сообщения...')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
consume_events_1()
|
|
@ -1,24 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f'Receiver 2: получено сообщение. {body.decode()}')
|
|
||||||
|
|
||||||
print('Receiver 2 закончил обработку')
|
|
||||||
|
|
||||||
|
|
||||||
def consume_events_2():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='receiver2_queue')
|
|
||||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver2_queue')
|
|
||||||
|
|
||||||
channel.basic_consume(queue='receiver2_queue', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print('Ожидание сообщения...')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
consume_events_2()
|
|
@ -1,25 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
def publish_events():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='greenhouse_events', exchange_type='fanout')
|
|
||||||
|
|
||||||
events = [
|
|
||||||
"Влажность превысила верхнюю границу",
|
|
||||||
"Влажность упала за нижнюю границу",
|
|
||||||
"Полив начат",
|
|
||||||
"Полив остановлен"
|
|
||||||
]
|
|
||||||
|
|
||||||
while True:
|
|
||||||
event = events[int(time.time()) % len(events)]
|
|
||||||
channel.basic_publish(exchange='greenhouse_events', routing_key='', body=event)
|
|
||||||
print(f'Отправлено: {event}')
|
|
||||||
time.sleep(1)
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
publish_events()
|
|
@ -1,25 +0,0 @@
|
|||||||
import pika, sys, os
|
|
||||||
|
|
||||||
def main():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='hello')
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body}")
|
|
||||||
|
|
||||||
channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
try:
|
|
||||||
main()
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
print('Interrupted')
|
|
||||||
try:
|
|
||||||
sys.exit(0)
|
|
||||||
except SystemExit:
|
|
||||||
os._exit(0)
|
|
@ -1,13 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare('hello')
|
|
||||||
|
|
||||||
channel.basic_publish(exchange='',
|
|
||||||
routing_key='hello',
|
|
||||||
body='Hello world!')
|
|
||||||
print(" [x] Sent 'Hello world!'")
|
|
||||||
|
|
||||||
connection.close()
|
|
@ -1,19 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "Hello World!"
|
|
||||||
channel.basic_publish(
|
|
||||||
exchange='',
|
|
||||||
routing_key='task_queue',
|
|
||||||
body=message,
|
|
||||||
properties=pika.BasicProperties(
|
|
||||||
delivery_mode=pika.DeliveryMode.Persistent
|
|
||||||
))
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,22 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body.decode()}")
|
|
||||||
time.sleep(body.count(b'.'))
|
|
||||||
print(" [x] Done")
|
|
||||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
|
||||||
|
|
||||||
|
|
||||||
channel.basic_qos(prefetch_count=1)
|
|
||||||
channel.basic_consume(queue='task_queue', on_message_callback=callback)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
@ -1,13 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
|
|
||||||
channel.basic_publish(exchange='logs', routing_key='', body=message)
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,22 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
result = channel.queue_declare(queue='', exclusive=True)
|
|
||||||
queue_name = result.method.queue
|
|
||||||
|
|
||||||
channel.queue_bind(exchange='logs', queue=queue_name)
|
|
||||||
|
|
||||||
print(' [*] Waiting for logs. To exit press CTRL+C')
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] {body}")
|
|
||||||
|
|
||||||
channel.basic_consume(
|
|
||||||
queue=queue_name, on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
@ -1,12 +0,0 @@
|
|||||||
version: '3.8'
|
|
||||||
|
|
||||||
services:
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management
|
|
||||||
container_name: rabbitmq
|
|
||||||
environment:
|
|
||||||
RABBITMQ_DEFAULT_USER: user
|
|
||||||
RABBITMQ_DEFAULT_PASS: password
|
|
||||||
ports:
|
|
||||||
- "5672:5672"
|
|
||||||
- "15672:15672"
|
|
Before Width: | Height: | Size: 38 KiB |
Before Width: | Height: | Size: 33 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 29 KiB |
Before Width: | Height: | Size: 27 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 27 KiB |
@ -1,88 +0,0 @@
|
|||||||
import random as rnd
|
|
||||||
import threading
|
|
||||||
import time
|
|
||||||
from multiprocessing import Pool
|
|
||||||
|
|
||||||
def generateSquareMatrix(size):
|
|
||||||
return [[rnd.randint(0, 100) for i in range(size)] for j in range(size)]
|
|
||||||
|
|
||||||
def printMatrix(matrix):
|
|
||||||
for row in matrix:
|
|
||||||
print(*row, sep="\t")
|
|
||||||
|
|
||||||
|
|
||||||
# Перемножение без использования потоков
|
|
||||||
def matrixMultiplyStandard(matrix1, matrix2):
|
|
||||||
l1 = len(matrix1)
|
|
||||||
l2 = len(matrix2)
|
|
||||||
global result_matrix
|
|
||||||
result = result_matrix
|
|
||||||
for i in range(l1):
|
|
||||||
for j in range(l2):
|
|
||||||
for k in range(l2):
|
|
||||||
result[i][j] += matrix1[i][k] * matrix2[k][j]
|
|
||||||
|
|
||||||
return result
|
|
||||||
|
|
||||||
result_matrix = [[0 for i in range(500)] for j in range(500)]
|
|
||||||
|
|
||||||
# Перемножение в отдельном потоке
|
|
||||||
def matrixMultiplySingleThread(args):
|
|
||||||
matrix1, matrix2, start_i, end_i = args
|
|
||||||
global result_matrix
|
|
||||||
|
|
||||||
result = result_matrix
|
|
||||||
|
|
||||||
for i in range(start_i, end_i):
|
|
||||||
for j in range(len(matrix2[0])):
|
|
||||||
for k in range(len(matrix2)):
|
|
||||||
result[i][j] += matrix1[i - start_i][k] * matrix2[k][j]
|
|
||||||
|
|
||||||
# Параллельное перемножение, использует ф-ю выше для каждого потока
|
|
||||||
def matrixMultiplyWithThreads(matrix1, matrix2, thread_count):
|
|
||||||
l1 = len(matrix1)
|
|
||||||
l2 = len(matrix2)
|
|
||||||
|
|
||||||
# Кол-во строк на последний поток, если деление по потокам будет неточным
|
|
||||||
last_rows_count = 0
|
|
||||||
|
|
||||||
if l1 % thread_count == 0:
|
|
||||||
rows_per_thread = l1 // thread_count
|
|
||||||
else:
|
|
||||||
rows_per_thread = l1 // thread_count
|
|
||||||
last_rows_count = l1 % thread_count
|
|
||||||
|
|
||||||
for i in range(thread_count):
|
|
||||||
start_i = i * rows_per_thread
|
|
||||||
|
|
||||||
if (i - 1) == thread_count and last_rows_count > 0:
|
|
||||||
end_i = start_i + last_rows_count
|
|
||||||
else:
|
|
||||||
end_i = start_i + rows_per_thread
|
|
||||||
|
|
||||||
args = []
|
|
||||||
args.append((matrix1[start_i:end_i], matrix2, start_i, end_i))
|
|
||||||
with Pool(processes = thread_count) as pool:
|
|
||||||
pool.map(matrixMultiplySingleThread, args)
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
|
|
||||||
sizes = [100, 300, 500]
|
|
||||||
num_threads = [1, 5, 8, 12]
|
|
||||||
|
|
||||||
for size in sizes:
|
|
||||||
matrix1 = generateSquareMatrix(size)
|
|
||||||
matrix2 = generateSquareMatrix(size)
|
|
||||||
start_time = time.time()
|
|
||||||
matrixMultiplyStandard(matrix1, matrix2)
|
|
||||||
end_time = time.time()
|
|
||||||
print(f"Standard size {size}: {end_time - start_time}s")
|
|
||||||
|
|
||||||
for threads in num_threads:
|
|
||||||
start_time = time.time()
|
|
||||||
matrixMultiplyWithThreads(matrix1, matrix2, threads)
|
|
||||||
end_time = time.time()
|
|
||||||
print(f"Parallel size {size}, {threads} thread(s): {end_time - start_time}s")
|
|
||||||
|
|
||||||
print("-" * 100)
|
|
@ -1,18 +0,0 @@
|
|||||||
# Богданов Дмитрий ПИбд-42
|
|
||||||
# Лабораторная работа №5
|
|
||||||
|
|
||||||
|
|
||||||
## Функционал:
|
|
||||||
- Были созданы методы генерации и отображения матриц заданного размера
|
|
||||||
- Былы созданы методы для параллельного умножения матриц с использованием Pool
|
|
||||||
- Был написан код для бенчмаркинга стандартного и параллельного перемножений
|
|
||||||
|
|
||||||
## Результаты выполнения:
|
|
||||||
|
|
||||||
![изображение 1](./images/Screenshot_1.png)
|
|
||||||
|
|
||||||
### Вывод:
|
|
||||||
Использование нескольких потоков приносит значительный выигрыш только на крупных матрицах, в то время как на матрицах меньшего размера больше времени уходит на менеджмент потоков. Это особенно заметно при сравнении результатов выполнения вычислений на матрице размером 100х100.
|
|
||||||
|
|
||||||
|
|
||||||
## [Видео](https://drive.google.com/file/d/1iPfLjzLiWwmszPH_KJ40vFCX-iWDLm1S/view?usp=sharing)
|
|
Before Width: | Height: | Size: 63 KiB |
@ -1,20 +0,0 @@
|
|||||||
# PostgreSQL конфигурация
|
|
||||||
POSTGRES_DB=mediawiki
|
|
||||||
POSTGRES_USER=wikiuser
|
|
||||||
POSTGRES_PASSWORD=secret
|
|
||||||
|
|
||||||
# MediaWiki конфигурация
|
|
||||||
MEDIAWIKI_DB_NAME=mediawiki
|
|
||||||
MEDIAWIKI_DB_USER=wikiuser
|
|
||||||
MEDIAWIKI_DB_PASSWORD=secret
|
|
||||||
|
|
||||||
# WordPress конфигурация
|
|
||||||
WORDPRESS_DB_NAME=wordpress
|
|
||||||
WORDPRESS_DB_USER=wpuser
|
|
||||||
WORDPRESS_DB_PASSWORD=secret
|
|
||||||
|
|
||||||
# Порты
|
|
||||||
MEDIAWIKI_PORT=8080
|
|
||||||
WORDPRESS_PORT=8081
|
|
||||||
GITEA_WEB_PORT=3000
|
|
||||||
GITEA_SSH_PORT=222
|
|
0
bondarenko_max_lab_1/.gitignore
vendored
@ -1,33 +0,0 @@
|
|||||||
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
|
||||||
### ПИбд-42 || Бондаренко Максим
|
|
||||||
|
|
||||||
# Описание работы
|
|
||||||
|
|
||||||
> Цель
|
|
||||||
Изучение современных технологий контейнеризации.
|
|
||||||
|
|
||||||
> Задачи
|
|
||||||
1. Установка Docker Desktop.
|
|
||||||
2. Принципы Docker.
|
|
||||||
3. Изучение Docker Compose.
|
|
||||||
4. Разворачивание сервисов.
|
|
||||||
5. Оформление отчёта.
|
|
||||||
|
|
||||||
> Ход выполнения работы
|
|
||||||
1. Открыть документацию docker и страницу на habr
|
|
||||||
2. Скачать и установить docker desktop
|
|
||||||
3. Смотрим на docker hub как поднять с помощью docker-compose -> gitea, mediawiki, postgresql
|
|
||||||
4. Запускаем в терминале 'docker-compose up'
|
|
||||||
4. Исправляем ошибки
|
|
||||||
5. Записываем видео
|
|
||||||
6. pushим ветку на git
|
|
||||||
7. кидаем mrку (merge request)
|
|
||||||
|
|
||||||
> Инструкция по запуску
|
|
||||||
1. Скачать и установить Docker, если ещё не сделано
|
|
||||||
2. Перейти в bondarenko_max_lab_1 (cd ./bondarenko_max_lab_1/)
|
|
||||||
3. Выполнить в терминале 'docker-compose up'
|
|
||||||
4. Проверить порты, на которых docker поднял контейнеры
|
|
||||||
|
|
||||||
> Видео демонстрация работы
|
|
||||||
https://cloud.mail.ru/public/xHc2/JorYr5nDg
|
|
@ -1,46 +0,0 @@
|
|||||||
# Версия файла docker-compose, которую мы используем
|
|
||||||
version: '3.8'
|
|
||||||
|
|
||||||
# Определение сервисов
|
|
||||||
# Все последующие готовые образы в services будут взяты с Docker Hub -> image: название:версия
|
|
||||||
# Далее в services будут использоваться переменные окружения из .env -> ${Переменная_среды}
|
|
||||||
# Схема пробросов портов -> ports: внешний порт на хосте:внутренний порт в контейнере
|
|
||||||
services:
|
|
||||||
db:
|
|
||||||
image: postgres:latest # Готовый образ postgres
|
|
||||||
environment:
|
|
||||||
- POSTGRES_DB=${POSTGRES_DB} # Имя БД
|
|
||||||
- POSTGRES_USER=${POSTGRES_USER} # Пользователь БД
|
|
||||||
- POSTGRES_PASSWORD=${POSTGRES_PASSWORD} # Пароль пользователя БД
|
|
||||||
volumes:
|
|
||||||
- db_data:/var/lib/postgresql/data # Монтирование volume для постоянного хранения данных БД
|
|
||||||
|
|
||||||
mediawiki:
|
|
||||||
image: mediawiki:latest # Готовый образ mediawiki
|
|
||||||
ports:
|
|
||||||
- "${MEDIAWIKI_PORT}:80" # Проброс порта
|
|
||||||
volumes:
|
|
||||||
- mediawiki_data:/var/www/html # Монтирование volume для постоянного хранения данных
|
|
||||||
environment:
|
|
||||||
- MEDIAWIKI_DB_HOST=db # Хост БД
|
|
||||||
- MEDIAWIKI_DB_NAME=${MEDIAWIKI_DB_NAME} # Имя БД для MediaWiki
|
|
||||||
- MEDIAWIKI_DB_USER=${MEDIAWIKI_DB_USER} # Пользователь БД
|
|
||||||
- MEDIAWIKI_DB_PASSWORD=${MEDIAWIKI_DB_PASSWORD} # Пароль пользователя БД
|
|
||||||
|
|
||||||
gitea:
|
|
||||||
image: gitea/gitea:latest # Готовый образ gitea
|
|
||||||
ports:
|
|
||||||
- "${GITEA_WEB_PORT}:3000" # Проброс веб-порта
|
|
||||||
- "${GITEA_SSH_PORT}:22" # Проброс SSH-порта
|
|
||||||
volumes:
|
|
||||||
- gitea_data:/data # Монтирование volume для постоянного хранения данных
|
|
||||||
environment:
|
|
||||||
- USER_UID=1000 # UID пользователя внутри контейнера
|
|
||||||
- USER_GID=1000 # GID пользователя внутри контейнера
|
|
||||||
|
|
||||||
# Определение volumes для хранения данных вне контейнеров
|
|
||||||
volumes:
|
|
||||||
mediawiki_data:
|
|
||||||
wordpress_data:
|
|
||||||
gitea_data:
|
|
||||||
db_data:
|
|
@ -1,26 +0,0 @@
|
|||||||
# Отчет. Лабораторная работа 6
|
|
||||||
|
|
||||||
## Описание
|
|
||||||
В рамках лабораторной работы была реализована программа, которая производит вычисление детерминанта матрицы
|
|
||||||
с применением последовательного и паралелльного алгоритма.
|
|
||||||
|
|
||||||
В качестве способа нахождения определителя матрицы был выбран алгоритм нахождения путем разложения по столбцу (строке).
|
|
||||||
При данном подходе определитель находится как сумма произведений элементов выбранной строки на их алгебраические дополнения.
|
|
||||||
Была произведена небольшая оптимизация алгоритма - выбор строки для разложения основывался на количестве нулевых элементов в ней.
|
|
||||||
Чем больше нулей в строке - тем меньше будет выполняться подзадач в алгоритме.
|
|
||||||
|
|
||||||
Результаты представлены на следующих изображениях:
|
|
||||||
|
|
||||||
![results](images/results.PNG)
|
|
||||||
|
|
||||||
Как мы можем увидеть, производительность паралелльной реализации на маленьких матрицах ниже, чем у последовательного подхода,
|
|
||||||
это связано с дополнительными действиями по созданию и управлению потоками. Однако с увеличением размера матриц мы можем
|
|
||||||
наблюдать увеличение производительности. Но на больших размерах (от 12х12) матриц алгоритм становится довольно медленным
|
|
||||||
вне зависимости от применения многопоточности.
|
|
||||||
|
|
||||||
## Как запустить
|
|
||||||
Необходимо иметь установленную JDK 21. Можно воспользоваться встроенным в нее компилятором (javac), а затем запустить исполняемый файл (java)
|
|
||||||
или запускать из среды разработки.
|
|
||||||
|
|
||||||
## Видео-отчет
|
|
||||||
Работоспособность лабораторной работы можно оценить в следующем [видео](https://disk.yandex.ru/i/-sWDKdW3Q-vbHg).
|
|
Before Width: | Height: | Size: 62 KiB |
38
borschevskaya_anna_lab_6/matrix-det/.gitignore
vendored
@ -1,38 +0,0 @@
|
|||||||
target/
|
|
||||||
!.mvn/wrapper/maven-wrapper.jar
|
|
||||||
!**/src/main/**/target/
|
|
||||||
!**/src/test/**/target/
|
|
||||||
|
|
||||||
### IntelliJ IDEA ###
|
|
||||||
.idea/modules.xml
|
|
||||||
.idea/jarRepositories.xml
|
|
||||||
.idea/compiler.xml
|
|
||||||
.idea/libraries/
|
|
||||||
*.iws
|
|
||||||
*.iml
|
|
||||||
*.ipr
|
|
||||||
|
|
||||||
### Eclipse ###
|
|
||||||
.apt_generated
|
|
||||||
.classpath
|
|
||||||
.factorypath
|
|
||||||
.project
|
|
||||||
.settings
|
|
||||||
.springBeans
|
|
||||||
.sts4-cache
|
|
||||||
|
|
||||||
### NetBeans ###
|
|
||||||
/nbproject/private/
|
|
||||||
/nbbuild/
|
|
||||||
/dist/
|
|
||||||
/nbdist/
|
|
||||||
/.nb-gradle/
|
|
||||||
build/
|
|
||||||
!**/src/main/**/build/
|
|
||||||
!**/src/test/**/build/
|
|
||||||
|
|
||||||
### VS Code ###
|
|
||||||
.vscode/
|
|
||||||
|
|
||||||
### Mac OS ###
|
|
||||||
.DS_Store
|
|
@ -1,17 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project xmlns="http://maven.apache.org/POM/4.0.0"
|
|
||||||
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
|
|
||||||
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
|
|
||||||
<modelVersion>4.0.0</modelVersion>
|
|
||||||
|
|
||||||
<groupId>ru.uni.rvip</groupId>
|
|
||||||
<artifactId>matrix-det</artifactId>
|
|
||||||
<version>1.0-SNAPSHOT</version>
|
|
||||||
|
|
||||||
<properties>
|
|
||||||
<maven.compiler.source>21</maven.compiler.source>
|
|
||||||
<maven.compiler.target>21</maven.compiler.target>
|
|
||||||
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
|
|
||||||
</properties>
|
|
||||||
|
|
||||||
</project>
|
|
@ -1,155 +0,0 @@
|
|||||||
package ru.uni.rvip;
|
|
||||||
|
|
||||||
import java.util.ArrayList;
|
|
||||||
import java.util.Arrays;
|
|
||||||
import java.util.Comparator;
|
|
||||||
import java.util.Random;
|
|
||||||
import java.util.concurrent.ExecutionException;
|
|
||||||
import java.util.concurrent.ExecutorService;
|
|
||||||
import java.util.concurrent.Executors;
|
|
||||||
import java.util.concurrent.Future;
|
|
||||||
import java.util.stream.IntStream;
|
|
||||||
|
|
||||||
public class Main {
|
|
||||||
|
|
||||||
private static final ExecutorService executor = Executors.newFixedThreadPool(8);
|
|
||||||
|
|
||||||
public static void main(String[] args) {
|
|
||||||
int size = 12;
|
|
||||||
|
|
||||||
for (int i = 5; i <= size; i += 2) {
|
|
||||||
System.out.printf("Размер матриц %dx%d\n", i, i);
|
|
||||||
|
|
||||||
var matrix = createRandomMatrix(i);
|
|
||||||
|
|
||||||
var startTime = System.currentTimeMillis();
|
|
||||||
var result = findDeterminant(matrix);
|
|
||||||
var timeOfExecution = System.currentTimeMillis() - startTime;
|
|
||||||
System.out.printf("Детерминант матрицы = %f\n", result);
|
|
||||||
System.out.printf("Время нахождения детерминанта с помощью последовательного алгоритма: %d ms\n", timeOfExecution);
|
|
||||||
|
|
||||||
startTime = System.currentTimeMillis();
|
|
||||||
findDeterminantParallel(matrix);
|
|
||||||
timeOfExecution = System.currentTimeMillis() - startTime;
|
|
||||||
System.out.printf("Время нахождения детерминанта с помощью параллельного алгоритма: %d ms\n", timeOfExecution);
|
|
||||||
}
|
|
||||||
executor.shutdown();
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double findDeterminant(double[][] matrix) {
|
|
||||||
int rows = matrix.length;
|
|
||||||
int n = matrix[0].length;
|
|
||||||
if (rows == n && rows == 1) {
|
|
||||||
return matrix[0][0];
|
|
||||||
}
|
|
||||||
if (rows == n && rows == 2) {
|
|
||||||
return matrix[0][0] * matrix[1][1] - matrix[0][1] * matrix[1][0];
|
|
||||||
}
|
|
||||||
|
|
||||||
if (rows == n && rows == 3) {
|
|
||||||
return matrix[0][0] * matrix[1][1] * matrix[2][2] + matrix[0][1] * matrix[1][2] * matrix[2][0] + matrix[0][2] * matrix[1][0] * matrix[2][1]
|
|
||||||
- (matrix[0][2] * matrix[1][1] * matrix[2][0] + matrix[1][0] * matrix[0][1] * matrix[2][2] + matrix[0][0] * matrix[1][2] * matrix[2][1]);
|
|
||||||
}
|
|
||||||
double[][] temporary;
|
|
||||||
double det = 0;
|
|
||||||
// поиск наиболее подходящей строки
|
|
||||||
int indexWithMaxZeros = IntStream.range(0, matrix.length)
|
|
||||||
.boxed()
|
|
||||||
.max(Comparator.comparingInt(i ->
|
|
||||||
(int) Arrays.stream(matrix[i]).filter(x -> x == 0).count()))
|
|
||||||
.orElse(-1);
|
|
||||||
|
|
||||||
double[] maxZerosCountRow = matrix[indexWithMaxZeros];
|
|
||||||
|
|
||||||
|
|
||||||
for (int i = 0; i < n; i++) {
|
|
||||||
if (maxZerosCountRow[i] > 0) {
|
|
||||||
temporary = getSubmatrix(matrix, rows, n, i, indexWithMaxZeros);
|
|
||||||
det += maxZerosCountRow[i] * Math.pow(-1, i) * findDeterminant(temporary);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
return det;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double findDeterminantParallel(double[][] matrix) {
|
|
||||||
int rows = matrix.length;
|
|
||||||
int n = matrix[0].length;
|
|
||||||
if (rows == n && rows == 1) {
|
|
||||||
return matrix[0][0];
|
|
||||||
}
|
|
||||||
if (rows == n && rows == 2) {
|
|
||||||
return matrix[0][0] * matrix[1][1] - matrix[0][1] * matrix[1][0];
|
|
||||||
}
|
|
||||||
if (rows == n && rows == 3) {
|
|
||||||
return matrix[0][0] * matrix[1][1] * matrix[2][2] + matrix[0][1] * matrix[1][2] * matrix[2][0] + matrix[0][2] * matrix[1][0] * matrix[2][1]
|
|
||||||
- (matrix[0][2] * matrix[1][1] * matrix[2][0] + matrix[1][0] * matrix[0][1] * matrix[2][2] + matrix[0][0] * matrix[1][2] * matrix[2][1]);
|
|
||||||
}
|
|
||||||
double det = 0;
|
|
||||||
// поиск наиболее подходящей строки
|
|
||||||
int indexWithMaxZeros = IntStream.range(0, matrix.length)
|
|
||||||
.boxed()
|
|
||||||
.max(Comparator.comparingInt(i ->
|
|
||||||
(int) Arrays.stream(matrix[i]).filter(x -> x == 0).count()))
|
|
||||||
.orElse(-1);
|
|
||||||
|
|
||||||
double[] maxZerosCountRow = matrix[indexWithMaxZeros];
|
|
||||||
var futures = new ArrayList<Future<Double>>();
|
|
||||||
for (int i = 0; i < n; i++) {
|
|
||||||
// нахождение подматрицы
|
|
||||||
final var finalRow = i;
|
|
||||||
|
|
||||||
futures.add(executor.submit(() -> {
|
|
||||||
final var temporary = getSubmatrix(matrix, rows, n, finalRow, indexWithMaxZeros);
|
|
||||||
return maxZerosCountRow[finalRow] * Math.pow(-1, finalRow) * findDeterminant(temporary);
|
|
||||||
}));
|
|
||||||
}
|
|
||||||
|
|
||||||
try {
|
|
||||||
for (var future : futures) {
|
|
||||||
det += future.get();
|
|
||||||
}
|
|
||||||
} catch (InterruptedException | ExecutionException e) {
|
|
||||||
System.out.println("Возникла ошибка во время многопоточного нахождения определителя матрицы");
|
|
||||||
return -1;
|
|
||||||
}
|
|
||||||
return det;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double[][] getSubmatrix(double[][] matrix, int rows, int n, int col, int row) {
|
|
||||||
final var temporary = new double[rows - 1][n - 1];
|
|
||||||
for (int j = 0; j < rows; j++) {
|
|
||||||
if (j == row) continue;
|
|
||||||
|
|
||||||
for (int k = 0; k < n; k++) {
|
|
||||||
if (k == col) continue;
|
|
||||||
|
|
||||||
//temporary[j][k] = matrix[j][k];
|
|
||||||
temporary[j < row ? j : j - 1][k < col ? k : k - 1] = matrix[j][k];
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return temporary;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double[][] createRandomMatrix(Integer size) {
|
|
||||||
var matrix = new double[size][size];
|
|
||||||
var random = new Random();
|
|
||||||
for (var i = 0; i < size; i++) {
|
|
||||||
for (var j = 0; j < size; j++) {
|
|
||||||
matrix[i][j] = random.nextInt(50);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return matrix;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static void printMatrix(double[][] matrix) {
|
|
||||||
for (double[] ints : matrix) {
|
|
||||||
for (double elem : ints) {
|
|
||||||
System.out.printf("%5f\t", elem);
|
|
||||||
}
|
|
||||||
System.out.println();
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
@ -1,37 +0,0 @@
|
|||||||
# Отчет. Лабораторная работа 7
|
|
||||||
|
|
||||||
## Балансировка нагрузки в распределённых системах при помощи открытых технологий на примерах
|
|
||||||
|
|
||||||
### Какие алгоритмы и методы используются для балансировки нагрузки?
|
|
||||||
В распределенных системах балансировка нагрузки может осуществляться на разных уровнях:
|
|
||||||
- балансировка нагрузки на сетевом уровне
|
|
||||||
- балансировка нагрузки на транспортном уровне
|
|
||||||
- балансировка нагрузки на прикладном уровне
|
|
||||||
|
|
||||||
На сетевом уровне балансировка может реализовываться с помощью таких алгоритмов, как Round Robin, Weighted Round Robin или Least Connections.
|
|
||||||
Алгоритм Round Robin основывается на принципе выделения одному доменному имени несколько IP, которые выбираются
|
|
||||||
при поступлении запроса по очереди.
|
|
||||||
|
|
||||||
Weighted Round Robin - усовершенствованный алгоритм Round Robin, который подразумевает указание весов каждому серверу
|
|
||||||
в зависимости от доступных мощностей.
|
|
||||||
|
|
||||||
Алгоритм Least Connections вносит в предыдущий алгоритм еще одно условие выбора сервера - количество активных подключений к нему,
|
|
||||||
избегая перегруженности имеющихся узлов.
|
|
||||||
|
|
||||||
### Какие открытые технологии существуют для балансировки нагрузки?
|
|
||||||
Среди самых популярных открытых технологий можно выделить Nginx и Kubernetes. Nginx позволяет управлять нагрузкой на
|
|
||||||
компоненты системы с помощью различных алгоритмов и перенаправляет запросы от клиента к сервисам, выстпая в качестве реверс-прокси.
|
|
||||||
Kubernetes представляет собой платформу для управления контейнерами, которая включает встроенные механизмы для балансировки
|
|
||||||
нагрузки между подами.
|
|
||||||
### Как осуществляется балансировка нагрузки на базах данных?
|
|
||||||
|
|
||||||
Можно уменьшить нагрузку на базу данных путем использования механизма кэширования на уровне приложения
|
|
||||||
или с помощью нереляционных БД (Redis и др.). Или с помощью шардирования данных, размещенных в базе.
|
|
||||||
|
|
||||||
Для балансировки нагрузки на базах данных на прикладном уровне, например, существует утилита pgpool —
|
|
||||||
прокси между клиентом и сервером СУБД PostgreSQL, с помощью которого задаются правила перенаправления
|
|
||||||
запросов к БД в зависимости от их содержания (чтение/запись).
|
|
||||||
### Реверс-прокси как один из элементов балансировки нагрузки.
|
|
||||||
Реверс-прокси перенаправляет входящие запросы на соотвествующие сервисы, может выступать при этом и в качестве балансировщика нагрузки, реализуя один из ранее озвученных алгоритмов.
|
|
||||||
Как уже было сказано, примером такого компонента РС может выступать Nginx, в котором с помощью настройки конфигурационного файла можно указать как настройки проксирования,
|
|
||||||
так и добавить логику балансировки.
|
|
@ -1,30 +0,0 @@
|
|||||||
# Отчет. Лабораторная работа 8
|
|
||||||
|
|
||||||
### Популярность распределенных систем (РС)
|
|
||||||
Распределенные системы обладают рядом преимуществ, которые побуждают разработчиков адаптировать уже существующие решения к такой архитектуре (и переписывать монолит на микросервисы).
|
|
||||||
Данный подход позволяет сделать систему более отказоустойчивой, так как её компоненты становятся независимыми друг от друга.
|
|
||||||
Особенно это важно для сложных систем, для которых появляется возможность масштабировать отдельные узлы РС.
|
|
||||||
Также при разработке распределенных систем удобно распределяются задачи между командами разработки и есть возможность
|
|
||||||
использовать свой стек технологий для каждого сервиса.
|
|
||||||
|
|
||||||
### Системы оркестрации
|
|
||||||
Системы оркестрации автоматизируют развертывание, масштабирование и управление контейнерами, что значительно упрощает
|
|
||||||
разработку и сопровождение. Однако вместе с тем они накладывают определенные требования к участникам команды разработки,
|
|
||||||
которым необходимо иметь хотя бы базовые знания об используемой технологии.
|
|
||||||
|
|
||||||
### Очереди сообщений
|
|
||||||
Очереди обработки сообщений позволяют организовать асинхронное взаимодействие между компонентами системы.
|
|
||||||
Такой подход важен, если процесс при отправке сообщения не должен блокироваться, а ответ необязательно должен быть
|
|
||||||
получен и обработан мгновенно. Сообщения, которые передаются по очередям, могут быть некоторыми событиями или командами,
|
|
||||||
на которые могут отреагировать сразу несколько сервисов, подписанных на очередь.
|
|
||||||
|
|
||||||
### Преимущества и недостатки РС
|
|
||||||
К преимуществам РС, как уже было сказано выше, можно отнести масштабируемость, отказоустойчивость, гибкость внедрения новых функциональностей,
|
|
||||||
а к недостаткам - сложности отладки возникающих проблем и тестирования,
|
|
||||||
возникающие сетевые задержки при прохождении запроса через несколько сервисов.
|
|
||||||
|
|
||||||
### Параллелизм: за и против
|
|
||||||
Параллельные вычисления нужно применять там, где это действительно нужно. Например, при обработке больших данных, при возможности
|
|
||||||
разбиения задачи на несколько независимых подзадач.
|
|
||||||
Однако в случаях, где важна последовательность операций,
|
|
||||||
параллелизм может привести к усложнению логики приложения и ошибкам, а при малом объеме данных для обработки параллелизм может только ухудшить производительность.
|
|
38
dozorova_alena_lab_5/.gitignore
vendored
@ -1,38 +0,0 @@
|
|||||||
|
|
||||||
/dozorova_alena_lab_2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/obj
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/Properties/PublishProfiles
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
|
||||||
/dozorova_alena_lab_5/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_5/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_5/ConsoleApp1/obj
|
|
||||||
/dozorova_alena_lab_3/PostService/.vs
|
|
||||||
/dozorova_alena_lab_3/WorkerService/.vs
|
|
||||||
/dozorova_alena_lab_4/Receive/bin
|
|
||||||
/dozorova_alena_lab_4/Receive/obj
|
|
||||||
/dozorova_alena_lab_4/Send/bin
|
|
||||||
/dozorova_alena_lab_4/Send/obj
|
|
||||||
/dozorova_alena_lab_4/EmitLog/.vs
|
|
||||||
/dozorova_alena_lab_4/EmitLog/obj
|
|
||||||
/dozorova_alena_lab_4/NewTask/.vs
|
|
||||||
/dozorova_alena_lab_4/NewTask/bin
|
|
||||||
/dozorova_alena_lab_4/NewTask/obj
|
|
||||||
/dozorova_alena_lab_4/ReceiveLogs/obj
|
|
||||||
/dozorova_alena_lab_4/Worker/.vs
|
|
||||||
/dozorova_alena_lab_4/Worker/bin
|
|
||||||
/dozorova_alena_lab_4/Worker/obj
|
|
||||||
/dozorova_alena_lab_4/EmitLog/bin
|
|
||||||
/dozorova_alena_lab_4/ReceiveLogs/.vs
|
|
||||||
/dozorova_alena_lab_4/ReceiveLogs/bin
|
|
||||||
/dozorova_alena_lab_4/ConsumerDelay/.vs
|
|
||||||
/dozorova_alena_lab_4/ConsumerDelay/obj
|
|
||||||
/dozorova_alena_lab_4/ConsumerDelay/Properties
|
|
||||||
/dozorova_alena_lab_4/ConsumerSimple/.vs
|
|
||||||
/dozorova_alena_lab_4/ConsumerSimple/obj
|
|
||||||
/dozorova_alena_lab_4/Publisher/.vs
|
|
||||||
/dozorova_alena_lab_4/Publisher/bin
|
|
||||||
/dozorova_alena_lab_4/Publisher/objs
|
|
@ -1,10 +0,0 @@
|
|||||||
<Project Sdk="Microsoft.NET.Sdk">
|
|
||||||
|
|
||||||
<PropertyGroup>
|
|
||||||
<OutputType>Exe</OutputType>
|
|
||||||
<TargetFramework>net6.0</TargetFramework>
|
|
||||||
<ImplicitUsings>enable</ImplicitUsings>
|
|
||||||
<Nullable>enable</Nullable>
|
|
||||||
</PropertyGroup>
|
|
||||||
|
|
||||||
</Project>
|
|
@ -1,25 +0,0 @@
|
|||||||
|
|
||||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
|
||||||
# Visual Studio Version 17
|
|
||||||
VisualStudioVersion = 17.10.35004.147
|
|
||||||
MinimumVisualStudioVersion = 10.0.40219.1
|
|
||||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsoleApp1", "ConsoleApp1.csproj", "{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}"
|
|
||||||
EndProject
|
|
||||||
Global
|
|
||||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
|
||||||
Debug|Any CPU = Debug|Any CPU
|
|
||||||
Release|Any CPU = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
|
||||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
|
||||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
|
||||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
|
||||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Release|Any CPU.Build.0 = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(SolutionProperties) = preSolution
|
|
||||||
HideSolutionNode = FALSE
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
|
||||||
SolutionGuid = {1501FAF9-199B-40BA-9918-AC5952D318BE}
|
|
||||||
EndGlobalSection
|
|
||||||
EndGlobal
|
|
@ -1,84 +0,0 @@
|
|||||||
|
|
||||||
using System.Diagnostics;
|
|
||||||
internal class Program
|
|
||||||
{
|
|
||||||
private static void Main(string[] args)
|
|
||||||
{
|
|
||||||
Console.WriteLine("");
|
|
||||||
|
|
||||||
var value = new int[] { 100, 300, 500 };
|
|
||||||
|
|
||||||
foreach (var i in value)
|
|
||||||
{
|
|
||||||
var a = Create(i, i);
|
|
||||||
var b = Create(i, i);
|
|
||||||
|
|
||||||
List<long> times = new() {};
|
|
||||||
|
|
||||||
for (int j = 1; j <= 10; j++)
|
|
||||||
{
|
|
||||||
var sw = new Stopwatch();
|
|
||||||
sw.Start();
|
|
||||||
|
|
||||||
MultiplyCreateTask(a, b, j);
|
|
||||||
|
|
||||||
sw.Stop();
|
|
||||||
times.Add(sw.ElapsedMilliseconds);
|
|
||||||
}
|
|
||||||
Console.WriteLine("Результаты вычисления для количества потоков от 1 до 5 для матрицы cо стороной "+i+": "+string.Join("\t", times));
|
|
||||||
}
|
|
||||||
|
|
||||||
}
|
|
||||||
|
|
||||||
private static int[,] Create(int x, int y)
|
|
||||||
{
|
|
||||||
var rnd = new Random();
|
|
||||||
|
|
||||||
var res = new int[y, x];
|
|
||||||
|
|
||||||
for (int i = 0; i < y; i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < x; j++)
|
|
||||||
{
|
|
||||||
res[i, j] = rnd.Next(0, 100);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static int[,] MultiplyCreateTask(int[,] matrix1, int[,] matrix2, int maxCount)
|
|
||||||
{
|
|
||||||
int[,] res = new int[matrix1.GetLength(0), matrix2.GetLength(1)];
|
|
||||||
|
|
||||||
var semaphore = new SemaphoreSlim(maxCount, maxCount);
|
|
||||||
|
|
||||||
for (int i = 0; i < matrix1.GetLength(0); i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < matrix2.GetLength(1); j++)
|
|
||||||
{
|
|
||||||
int ci = i;
|
|
||||||
int cj = j;
|
|
||||||
|
|
||||||
var task = Task.Run(() =>
|
|
||||||
{
|
|
||||||
try
|
|
||||||
{
|
|
||||||
semaphore.Wait();
|
|
||||||
|
|
||||||
res[ci, cj] = CalculateValue(matrix1, matrix2, ci, cj);
|
|
||||||
}
|
|
||||||
finally
|
|
||||||
{
|
|
||||||
semaphore.Release();
|
|
||||||
}
|
|
||||||
});
|
|
||||||
|
|
||||||
}
|
|
||||||
}
|
|
||||||
semaphore.Wait(maxCount);
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static int CalculateValue(int[,] matrix1, int[,] matrix2, int i, int j)
|
|
||||||
=> Enumerable.Range(0, matrix1.GetLength(1)).Sum(k => matrix1[i, k] * matrix2[k, j]);
|
|
||||||
}
|
|
@ -1,24 +0,0 @@
|
|||||||
# Лабораторная работа 5
|
|
||||||
В рамках этой работы проверяется скорость расчета умножения двух матриц в некоторое количество потоков
|
|
||||||
## Описание
|
|
||||||
Основной принцип умножения матриц: строки умножаются на столбцы, таким образом получаются элементы. Для распараллеливания этого процесса вычисление некоторых объектов матрицы выносят в отдельные потоки, которые работают параллельно
|
|
||||||
|
|
||||||
## Запуск
|
|
||||||
Для проверки гипотезы и реализации параллельного умножения в консоли на языке c# был реализован тестовый контур: для каждого вида матриц (100*100, 300*300 и 500*500) запускался процесс вычисления произведения в количестве потоков от 1 до 5 с использованием SsemaphoreSlim, который контролировал выполнение в заданном количестве потоков. Для каждого вычисления засекалось время в миллисекундах.
|
|
||||||
## Результаты
|
|
||||||
Что мы получили
|
|
||||||
<br/>
|
|
||||||
![Результаты вычислений 1](image.png)
|
|
||||||
<br/>
|
|
||||||
Результаты спорные, так как при повышении количества потоков нельзя сказать, что повышается скорость вычислений. Это связано с тем, что работа с потоками сама по сбе требует ресурсов и времени.
|
|
||||||
Повысим количестов потоков до 10:
|
|
||||||
<br/>
|
|
||||||
![Результаты вычислений 2](image-1.png)
|
|
||||||
<br/>
|
|
||||||
Для небольшой матрицы видна разница в сравнении с прошлым результатом, но не так сильно, как для больших. Повышение количества потоков позволило существенно сократить время вычислений
|
|
||||||
|
|
||||||
## Видеодемонстрация
|
|
||||||
Видедемонстрация по [адресу](https://drive.google.com/file/d/1mxhCsjLPg2zY7lnCj7sLxr5lDJQJX9xr/view?usp=sharing)
|
|
||||||
|
|
||||||
|
|
||||||
|
|
Before Width: | Height: | Size: 24 KiB |
Before Width: | Height: | Size: 21 KiB |
12
dozorova_alena_lab_6/.gitignore
vendored
@ -1,12 +0,0 @@
|
|||||||
|
|
||||||
/dozorova_alena_lab_2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/obj
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/Properties/PublishProfiles
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/obj
|
|
@ -1,10 +0,0 @@
|
|||||||
<Project Sdk="Microsoft.NET.Sdk">
|
|
||||||
|
|
||||||
<PropertyGroup>
|
|
||||||
<OutputType>Exe</OutputType>
|
|
||||||
<TargetFramework>net6.0</TargetFramework>
|
|
||||||
<ImplicitUsings>enable</ImplicitUsings>
|
|
||||||
<Nullable>enable</Nullable>
|
|
||||||
</PropertyGroup>
|
|
||||||
|
|
||||||
</Project>
|
|
@ -1,25 +0,0 @@
|
|||||||
|
|
||||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
|
||||||
# Visual Studio Version 17
|
|
||||||
VisualStudioVersion = 17.10.35004.147
|
|
||||||
MinimumVisualStudioVersion = 10.0.40219.1
|
|
||||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsoleApp1", "ConsoleApp1.csproj", "{29269567-7466-4C99-BEEF-F5766BDDFB24}"
|
|
||||||
EndProject
|
|
||||||
Global
|
|
||||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
|
||||||
Debug|Any CPU = Debug|Any CPU
|
|
||||||
Release|Any CPU = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.Build.0 = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(SolutionProperties) = preSolution
|
|
||||||
HideSolutionNode = FALSE
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
|
||||||
SolutionGuid = {EDED6E1D-0A86-43F9-94EA-6ADCC1FA1B42}
|
|
||||||
EndGlobalSection
|
|
||||||
EndGlobal
|
|
@ -1,55 +0,0 @@
|
|||||||
using System;
|
|
||||||
using System.Collections.Generic;
|
|
||||||
using System.Linq;
|
|
||||||
using System.Numerics;
|
|
||||||
using System.Text;
|
|
||||||
using System.Threading.Tasks;
|
|
||||||
|
|
||||||
namespace ConsoleApp1
|
|
||||||
{
|
|
||||||
public static class Extention
|
|
||||||
{
|
|
||||||
public static int[,] CreateMatrixWithoutColumn(this int[,] matrix, int column)
|
|
||||||
{
|
|
||||||
var result = new int[matrix.GetLength(0), matrix.GetLength(1) - 1];
|
|
||||||
for (int i = 0; i < matrix.GetLength(0); i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < matrix.GetLength(1) - 1; j++)
|
|
||||||
{
|
|
||||||
result[i, j] = j < column ? matrix[i, j] : matrix[i, j + 1];
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
|
|
||||||
public static int[,] CreateMatrixWithoutRow(this int[,] matrix, int row)
|
|
||||||
{
|
|
||||||
var result = new int[matrix.GetLength(0) - 1, matrix.GetLength(1)];
|
|
||||||
for (int i = 0; i < matrix.GetLength(0) - 1; i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < matrix.GetLength(1); j++)
|
|
||||||
{
|
|
||||||
result[i, j] = i < row ? matrix[i, j] : matrix[i + 1, j];
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
|
|
||||||
public static double CalculateDeterminant(this int[,] matrix)
|
|
||||||
{
|
|
||||||
if (matrix.GetLength(0) == 2)
|
|
||||||
{
|
|
||||||
return matrix[0, 0] * matrix[1, 1] - matrix[0, 1] * matrix[1, 0];
|
|
||||||
}
|
|
||||||
double result = 0;
|
|
||||||
for (var j = 0; j < matrix.GetLength(0); j++)
|
|
||||||
{
|
|
||||||
result += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
|
||||||
matrix.CreateMatrixWithoutColumn(j).CreateMatrixWithoutRow(1).CalculateDeterminant();
|
|
||||||
}
|
|
||||||
//Console.WriteLine("Ко мне пришли с размером " + matrix.GetLength(0));
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,87 +0,0 @@
|
|||||||
|
|
||||||
using ConsoleApp1;
|
|
||||||
using System.Data.Common;
|
|
||||||
using System.Diagnostics;
|
|
||||||
internal class Program
|
|
||||||
{
|
|
||||||
private static void Main(string[] args)
|
|
||||||
{
|
|
||||||
var value = new int[3] {100, 300, 500 };
|
|
||||||
|
|
||||||
foreach(var i in value)
|
|
||||||
{
|
|
||||||
var a = CreateMatrix(i, i);
|
|
||||||
var b = CreateMatrix(i, i);
|
|
||||||
|
|
||||||
List<long> times = new() {};
|
|
||||||
Console.WriteLine("Для пяти потоков: ");
|
|
||||||
for (int j = 1; j <= 5; j++)
|
|
||||||
{
|
|
||||||
var sw = new Stopwatch();
|
|
||||||
sw.Start();
|
|
||||||
|
|
||||||
Calculate(a, j);
|
|
||||||
|
|
||||||
sw.Stop();
|
|
||||||
times.Add(sw.ElapsedTicks);
|
|
||||||
}
|
|
||||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной "+i+": "+string.Join("\t", times));
|
|
||||||
|
|
||||||
Console.WriteLine("Для десяти потоков: ");
|
|
||||||
for (int j = 1; j <= 10; j++)
|
|
||||||
{
|
|
||||||
var sw = new Stopwatch();
|
|
||||||
sw.Start();
|
|
||||||
|
|
||||||
Calculate(a, j);
|
|
||||||
|
|
||||||
sw.Stop();
|
|
||||||
times.Add(sw.ElapsedTicks);
|
|
||||||
}
|
|
||||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной " + i + ": " + string.Join("\t", times));
|
|
||||||
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
private static int[,] CreateMatrix(int x, int y)
|
|
||||||
{
|
|
||||||
var rnd = new Random();
|
|
||||||
|
|
||||||
var res = new int[y, x];
|
|
||||||
|
|
||||||
for (int i = 0; i < y; i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < x; j++)
|
|
||||||
{
|
|
||||||
res[i, j] = rnd.Next(0, 100);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double Calculate(int[,] matrix, int maxTask)
|
|
||||||
{
|
|
||||||
double res = 0;
|
|
||||||
|
|
||||||
var semaphore = new SemaphoreSlim(maxTask, maxTask);
|
|
||||||
|
|
||||||
for (var j = 0; j < matrix.GetLength(0) - 1; j++)
|
|
||||||
{
|
|
||||||
_ = Task.Run(() =>
|
|
||||||
{
|
|
||||||
try
|
|
||||||
{
|
|
||||||
semaphore.Wait();
|
|
||||||
res += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
|
||||||
matrix.CreateMatrixWithoutColumn(j).
|
|
||||||
CreateMatrixWithoutRow(1).CalculateDeterminant();
|
|
||||||
}
|
|
||||||
finally { semaphore.Release(); }
|
|
||||||
});
|
|
||||||
|
|
||||||
}
|
|
||||||
|
|
||||||
semaphore.Wait(maxTask);
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,18 +0,0 @@
|
|||||||
# Лабораторная работа 6
|
|
||||||
В рамках данной работы мы изучаем выигрыш при распаралелливании процесса вычисления определителя матрицы
|
|
||||||
## Описание
|
|
||||||
Для вычисления определителя мы используем следующую формулу:
|
|
||||||
![alt text](image.png)
|
|
||||||
где ![alt text](image-1.png) - определитель матрицы, полученной из исходной вырезанием 1 строки и j столбца.
|
|
||||||
|
|
||||||
## Запуск
|
|
||||||
По опыту прошлой лабораторной работы, в консольном приложении был реализован алгоритм вычисление детерминанта и запущено сравнение затраченного времени (в тиках) для 5 и 10 потоков.
|
|
||||||
## Результаты
|
|
||||||
Результаты:
|
|
||||||
<br/>
|
|
||||||
![Результат](image-2.png)
|
|
||||||
<br/>
|
|
||||||
Как мы видим, подтверждаются выводы прошлой лабораторной работы: для небольших матриц выигрыш несущественнен из-за затраты времени на работу с потоком, а для больших эта разница в скорости уже существенна
|
|
||||||
|
|
||||||
## Видеодемонстрация
|
|
||||||
Видеодемонстрация по [адресу](https://drive.google.com/file/d/1dOMaRcTRiPwhn2E4ok1WUOeh_dD9NyDQ/view?usp=sharing)
|
|
Before Width: | Height: | Size: 556 B |
Before Width: | Height: | Size: 67 KiB |
Before Width: | Height: | Size: 2.3 KiB |
@ -1,17 +0,0 @@
|
|||||||
**Балансировка нагрузки** предполагает равномерную нагрузку вычислительных узлов (процессора многопроцессорной ЭВМ или компьютера в сети)
|
|
||||||
|
|
||||||
Следует различать _статическую_ и _динамическую_ балансировки, где первая выполняется до начала выполнения распределенного приложения, а вторая – в процессе.
|
|
||||||
Приведем примеры алгоритмов балансировки:
|
|
||||||
* *Круговой алгоритм*: - распределение входящих запросов между несколькими серверами в порядке циклической очередности. Модификации:
|
|
||||||
- *Взвешенный циклический перебор*, учитывающий мощность серверов
|
|
||||||
- *Динамический круговой алгоритм*, который учитывает текущую нагрузку на серверы при распределении запросов.
|
|
||||||
* *Наименьшее количество соединений* - направление входящих запросов на сервер с наименьшим количеством активных соединений в данный момент времени. Модификации:
|
|
||||||
- *Взвешенное наименьшее количество соединений* – направляет запросы на сервер с наименьшим соотношением активных соединений к его назначенному весу.
|
|
||||||
* *Наименьшее время отклика* - направление запросов на сервер, который демонстрируют наилучшую производительность в данный момент. Он учитывает два ключевых фактора: время отклика сервера и количество активных соединений.
|
|
||||||
* *Наименьший объем трафика* – динамический алгоритм балансировки нагрузки, который направляет входящие запросы на сервер, передающий наименьший объем данных в текущий момент.
|
|
||||||
|
|
||||||
Существует достаточно много различных технологий как для программной, так и аппаратной балансировки. Наиболее популярные решения – это Nginx и OpenELB, MetalLB для Kubernetes.
|
|
||||||
|
|
||||||
Для обеспечения балансировка нагрузки на базах данных используется механизм **репликации**. Балансировка нагрузки заключается в распределении запросов от пользователей по разным копиям (репликам) базы данных.
|
|
||||||
|
|
||||||
**Реверс-прокси** — это сервер, который находится перед веб-серверами и пересылает запросы от клиента на эти веб-серверы. Он не является в полной мере балансировщиком, но может выполнять его функцию при большой нагрузке на систему.
|
|
@ -1,12 +0,0 @@
|
|||||||
Распределенные системы все больше набирают популярность в наше время. Этому способствуют такие ее качества как:
|
|
||||||
* *Устойчивость и масштабируемость* – возможность репликации позволяет поддерживать в работоспособном состоянии всю систему при отказе одного из ее компонентов
|
|
||||||
* *Принцип единой ответственности* – реализация каждого элемента системы в виде сервиса, ответственного за что-то одно, упрощает поддержку и дальнейшее развитие системы.
|
|
||||||
* *Увеличение производительности* – использование одновременно несколько распределенных сервисов позволяет повысить скорость обработки данных
|
|
||||||
|
|
||||||
**Оркестраторы** призваны обеспечивать мониторинг за состоянием системы и выполнять функции по ее оптимизации: организация быстрого развертывания, балансировка нагрузки. Оркестраторы так же позволяют уведомлять пользователей о возникших проблемах и выполнять сбор, агрегацию и анализ логов. Подобная обработка данных позволяет выявить узкие места системы. Но оркестратор так же требует ресурсы на собственную работу.
|
|
||||||
|
|
||||||
Под **сообщениями** подразумеваются данные, которыми обмениваются сервисы внутри системы. **Очереди сообщений** обеспечивают асинхронный обмен информацией. Сервис, отправляющий сообщение, взаимодействует не с другим сервисом, а с очередью и ждет ответа, не блокируя собственные процессы. Брокеры сообщений повышают отказоустойчивость такого обмена – они гарантируют доставку сообщения до сервиса-приемника.
|
|
||||||
|
|
||||||
На мой взгляд основными *преимуществами* распределенных приложений являются их масштабируемость и отказоустойчивость. Но в то же время они имеют и достаточно весомые *недостатки* – сложность их поддержки и реализации, а также сложность обработки и трассировки транзакций.
|
|
||||||
|
|
||||||
**Параллельные вычисления** в подобных системах следует внедрять только в том случае, когда *выигрыш от скорости вычислений значительно повышает затраты на выделение ресурсов*. Вычислить математические характеристики матрицы, к примеру, может быть оправдано, а вот разнесение высокоуровневой логики может быть неоправданно
|
|
8
emelyanov_artem_lab_4/.idea/.gitignore
vendored
@ -1,8 +0,0 @@
|
|||||||
# Default ignored files
|
|
||||||
/shelf/
|
|
||||||
/workspace.xml
|
|
||||||
# Editor-based HTTP Client requests
|
|
||||||
/httpRequests/
|
|
||||||
# Datasource local storage ignored files
|
|
||||||
/dataSources/
|
|
||||||
/dataSources.local.xml
|
|
@ -1,9 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<module type="JAVA_MODULE" version="4">
|
|
||||||
<component name="NewModuleRootManager" inherit-compiler-output="true">
|
|
||||||
<exclude-output />
|
|
||||||
<content url="file://$MODULE_DIR$" />
|
|
||||||
<orderEntry type="inheritedJdk" />
|
|
||||||
<orderEntry type="sourceFolder" forTests="false" />
|
|
||||||
</component>
|
|
||||||
</module>
|
|
@ -1,6 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="ProjectRootManager" version="2" languageLevel="JDK_23" default="true" project-jdk-name="23" project-jdk-type="JavaSDK">
|
|
||||||
<output url="file://$PROJECT_DIR$/out" />
|
|
||||||
</component>
|
|
||||||
</project>
|
|
@ -1,8 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="ProjectModuleManager">
|
|
||||||
<modules>
|
|
||||||
<module fileurl="file://$PROJECT_DIR$/.idea/emelyanov_artem_lab_4.iml" filepath="$PROJECT_DIR$/.idea/emelyanov_artem_lab_4.iml" />
|
|
||||||
</modules>
|
|
||||||
</component>
|
|
||||||
</project>
|
|
@ -1,6 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="VcsDirectoryMappings">
|
|
||||||
<mapping directory="$PROJECT_DIR$/.." vcs="Git" />
|
|
||||||
</component>
|
|
||||||
</project>
|
|
@ -1,28 +0,0 @@
|
|||||||
# Отчёт по урокам
|
|
||||||
|
|
||||||
1. ![lesson-1.png](images/lesson-1.png)
|
|
||||||
2. ![lesson-2.png](images/lesson-2.png)
|
|
||||||
3. ![lesson-3.png](images/lesson-3.png)
|
|
||||||
|
|
||||||
# Задание
|
|
||||||
|
|
||||||
### Работа Publisher`a
|
|
||||||
|
|
||||||
![Снимок экрана от 2024-10-18 16-01-40.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-40.png)
|
|
||||||
|
|
||||||
### Работа 1 Consumer`a
|
|
||||||
|
|
||||||
![Снимок экрана от 2024-10-18 16-01-48.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-48.png)
|
|
||||||
|
|
||||||
### Работа 2 Consumer`a
|
|
||||||
|
|
||||||
![Снимок экрана от 2024-10-18 16-01-52.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-52.png)
|
|
||||||
|
|
||||||
### Результат процесса выполнения в RabbitMQ
|
|
||||||
|
|
||||||
![Снимок экрана от 2024-10-18 16-02-20.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-02-20.png)
|
|
||||||
![Снимок экрана от 2024-10-18 16-02-59.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-02-59.png)
|
|
||||||
![Снимок экрана от 2024-10-18 16-03-08.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-03-08.png)
|
|
||||||
![Снимок экрана от 2024-10-18 16-03-12.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-03-12.png)
|
|
||||||
|
|
||||||
Ссылка на видео: https://drive.google.com/file/d/19K3-NrLHzurDqZ6EE8gyg1ajDRBdf21u/view?usp=sharing
|
|
@ -1,12 +0,0 @@
|
|||||||
version: '3.8'
|
|
||||||
|
|
||||||
services:
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management
|
|
||||||
container_name: rabbitmq
|
|
||||||
environment:
|
|
||||||
RABBITMQ_DEFAULT_USER: user
|
|
||||||
RABBITMQ_DEFAULT_PASS: password
|
|
||||||
ports:
|
|
||||||
- "5672:5672" # для приложений
|
|
||||||
- "15672:15672" # для панели управления
|
|
Before Width: | Height: | Size: 78 KiB |
Before Width: | Height: | Size: 86 KiB |
Before Width: | Height: | Size: 241 KiB |
Before Width: | Height: | Size: 108 KiB |
Before Width: | Height: | Size: 81 KiB |
Before Width: | Height: | Size: 85 KiB |
Before Width: | Height: | Size: 61 KiB |
Before Width: | Height: | Size: 41 KiB |
Before Width: | Height: | Size: 60 KiB |
Before Width: | Height: | Size: 60 KiB |
42
emelyanov_artem_lab_4/lesson-1/.gitignore
vendored
@ -1,42 +0,0 @@
|
|||||||
.gradle
|
|
||||||
build/
|
|
||||||
!gradle/wrapper/gradle-wrapper.jar
|
|
||||||
!**/src/main/**/build/
|
|
||||||
!**/src/test/**/build/
|
|
||||||
|
|
||||||
### IntelliJ IDEA ###
|
|
||||||
.idea/modules.xml
|
|
||||||
.idea/jarRepositories.xml
|
|
||||||
.idea/compiler.xml
|
|
||||||
.idea/libraries/
|
|
||||||
*.iws
|
|
||||||
*.iml
|
|
||||||
*.ipr
|
|
||||||
out/
|
|
||||||
!**/src/main/**/out/
|
|
||||||
!**/src/test/**/out/
|
|
||||||
|
|
||||||
### Eclipse ###
|
|
||||||
.apt_generated
|
|
||||||
.classpath
|
|
||||||
.factorypath
|
|
||||||
.project
|
|
||||||
.settings
|
|
||||||
.springBeans
|
|
||||||
.sts4-cache
|
|
||||||
bin/
|
|
||||||
!**/src/main/**/bin/
|
|
||||||
!**/src/test/**/bin/
|
|
||||||
|
|
||||||
### NetBeans ###
|
|
||||||
/nbproject/private/
|
|
||||||
/nbbuild/
|
|
||||||
/dist/
|
|
||||||
/nbdist/
|
|
||||||
/.nb-gradle/
|
|
||||||
|
|
||||||
### VS Code ###
|
|
||||||
.vscode/
|
|
||||||
|
|
||||||
### Mac OS ###
|
|
||||||
.DS_Store
|
|
@ -1,17 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="GradleMigrationSettings" migrationVersion="1" />
|
|
||||||
<component name="GradleSettings">
|
|
||||||
<option name="linkedExternalProjectsSettings">
|
|
||||||
<GradleProjectSettings>
|
|
||||||
<option name="externalProjectPath" value="$PROJECT_DIR$" />
|
|
||||||
<option name="gradleHome" value="" />
|
|
||||||
<option name="modules">
|
|
||||||
<set>
|
|
||||||
<option value="$PROJECT_DIR$" />
|
|
||||||
</set>
|
|
||||||
</option>
|
|
||||||
</GradleProjectSettings>
|
|
||||||
</option>
|
|
||||||
</component>
|
|
||||||
</project>
|
|
@ -1,10 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="ExternalStorageConfigurationManager" enabled="true" />
|
|
||||||
<component name="FrameworkDetectionExcludesConfiguration">
|
|
||||||
<file type="web" url="file://$PROJECT_DIR$" />
|
|
||||||
</component>
|
|
||||||
<component name="ProjectRootManager" version="2" languageLevel="JDK_21" default="true" project-jdk-name="21" project-jdk-type="JavaSDK">
|
|
||||||
<output url="file://$PROJECT_DIR$/out" />
|
|
||||||
</component>
|
|
||||||
</project>
|
|
@ -1,6 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="VcsDirectoryMappings">
|
|
||||||
<mapping directory="$PROJECT_DIR$/../.." vcs="Git" />
|
|
||||||
</component>
|
|
||||||
</project>
|
|